Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Queste funzionalità e i miglioramenti della piattaforma Azure Databricks sono stati rilasciati a febbraio 2026.
Annotazioni
Le versioni vengono distribuite gradualmente. L'account Azure Databricks potrebbe non essere aggiornato fino a una settimana o più dopo la data di rilascio iniziale.
Supporto per la conformità ISMAP
26 febbraio 2026
È ora possibile configurare Azure Databricks aree di lavoro per supportare ISMAP, l'iniziativa di certificazione giapponese per i servizi cloud. Vedere Information system Security Management and Assessment Program (ISMAP).
Aggiornamenti della manutenzione di Databricks Runtime (26/02)
26 febbraio 2026
Sono disponibili nuovi aggiornamenti di manutenzione per le versioni supportate di Databricks Runtime. Questi aggiornamenti includono correzioni di bug, patch di sicurezza e miglioramenti delle prestazioni. Per informazioni dettagliate, vedere:
- Databricks Runtime 18.0
- Databricks Runtime 17.3 LTS
- Databricks Runtime 17.2
- Databricks Runtime 16.4 LTS
- Databricks Runtime 15.4 LTS
- Databricks Runtime 14.3 LTS
- Databricks Runtime 13.3 LTS
- Databricks Runtime 12.2 LTS
Python unit test nell'area di lavoro
26 febbraio 2026
Azure Databricks ora offre strumenti di unit test integrati Python nell'area di lavoro. Usare la barra laterale dei test, i glifi di esecuzione in linea e la scheda dei risultati dei test nel pannello inferiore per individuare, avviare ed eseguire il debug di test basati su pytest. Vedere Python unit test nell'area di lavoro.
Il Driver ODBC di Databricks è stato rinominato da Simba Spark ODBC Driver a Databricks ODBC Driver.
25 febbraio 2026
Il driver ODBC di Databricks è stato rinominato da Simba Spark ODBC Driver a Databricks ODBC Driver. Le versioni esistenti del driver Simba rimangono supportate per due anni. Vedere Eseguire la migrazione da Simba Spark ODBC Driver a Databricks ODBC Driver per istruzioni sull'aggiornamento delle connessioni.
COMMENT ON le tabelle di streaming sono ora disponibili a livello generale
23 febbraio 2026
COMMENT ON TABLE per aggiungere o aggiornare i commenti nelle tabelle di streaming è ora disponibile a livello generale.
Vedi COMMENT ON.
Token di accesso personali mantenuti quando viene revocata l'autorizzazione CAN USE
23 febbraio 2026
Quando si revoca l'autorizzazione CAN USE di un utente, i token di accesso personali diventano inutilizzabili ma non vengono eliminati. Se l'autorizzazione viene ripristinata, gli stessi token diventano nuovamente attivi. Vedere Gestire le autorizzazioni del token di accesso personale.
I criteri degli endpoint del servizio di rete virtuale di Azure sono ora disponibili per uso pubblico
23 febbraio 2026
I criteri degli endpoint del servizio di rete virtuale di Azure per filtrare l'accesso in uscita alle risorse di archiviazione dal calcolo classico sono ora disponibili a livello generale. Vedere Configurare criteri degli endpoint del servizio di rete virtuale di Azure per l'accesso alle risorse di archiviazione dal sistema di calcolo classico.
Le attività JAR nel calcolo serverless sono ora disponibili in anteprima pubblica
20 febbraio 2026
L'esecuzione di processi JAR in un ambiente di calcolo serverless è ora disponibile in anteprima pubblica. Consulta attività JAR per i compiti.
Il driver ADBC è ora il driver predefinito per le nuove connessioni Power BI
20 febbraio 2026
Le nuove connessioni create in Power BI Desktop o Power BI Service ora usano automaticamente il driver Arrow Database Connectivity (ADBC) per impostazione predefinita. Le connessioni esistenti continuano a usare ODBC a meno che non vengano aggiornate manualmente ad ADBC. È comunque possibile passare ai driver ODBC per le nuove connessioni. Vedere Configurare il driver ADBC o ODBC per Power BI.
Aggiornamenti della manutenzione di Databricks Runtime (02/19)
19 febbraio 2026
Sono disponibili nuovi aggiornamenti di manutenzione per le versioni supportate di Databricks Runtime. Questi aggiornamenti includono correzioni di bug, patch di sicurezza e miglioramenti delle prestazioni. Per informazioni dettagliate, vedere:
- Databricks Runtime 18.0
- Databricks Runtime 17.3 LTS
- Databricks Runtime 17.2
- Databricks Runtime 16.4 LTS
- Databricks Runtime 15.4 LTS
- Databricks Runtime 14.3 LTS
- Databricks Runtime 13.3 LTS
- Databricks Runtime 12.2 LTS
Connettore TikTok Ads (Beta)
18 febbraio 2026
Lakeflow Connect supporta ora un connettore gestito per l'inserimento da TikTok Ads. Vedi Connettore TikTok Ads.
Scoprire pagina e domini (beta)
18 febbraio 2026
La pagina Scopri offre un'interfaccia centralizzata per la ricerca, l'esplorazione e l'anteprima dei beni di dati regolati da Unity Catalog. Questa versione beta introduce:
- Domini: livello organizzazione allineato all'azienda che raggruppa gli asset di dati in base all'area funzionale (ad esempio , Marketing o Finanza) per migliorare l'individuazione e la gestione
- Cura personalizzata: i curatori possono personalizzare ed evidenziare asset specifici nell'organizzazione o nel dominio
- raccomandazioni basate su AI: Evidenziare set di dati popolari e preziosi per consentire la curatione su larga scala
- Individuazione unificata: accedere a tabelle, dashboard, spazi Genie e altro in un'unica posizione
I domini sono basati su tag regolati, consentendo di organizzare gli asset di dati in modo più adatto alle esigenze aziendali.
Token di accesso personali con ambiti definiti (beta)
18 febbraio 2026
È ora possibile limitare le autorizzazioni dei token di accesso personale selezionando un tipo di token e aggiungendo ambiti API. In questo modo ogni token viene limitato solo alle operazioni API specificate. Vedere Autenticazione con i token di accesso personale di Azure Databricks (legacy). Questa funzionalità è in versione beta.
Inbound collegamento privato per servizi ad alte prestazioni (Beta)
18 febbraio 2026
È ora possibile configurare i collegamento privato in ingresso per la connettività privata ai servizi a elevato utilizzo di prestazioni, ad esempio Zerobus Ingest e Lakebase Autoscaling. Consulta Configurare collegamento privato in ingresso per servizi ad alte prestazioni.
Qwen3-Embedding-0.6B ora disponibile in anteprima pubblica come modello ospitato da Databricks
17 febbraio 2026
Mosaic AI Model Serving supporta ora Qwen3-Embedding-0.6B in anteprima pubblica come modello ospitato da Databricks. È possibile accedere a questo modello usando le API del modello di base con pagamento in base al token.
Anthropic Claude Sonnet 4.6 ora disponibile come modello ospitato da Databricks
17 febbraio 2026
Mosaic AI Model Serving supporta ora Anthropic Claude Sonnet 4.6 come modello ospitato da Databricks. È possibile accedere a questo modello usando le API del modello di base con pagamento in base al token.
Databricks Runtime 18.1 e Databricks Runtime 18.1 ML sono in versione beta
17 febbraio 2026
Databricks Runtime 18.1 e Databricks Runtime 18.1 ML sono ora in versione beta, con tecnologia Apache Spark 4.1.0.
Vedere Databricks Runtime 18.1 e Databricks Runtime 18.1 per Machine Learning.
Federazione del catalogo OneLake (Beta)
16 febbraio 2026
La federazione del catalogo OneLake (Beta) consente di leggere i dati nell'archiviazione OneLake senza copiarli, portando Azure Databricks funzionalità di analisi e intelligenza artificiale/BI direttamente ai dati di OneLake. La federazione di OneLake esegue query direttamente sull'archiviazione file per ottenere prestazioni migliori ed efficienza in termini di costi. L'accesso ai dati è di sola lettura.
Vedere Abilitare la federazione del catalogo OneLake.
La gestione automatica delle identità disattiva gli utenti Entra ID eliminati
16 febbraio 2026
La gestione automatica delle identità ora disattiva automaticamente gli utenti eliminati da Microsoft Entra ID. Quando si rimuove un utente da Microsoft Entra ID, Azure Databricks rileva l'eliminazione durante la sincronizzazione dell'identità successiva e disattiva l'account Azure Databricks dell'utente. In precedenza, Azure Databricks aveva contrassegnato questi utenti come Active: Removed From EntraID. Non è stato possibile accedere o eseguire l'autenticazione alle API, ma non sono stati contrassegnati come Disattivati. Consultare Sync utenti e gruppi automaticamente da Microsoft Entra ID.
Gateway di intelligenza artificiale (beta)
12 febbraio 2026
Il gateway di intelligenza artificiale (Beta) è il piano di controllo aziendale per la governance degli endpoint LLM e degli agenti di codifica con funzionalità avanzate, tra cui un'interfaccia utente avanzata, una migliore osservabilità e una copertura api estesa.
Consulta Gateway di intelligenza artificiale Unity per agenti e LLMs.
Eventi di file abilitati per impostazione predefinita in nuovi percorsi esterni
12 febbraio 2026
Gli eventi di file sono ora abilitati per impostazione predefinita quando si creano nuovi percorsi esterni. Il servizio eventi di file Azure Databricks configura le risorse cloud per rilevare le modifiche ai file, consentendo processi di archiviazione basati su eventi e pipeline di inserimento più efficienti.
Quando si crea una posizione esterna usando l'interfaccia utente, Azure Databricks verifica la presenza delle autorizzazioni necessarie e consente di risolvere eventuali problemi o procedere con una creazione forzata. Questo controllo non viene eseguito nell'API, ma le pipeline di acquisizione dati adottano automaticamente una soluzione alternativa per evitare interruzioni.
È possibile disabilitare gli eventi di file per un percorso esterno dopo la creazione, se necessario. Per altre informazioni, vedere Configurare gli eventi di file per un percorso esterno.
Connettore HubSpot (Beta)
12 febbraio 2026
Il connettore HubSpot gestito in Lakeflow Connect consente di inserire dati da HubSpot Marketing Hub in Azure Databricks. Vedere Connettore HubSpot.
Calcolo serverless ora disponibile per gli standard di conformità
11 febbraio 2026
L'ambiente di calcolo serverless è ora disponibile per standard di conformità aggiuntivi:
- HITRUST
- PCI-DSS
- TISAX
- Cyber Essentials Plus Regno Unito
Per un elenco degli standard di conformità per area, vedere Profilo di sicurezza della conformità.
Configurare i repository di pacchetti Python predefiniti per le pipeline dichiarative di Lakeflow Spark (anteprima pubblica)
11 febbraio 2026
Gli amministratori dell'area di lavoro possono ora configurare repository di pacchetti privati o autenticati all'interno delle aree di lavoro come configurazione pip predefinita per le pipeline dichiarative di Lakeflow Spark. In questo modo gli utenti dell'area di lavoro possono installare pacchetti da repository interni di Python senza definire in modo esplicito i valori index-url o extra-index-url.
Per altri dettagli, vedere Configurare i repository di pacchetti predefiniti Python.
L'agente supervisore è ora disponibile a livello generale
10 febbraio 2026
Usare l'agente supervisore per creare un sistema di supervisione multi-agente che orchestra gli agenti e gli strumenti di intelligenza artificiale per lavorare insieme su attività complesse.
L'agente supervisore è ora disponibile a livello generale nelle aree degli Stati Uniti selezionate per le aree di lavoro senza funzionalità di sicurezza e conformità avanzate .
Nuova documentazione per la creazione e la distribuzione di agenti in Databricks Apps
10 febbraio 2026
Sono disponibili nuovi modelli di documentazione e progetto per la compilazione e la distribuzione di agenti di intelligenza artificiale in Databricks Apps. Creare agenti con librerie comuni come LangGraph, PyFunc e OpenAI Agent SDK, quindi distribuirli nelle app Databricks. Vedere Creare un agente di intelligenza artificiale e distribuirlo in Databricks Apps.
Distribuire applicazioni Databricks da repository Git (Beta)
6 febbraio 2026
È ora possibile distribuire le app Databricks direttamente dai repository Git senza caricare file nell'area di lavoro. Configurare un repository per la tua app e distribuire da qualsiasi ramo, tag o commit. Vedere Distribuire da un repository Git.
Tag di query per sql warehouse (anteprima pubblica)
6 febbraio 2026
È ora possibile applicare tag chiave-valore personalizzati ai carichi di lavoro SQL in Databricks SQL Warehouse per il raggruppamento, il filtro e l'attribuzione dei costi. I tag di query vengono visualizzati nella tabella system.query.history e nella pagina cronologia Query dell'interfaccia utente di Azure Databricks, consentendo di attribuire i costi del warehouse in base al contesto aziendale e identificare le origini di query a esecuzione prolungata. I tag possono essere impostati usando i parametri di configurazione della sessione, l'istruzione SQL SET QUERY_TAGS o tramite connettori che includono dbt, Power BI, Tableau, Python, Node.js, Go, JDBC e ODBC. Consulta Tag di query.
Agent Bricks: il Supervisore Multi-Agente è ora Supervisor Agent
5 febbraio 2026
Il supervisore multi-agente di Agent Bricks è stato rinominato in Agente Supervisore. Vedere Usare l'agente supervisore per creare un sistema multi-agente coordinato.
Connettore Google Ads (Beta)
5 febbraio 2026
Il connettore Google Ads gestito in Lakeflow Connect consente di inserire dati da Google Ads in Azure Databricks. Vedi Connettore Google Ads.
Decifrare i campi della tabella di sistema della cronologia delle query (Anteprima Pubblica)
5 febbraio 2026
Per le aree di lavoro abilitate per le chiavi gestite dal cliente per i servizi gestiti, le impostazioni di crittografia dei dati del system catalogo possono essere configurate per decrittografare i campi statement_text e error_message nella tabella di sistema della cronologia delle query. Vedere Lettura dei campi crittografati.
::::
L'applicazione di filtri, maschere, tag e commenti ai set di dati creati dalla pipeline è ora disponibile a livello generale
5 febbraio 2026
Uso di CREATE, ALTER o dell'interfaccia utente di Lakeflow per modificare le pipeline ETL e di inserimento (pipeline dichiarative di Lakeflow Spark e pipeline di connessione Lakeflow Connect) è ora disponibile in versione generale. È possibile modificare le pipeline per applicare filtri di riga, maschere di colonna, tag di tabella e colonna, commenti di colonna e (solo per viste materializzate) commenti di tabella.
Vedere ALTER STREAMING TABLE e ALTER MATERIALIZED VIEW. Per informazioni generali sull'uso di ALTER con le pipeline dichiarative di Lakeflow Spark, vedere Usare istruzioni ALTER con i set di dati della pipeline.
Anthropic Claude Opus 4.6 ora disponibile come modello ospitato da Databricks
5 febbraio 2026
Mosaic AI Model Serving supporta ora Anthropic Claude Opus 4.6 come modello ospitato da Databricks.
Per accedere a questo modello, usare:
Impostazioni predefinite di SQL Warehouse (disponibilità generale)
5 febbraio 2026
Le impostazioni predefinite di SQL Warehouse sono ora disponibili a livello generale. Gli amministratori dell'area di lavoro possono impostare un SQL Warehouse predefinito che viene selezionato automaticamente nelle superfici di creazione SQL, inclusi l'editor SQL, i dashboard AI/BI, gli spazi Genie, gli avvisi e l'esploratore di cataloghi. I singoli utenti possono anche eseguire l'override dell'area di lavoro predefinita impostando il proprio warehouse predefinito a livello di utente. Vedere Impostare un magazzino dati SQL predefinito per l'area di lavoro e Impostare un magazzino dati predefinito a livello di utente.
Visualizzare i dettagli dell'attività del warehouse (beta)
5 febbraio 2026
È ora possibile visualizzare annotazioni dettagliate nel grafico Esecuzione di cluster nell'interfaccia utente di monitoraggio di SQL Warehouse per comprendere perché i warehouse rimangono attivi. L'interruttore Dettagli attività visualizza barre codificate a colori che mostrano attività di query, recupero di query, sessioni aperte e stati di inattività. Passare il puntatore sulla barra per visualizzare i metadati o fare clic sull'attività di recupero per filtrare la tabella della cronologia delle query. Visualizzare Monitorare un SQL Warehouse.
Le funzionalità di intelligenza artificiale basate su partner sono ora supportate nelle aree geografiche canada, Brasile e Regno Unito Azure
4 febbraio 2026
Funzionalità AI basate su partner in Canada, Brasile e Regno Unito, eseguite con cross-Geo processing disabilitato, ora usano modelli ospitati nella stessa geografia Azure della workspace. Questo allinea l'hosting di modelli con le geografie di Azure e garantisce una disponibilità coerente a livello regionale.
Impatto sull'esperienza utente:
- La maggior parte delle funzionalità di intelligenza artificiale continua a funzionare come previsto senza alcuna azione necessaria.
- Alcune funzionalità di intelligenza artificiale che dipendono dai modelli non attualmente ospitati nella Azure Geography potrebbero non essere più disponibili con l'elaborazione tra aree geografiche disabilitate. Per altre informazioni sulle funzionalità che richiedono l'elaborazione tra aree geografiche, vedere Disponibilità di servizi designati in ogni area geografica.
- Se si fa affidamento su una funzionalità che non è più disponibile nella Azure Geography, abilitare l'elaborazione tra aree geografiche per consentire a tale funzionalità di continuare a usare i modelli ospitati all'esterno dell'area geografica Azure.
- Per gli spazi di lavoro in queste aree geografiche Azure, le funzionalità di intelligenza artificiale useranno solo modelli ospitati da Databricks se entrambe le funzionalità di intelligenza artificiale alimentate da partner e l'impostazione Imporre il trattamento dei dati all'interno della geografia dello spazio di lavoro per i servizi designati sono disabilitate. Se le funzionalità di intelligenza artificiale basate su partner sono disabilitate e l'applicazione dell'elaborazione dei dati nell'area di lavoro Geography for Designated Services è abilitata, le funzionalità di assistive di intelligenza artificiale non sono disponibili nell'area di lavoro.
La scalabilità automatica di Lakebase è ora disponibile in Azure (beta)
4 febbraio 2026
La scalabilità automatica di Lakebase, la versione più recente di Lakebase Postgres, è ora disponibile in Azure in beta. Accedere alla nuova app Lakebase dal commutatore dell'app per usare il calcolo con scalabilità automatica, la scalabilità a zero, la diramazione del database e il ripristino istantaneo.
Regioni di Azure supportate:
-
eastus2(Stati Uniti orientali 2) -
westeurope(Europa occidentale) -
westus(Stati Uniti occidentali)
Vedere Introduzione alla scalabilità automatica di Lakebase.
Connettere Databricks Assistant ai server MCP
4 febbraio 2026
È ora possibile connettere Databricks Assistant in modalità agente a strumenti esterni e origini dati tramite il protocollo MCP (Model Context Protocol). L'Assistente può usare tutti i server MCP aggiunti all'area di lavoro per cui hai l'autorizzazione.
Vedere Connettere Genie Code ai server MCP.
Seleziona le tabelle e crea tabelle pivot in Fogli Google
3 febbraio 2026
È ora possibile selezionare direttamente le tabelle di Azure Databricks dal Catalogo Explorer e importare dati come tabelle pivot in Google Sheets usando il Databricks Connector. Guarda il Connettore Databricks per Google Sheets.
Genie Spaces sono ora disponibili nelle Aree geografiche del Giappone e della Corea di Azure
2 febbraio 2026
Genie Spaces è ora disponibile in-Geo per Giappone e Corea. Le aree di lavoro nelle Geografie di Azure di Giappone e Corea non richiedono più l'elaborazione cross-geo per usare Genie Spaces.
Per altre informazioni sulle funzionalità che richiedono l'elaborazione tra aree geografiche, vedere Disponibilità di servizi designati in ogni area geografica.
Tag Databricks Apps (anteprima pubblica)
2 febbraio 2026
È ora possibile applicare tag alle app Databricks per organizzarle e classificarle. Vedere Applicare tag alle app di Databricks. La ricerca non è supportata usando i tag delle app di Databricks.
Connettore Zendesk Support (Beta)
2 febbraio 2026
Il connettore zendesk support consente di inserire i dati dei ticket, i contenuti del centro assistenza e i dati del forum della community da Zendesk Support. Vedere Panoramica del connettore di supporto zendesk.
Anteprima pubblica del rilevamento delle anomalie nel monitoraggio della qualità dei dati
2 febbraio 2026
"Il monitoraggio della qualità dei dati Databricks 'Rilevamento delle anomalie' è ora disponibile in anteprima pubblica." La funzionalità è abilitata a livello di schema e apprende dai modelli di dati cronologici per rilevare le anomalie della qualità dei dati. L'integrità di tutte le tabelle monitorate viene consolidata in una singola tabella di sistema e in una nuova interfaccia utente. Vedere Rilevamento anomalie.