Condividi tramite


Novità in arrivo

Informazioni sulle funzionalità e sulle modifiche comportamentali nelle prossime versioni di Azure Databricks.

La classificazione dei dati sarà presto disponibile per impostazione predefinita per alcune aree di lavoro con il profilo di sicurezza di conformità abilitato

A metà marzo 2026, la classificazione dei dati sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità abilitato e i controlli HIPAA selezionati.

Il supporto per EventBridge sarà presto disponibile per le code destinate agli eventi di file.

Alla fine di febbraio 2026, il supporto per EventBridge sarà disponibile per gli eventi di file tramite code dedicate nelle posizioni S3. Attualmente, gli eventi di file possono essere configurati solo tramite SNS o instradando gli eventi di archiviazione direttamente a SQS.

Vedere Uso di una coda fornita.

Agente Bricks: l'agente Supervisore sarà presto disponibile di default per i clienti con sicurezza e conformità avanzate

A metà marzo 2026, Agent Brick: Supervisor Agent sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità abilitato e i controlli HIPAA selezionati.

Usare Agent Brick: Supervisor Agent per creare un sistema di supervisione multi-agente che orchestra gli agenti e gli strumenti di intelligenza artificiale per lavorare insieme su attività complesse.

Consulta Use Agent Bricks: Supervisor Agent per creare un sistema multi-agente coordinato.

Le dimensioni di calcolo di Databricks Apps saranno presto disponibili per impostazione predefinita per le aree di lavoro con il profilo di sicurezza di conformità abilitato

Il dimensionamento delle risorse di calcolo per le app Databricks sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità abilitato all'inizio di marzo 2026.

Agent Bricks: Knowledge Assistant sarà presto disponibile per impostazione predefinita per i clienti con sicurezza e conformità avanzata.

A metà febbraio 2026, Agent Brick: Knowledge Assistant sarà disponibile per impostazione predefinita per le aree di lavoro con il profilo di sicurezza della conformità abilitato e i controlli HIPAA selezionati.

Usare Agent Brick: Knowledge Assistant per creare un chatbot in grado di rispondere a domande sui documenti e fornire risposte di alta qualità con citazioni.

Consulta Use Agent Bricks: Knowledge Assistant per creare un chatbot di alta qualità sui tuoi documenti.

ADBC diventerà il driver predefinito per le nuove connessioni di Power BI

A partire da febbraio, le nuove connessioni create in Power BI Desktop o nel servizio Power BI useranno automaticamente il driver Arrow Database Connectivity (ADBC) per impostazione predefinita. Le connessioni esistenti continueranno a usare ODBC a meno che non vengano aggiornate manualmente ad ADBC.

Se si preferisce continuare a usare ODBC per le nuove connessioni, sono disponibili due opzioni:

  1. Quando si crea una connessione, selezionare come Implementazione.
  2. In Power BI Desktop disabilitare l'anteprima della funzionalità ADBC, che ripristina ODBC come predefinita per tutte le nuove connessioni.

Per altre informazioni su ADBC, vedere Configurare il driver ADBC o ODBC per Power BI e il driver Databricks nel repository ADBC.

Modifica del nome del driver ODBC

In una versione futura, il driver ODBC Spark (Simba) verrà rinominato in Databricks ODBC Driver. In futuro, tutte le nuove versioni del driver useranno questo nome aggiornato. Di conseguenza, quando si scarica la versione più recente del driver, sarà necessario apportare aggiornamenti secondari nell'applicazione per usare il driver rinominato. Tutte le funzionalità e le prestazioni esistenti rimarranno invariate.

Le versioni precedenti del driver continueranno a essere disponibili nella pagina Tutte le versioni del driver ODBC e rimarranno supportate per almeno due anni.

Nuova logica di suddivisione per le tabelle della cronologia dei lavori

A partire dal 19 gennaio 2026, le tabelle della cronologia dei lavori adotteranno una nuova logica di sezionamento allineata all'ora. Le sezioni temporali ora sono allineate ai limiti dell'ora standard (5:00-6:00, 6:00-7:00 e così via) anziché in base agli intervalli di un'ora dall'inizio dell'esecuzione. Le nuove righe useranno la nuova logica di sezionamento, mentre le righe esistenti rimangono invariate.

Vedere Logica di sezionamento allineata all'ora.

Gli URL pubblici per i download dei driver ODBC verranno disabilitati

In una versione futura, gli URL pubblici per i download automatici dei driver ODBC di Apache Spark verranno disabilitati. Dopo questa modifica, tutti i download dei driver, inclusi i processi automatizzati, richiederanno l'autenticazione. Questo interromperà i processi automatizzati che scaricano i driver ODBC di Apache Spark usando collegamenti pubblici diretti senza autenticazione.

Aggiornamenti della navigazione di Catalog Explorer

Esplora cataloghi riceverà presto miglioramenti per la navigazione per semplificare i flussi di lavoro e facilitare l'individuazione e la gestione degli asset di dati in modo più efficiente.

Navigazione semplificata:

La scheda Cataloghi duplicati viene rimossa per ridurre la ridondanza e concentrarsi su una singola superficie di spostamento del catalogo. Le azioni DBFS e Invia feedback si spostano nel menu dell'icona kebab per un layout più pulito.

Nuova sezione Suggerita:

Una nuova scheda Suggerita nella pagina di destinazione esplora cataloghi evidenzia gli oggetti usati di frequente, gli oggetti di esempio per gli utenti per la prima volta e i preferiti degli utenti. In questo modo è possibile interagire rapidamente con asset importanti o individuare punti di partenza utili.

Punti di ingresso consolidati:

Le funzionalità correlate sono raggruppate in categorie più chiare per ridurre il rumore visivo e migliorare la individuabilità:

  • Govern – punto di ingresso per tag regolati, amministrazione metastore e classificazione dei dati
  • Connetti : punti di ingresso per posizioni esterne, dati esterni, credenziali e connessioni
  • Condivisione : punti di ingresso per Delta Sharing e le Stanze Pulite

Questi raggruppamenti sostituiscono sotto-tabulazioni sparse e creano un'architettura delle informazioni più intuitiva e scalabile.

Modifiche ai token di destinatario Delta Sharing aperti

Delta Sharing per i destinatari aperti passerà a un nuovo formato di URL specifico del destinatario, utilizzato per connettersi al server Delta Sharing. Questa modifica migliora la sicurezza di rete e le configurazioni del firewall, allineate alle procedure consigliate per la condivisione degli endpoint.

Token del destinatario creati a partire dal 9 marzo 2026:

A partire dal 9 marzo 2026, i nuovi token dei destinatari aperti useranno un nuovo formato URL specifico del destinatario per migliorare la sicurezza e il filtro di rete. Questa modifica si applica ai token rilasciati in data o successiva a questa data; I token precedenti possono continuare a usare il formato di URL precedente fino alla scadenza. Vedere New token expiration lifetime policy (Nuovo criterio di scadenza del token ) nella sezione seguente.

Per Azure Cina, la transizione verrà annunciata in un secondo momento.

Per OIDC, i destinatari devono passare al nuovo formato URL entro il 9 marzo 2027. A partire dal 9 marzo 2026, i provider potranno visualizzare il nuovo formato URL per i destinatari esistenti nella pagina Delta Sharing.

I nuovi URL saranno nel formato seguente:

https://2d4b0370-9d5c-4743-9297-72ba0f5caa8d.delta-sharing.westus.azuredatabricks.net

Nuovi criteri di durata della scadenza del token:

A partire dall'8 dicembre 2025, tutti i nuovi token del destinatario di condivisione aperta verranno rilasciati con una scadenza massima di un anno dalla data di creazione. I token con validità più lunga o illimitata non possono più essere creati.

Per i token creati usando il formato URL del destinatario precedente compreso tra l'8 dicembre 2025 e il 9 marzo 2026, ogni token scade automaticamente un anno dopo la creazione. Quando si ruotano i token, i provider possono configurare una finestra di inattività per consentire ai destinatari di eseguire la migrazione. Durante questa finestra, gli URL dei destinatari precedenti e nuovi continuano a funzionare.

Se attualmente si usano token di destinatario con durate lunghe o illimitate, esaminare le integrazioni e ricordarsi di ruotare i token ogni anno in base alle esigenze in base alla scadenza dei token l'8 dicembre 2026.

Viaggio nel tempo e VACUUM cambiamenti comportamentali per le tabelle gestite di Unity Catalog

A gennaio 2026, le funzionalità di time travel e le modifiche comportamentali introdotte in Databricks Runtime 18.0 si estenderanno al calcolo serverless, Databricks SQL e a Databricks Runtime 12.2 e versioni successive per VACUUM.

Queste modifiche includono:

  • Le query di spostamento del tempo vengono bloccate se superano delta.deletedFileRetentionDuration.
  • delta.logRetentionDuration deve essere maggiore o uguale a delta.deletedFileRetentionDuration.

Notifiche tramite posta elettronica per i token di accesso personali in scadenza

Azure Databricks invierà presto notifiche tramite posta elettronica agli utenti dell'area di lavoro circa sette giorni prima della scadenza dei token di accesso personali. Le notifiche vengono inviate solo agli utenti dell'area di lavoro (non alle entità servizio) con nomi utente basati sulla posta elettronica. Tutti i token in scadenza all'interno della stessa area di lavoro vengono raggruppati in un singolo messaggio di posta elettronica.

Consultare Monitorare e revocare i token di accesso personali.

Aggiornamento del termine del supporto per i dashboard legacy

  • Il supporto ufficiale per la versione legacy dei dashboard è terminato il 7 aprile 2025. Verranno risolti solo i problemi di sicurezza critici e le interruzioni del servizio.
  • 3 novembre 2025: Databricks ha iniziato a presentare agli utenti una finestra di dialogo di avviso ignorabile durante l'accesso a qualsiasi dashboard legacy. La finestra di dialogo ricorda agli utenti che l'accesso ai dashboard legacy terminerà il 12 gennaio 2026 e offre un'opzione con un solo clic per eseguire la migrazione all'intelligenza artificiale/BI.
  • 12 gennaio 2026: i dashboard e le API legacy non saranno più accessibili direttamente. Tuttavia, forniranno comunque la possibilità di eseguire l'aggiornamento sul posto per l'intelligenza artificiale/la BI. La pagina di migrazione sarà disponibile fino al 2 marzo 2026.

Per facilitare la transizione ai dashboard di intelligenza artificiale/BI, gli strumenti di aggiornamento sono disponibili sia nell'interfaccia utente che nell'API. Per istruzioni su come usare lo strumento di migrazione predefinito nell'interfaccia utente, vedere Clonare un dashboard legacy in un dashboard di intelligenza artificiale/BI. Per esercitazioni sulla creazione e la gestione di dashboard con l'API REST, vedere Usare le API di Azure Databricks per gestire i dashboard.

Condivisione e archiviazione predefinita di Lakehouse Federation

La Delta Sharing su Lakehouse Federation è in versione beta, consentendo ai provider di dati per Delta Sharing di condividere cataloghi e tabelle esterne. Per impostazione predefinita, i dati devono essere temporaneamente materializzati e archiviati nell'archiviazione predefinita (anteprima privata). Attualmente, gli utenti devono abilitare manualmente la funzionalità Condivisione delta per l'archiviazione predefinita - Accesso espanso nella console dell'account per usare la condivisione di Lakehouse Federation.

Dopo che Delta Sharing for Default Storage – Expanded Access è abilitato per impostazione predefinita per tutti gli utenti di Azure Databricks, Delta Sharing su Lakehouse Federation sarà automaticamente disponibile nelle regioni in cui è supportata l'archiviazione predefinita.

Vedere Archiviazione predefinita in Databricks e Aggiungere schemi o tabelle esterne a una condivisione.

Notifica di ricaricamento nelle aree di lavoro

In una versione futura, verrà visualizzato un messaggio per ricaricare la scheda dell'area di lavoro se la scheda dell'area di lavoro è stata aperta per molto tempo senza aggiornare. Ciò consentirà di assicurarsi di usare sempre la versione più recente di Databricks con le funzionalità e le correzioni più recenti.

Il connettore SAP Business Data Cloud (BDC) per Azure Databricks sarà presto disponibile a livello generale

SAP Business Data Cloud (BDC) Connector per Azure Databricks è una nuova funzionalità che consente di condividere dati da SAP BDC ad Azure Databricks e da Azure Databricks a SAP BDC usando la condivisione delta. Questa funzionalità sarà disponibile a livello generale alla fine di settembre.

Il Delta Sharing per le tabelle sullo storage predefinito verrà abilitato di default a breve (Beta)

Questo aggiornamento di archiviazione predefinito per la condivisione Delta ha ampliato le funzionalità di condivisione, consentendo ai provider di condividere tabelle supportate dall'archiviazione predefinita con qualsiasi destinatario di Delta Sharing (aperto o Azure Databricks), inclusi i destinatari che usano il calcolo classico. Questa funzionalità è attualmente in versione beta e richiede ai provider di abilitare manualmente la condivisione delta per l'archiviazione predefinita - Accesso espanso nella console dell'account. A breve, questa opzione verrà abilitata per impostazione predefinita per tutti gli utenti.

Vedere Limitazioni.

Aggiornamenti agli indirizzi IP pubblici del piano di controllo esterno

Azure Databricks sta aggiornando gli indirizzi IP pubblici del piano di controllo in uscita e i tag del servizio di Azure per migliorare la sicurezza e la disponibilità della zona. Queste modifiche fanno parte di un aggiornamento del piano di controllo che ha iniziato l'implementazione il 20 maggio 2025.

Se l'organizzazione usa firewall delle risorse per controllare l'accesso in ingresso:

  • Se le regole del firewall fanno riferimento al tag del servizio Azure Databricks, non è necessaria alcuna azione.
  • Se si consentono indirizzi IP pubblici specifici del piano di controllo, è necessario aggiungere tutti gli INDIRIZZI IP del piano di controllo in uscita entro il 26 settembre 2025.

Gli indirizzi IP del piano di controllo uscente precedenti continuano a essere supportati.

Modifica del comportamento dell'opzione di elenco delle directory incrementale del caricatore automatico

Annotazioni

L'opzione cloudFiles.useIncrementalListing del Caricatore Automatico è obsoleta. Anche se questa nota illustra una modifica al valore predefinito delle opzioni e come continuare a usarla dopo questa modifica, Databricks sconsiglia di utilizzare questa opzione a favore della modalità di notifica file con eventi file.

In una futura versione di Databricks Runtime, il valore dell'opzione Auto Loader ormai obsoleta verrà impostato su cloudFiles.useIncrementalListing per impostazione predefinita. L'impostazione di questo valore su false fa sì che il caricatore automatico esegua un elenco di directory completo ogni volta che viene eseguito. Attualmente, il valore predefinito dell'opzione cloudFiles.useIncrementalListing è auto, istruendo il caricatore automatico a fare un tentativo migliore per rilevare se un elenco incrementale può essere utilizzato con una directory.

Per continuare a usare la funzionalità di elenco incrementale, impostare l'opzione cloudFiles.useIncrementalListing su auto. Quando si imposta questo valore su auto, Il caricatore automatico tenta di eseguire un elenco completo una volta ogni sette elenchi incrementali, che corrisponde al comportamento di questa opzione prima di questa modifica.

Per ulteriori informazioni sull'elenco directory di Auto Loader, vedere Flussi di Auto Loader con la modalità elenco directory.

Modifica del comportamento quando le definizioni dei set di dati vengono rimosse dalle pipeline dichiarative di Lakeflow Spark

Una versione futura delle pipeline dichiarative di Lakeflow Spark modificherà il comportamento quando una vista materializzata o una tabella di streaming viene rimossa da una pipeline. Con questa modifica, la vista materializzata rimossa o la tabella di streaming non verranno eliminate automaticamente quando viene eseguito l'aggiornamento della pipeline successivo. Sarà invece possibile usare il comando DROP MATERIALIZED VIEW per eliminare una vista materializzata o il comando DROP TABLE per eliminare una tabella di streaming. Dopo l'eliminazione di un oggetto, l'esecuzione di un aggiornamento della pipeline non recupererà automaticamente l'oggetto. Viene creato un nuovo oggetto se una vista materializzata o una tabella di streaming con la stessa definizione viene nuovamente aggiunta alla pipeline. È tuttavia possibile recuperare un oggetto usando il comando UNDROP.

Il campo sourceIpAddress nei log di controllo non includerà più un numero di porta

A causa di un bug, alcuni log di controllo di autorizzazione e autenticazione includono un numero di porta oltre all'Indirizzo IP nel campo sourceIPAddress (ad esempio, "sourceIPAddress":"10.2.91.100:0"). Il numero di porta, registrato come 0, non fornisce alcun valore reale ed è incoerente con il resto dei log di controllo di Databricks. Per migliorare la coerenza dei log di controllo, Databricks ha in programma di modificare il formato dell'indirizzo IP per questi eventi del log di controllo. Questa modifica verrà implementata gradualmente a partire da inizio agosto 2024.

Se il log di controllo contiene un sourceIpAddress di 0.0.0.0, Databricks potrebbe interrompere il log.