Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
23 - 30 gennaio 2025
Queste funzionalità e miglioramenti sono stati rilasciati con la versione 2025.04 di DLT.
Versioni di Databricks Runtime usate da questa versione
Canale :
- CURRENT (impostazione predefinita): Databricks Runtime 15.4
- ANTEPRIMA: Databricks Runtime 15.4 o 16.1
Nota
Poiché le versioni del canale DLT seguono un processo di aggiornamento in sequenza, gli aggiornamenti del canale vengono distribuiti in aree diverse in momenti diversi. La versione, incluse le versioni di Databricks Runtime, potrebbe non essere aggiornata fino a una settimana o più dopo la data di rilascio iniziale. Per trovare la versione di Databricks Runtime per una pipeline, vedere Informazioni sul runtime.
Nuove funzionalità e miglioramenti
- Per impostazione predefinita, le nuove pipeline dichiarative di Lakeflow supportano la creazione e l'aggiornamento di viste materializzate e tabelle di streaming in più cataloghi e schemi. Questo nuovo comportamento predefinito per la configurazione della pipeline richiede che gli utenti specifichino uno schema di destinazione che diventa lo schema predefinito per la pipeline. Lo schema virtuale
LIVE
e la sintassi associata non sono più necessari. Per altre informazioni, vedere Impostare il catalogo e lo schema di destinazione, Configurare le pipeline dichiarative di Lakeflow e lo schema LIVE (legacy).
- La richiesta di
clone a pipeline
nell'API REST di Databricks è ora disponibile a livello generale. È possibile usare questa richiesta per copiare una pipeline esistente che pubblica nel metastore Hive in una nuova pipeline che pubblica in Unity Catalog. Vedi per creare una pipeline del Catalogo Unity clonando una pipeline del metastore Hive.
- Il supporto per la visualizzazione delle metriche dei carichi di lavoro di streaming per gli aggiornamenti dichiarativi della pipeline Lakeflow è disponibile in anteprima pubblica. Quando si visualizzano gli aggiornamenti della pipeline nell'interfaccia utente di Lakeflow Declarative Pipelines, è ora possibile visualizzare metriche come i secondi di backlog, i byte backlog, i record backlog e i file backlog per ogni flusso di streaming nella pipeline. Le metriche di streaming sono supportate per le origini di Spark Structured Streaming, tra cui Apache Kafka, Amazon Kinesis e Auto Loader. Vedere Visualizzare le metriche di streaming.