Anmerkung
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen, dich anzumelden oder die Verzeichnisse zu wechseln.
Der Zugriff auf diese Seite erfordert eine Genehmigung. Du kannst versuchen , die Verzeichnisse zu wechseln.
23. - 30. Januar 2025
Diese Features und Verbesserungen wurden mit der 2025.04-Version von DLT veröffentlicht.
Databricks-Runtime-Versionen, die in dieser Version verwendet werden
Channel:
- AKTUELL (Standard): Databricks Runtime 15.4
- VORSCHAU: Databricks Runtime 15.4 oder 16.1
Note
Da DLT-Kanalversionen einem rollierenden Upgradeprozess folgen, werden Kanalupgrades zu unterschiedlichen Zeiten in verschiedenen Regionen bereitgestellt. Ihre Version, einschließlich Databricks-Runtime-Versionen, wird möglicherweise erst nach einer Woche oder mehr nach dem ursprünglichen Veröffentlichungsdatum aktualisiert. Informationen zum Suchen der Databricks-Runtime-Version für eine Pipeline finden Sie unter Runtime-Informationen.
Neue Features und Verbesserungen
- Standardmäßig unterstützen neue Lakeflow Spark Declarative Pipelines das Erstellen und Aktualisieren materialisierter Ansichten und Streamingtabellen in mehreren Katalogen und Schemas. Dieses neue Standardverhalten für die Pipelinekonfiguration erfordert, dass Benutzer ein Zielschema angeben, das zum Standardschema für die Pipeline wird. Das
LIVEvirtuelles Schema und die zugehörige Syntax sind nicht mehr erforderlich. Weitere Informationen finden Sie unter Festlegen des Zielkatalogs und Schemas, Konfigurieren von Pipelines und LIVE-Schema (Legacy).
- Die
clone a pipelineAnforderung in der Databricks-REST-API ist jetzt allgemein verfügbar. Sie können diese Anforderung verwenden, um eine vorhandene Pipeline zu kopieren, die im Hive-Metaspeicher veröffentlicht wird, in eine neue Pipeline, die im Unity-Katalog veröffentlicht wird. Siehe Erstellen einer Unity-Katalogpipeline durch Klonen einer Hive-Metastore-Pipeline.
- Unterstützung für das Anzeigen von Streaming-Workload-Metriken für Ihre Pipelineupdates befindet sich in der öffentlichen Vorschau. Wenn Sie Pipeline-Updates in der Benutzeroberfläche von Lakeflow Spark Declarative Pipelines anzeigen, können Sie jetzt Metriken wie Backlog-Sekunden, Backlog-Bytes, Backlog-Datensätze und Backlog-Dateien für jeden Streaming-Flow in der Pipeline sehen. Streamingmetriken werden für Spark Structured Streaming-Quellen unterstützt, einschließlich Apache Kafka, Amazon Kinesis und Auto Loader. Siehe Streamingmetriken anzeigen.