Implementieren einer Datentechniklösung mit Azure Databricks
Erfahren Sie, wie Sie die Leistungsfähigkeit von Apache Spark und leistungsstarke Cluster auf Basis der Azure Databricks-Plattform nutzen können, um große Data-Engineering-Workloads in der Cloud zu bewältigen.
Voraussetzungen
Keine
Hinzufügen
Erfolgscode
Möchten Sie einen Erfolgscode beantragen?
Module in diesem Lernpfad
Sie erkunden verschiedene Features und Tools, die Ihnen helfen, die inkrementelle Verarbeitung mit Spark Structured Streaming zu verstehen und zu bearbeiten.
Sie erkunden verschiedene Features und Tools, mit denen Sie Architekturmuster mit Delta Live Tables von Azure Databricks entwickeln können.
Hier erfahren Sie, wie Sie die Leistung mit Spark und Delta Live Tables in Azure Databricks optimieren.
Hier erfahren Sie, wie Sie CI/CD-Workflows in Azure Databricks implementieren, um die Integration und Übermittlung von Codeänderungen zu automatisieren.
Erfahren Sie, wie Sie Datenworkflows mit Azure Databricks-Aufträgen koordinieren und planen. Definieren und überwachen Sie komplexe Pipelines, integrieren Sie sie in Tools wie Azure Data Factory und Azure DevOps, und reduzieren Sie den manuellen Eingriff, um von mehr Effizienz, schnellere Erkenntnisse und anpassungsfähigere Geschäftsanforderungen zu profitieren.
In diesem Modul lernen Sie verschiedene Funktionen und Ansätze kennen, die Ihnen helfen, Ihre Daten innerhalb von Azure Databricks mithilfe von Tools wie Unity Catalog zu sichern und zu verwalten.
Azure Databricks stellt SQL-Warehouses bereit, mit denen Datenanalysten mithilfe vertrauter relationaler SQL-Abfragen mit Daten arbeiten können.
Indem Sie Pipelines in Azure Data Factory verwenden, um Notebooks in Azure Databricks auszuführen, können Sie Datentechnikvorgänge im Cloudmaßstab automatisieren.