Implémenter une solution engineering données avec Azure Databricks
Apprenez comment exploiter la puissance d’Apache Spark et des clusters puissants fonctionnant sur la plateforme Azure Databricks pour exécuter des charges de travail d’ingénierie de données volumineuses dans le cloud.
Prérequis
Aucun
Code de réussite
Souhaitez-vous demander un code de réussite ?
Modules de ce parcours d’apprentissage
Vous allez découvrir plusieurs fonctionnalités et outils pour vous aider à comprendre et à utiliser le traitement incrémentiel avec Spark Structured Streaming.
Vous explorez différents outils et fonctionnalités pour vous aider à développer des modèles d’architecture avec Azure Databricks Delta Live Tables.
Découvrez comment optimiser les performances avec Spark et Delta Live Tables dans Azure Databricks.
Découvrez comment implémenter des workflows d’intégration continue et livraison continue dans Azure Databricks pour automatiser l’intégration et la livraison de modifications de code.
Découvrez comment orchestrer et planifier des workflows de données avec des travaux Azure Databricks. Définissez et surveillez des pipelines complexes, intégrez-les à des outils comme Azure Data Factory et Azure DevOps et réduisez les interventions manuelles, ce qui permet d’améliorer l’efficacité, d’obtenir des insights plus rapidement et de s’adapter aux besoins de l’entreprise.
Dans ce module, vous explorez différentes fonctionnalités et approches pour vous aider à sécuriser et à gérer vos données dans Azure Databricks à l’aide d’outils tels que Unity Catalog.
Azure Databricks fournit des entrepôts SQL qui permettent aux analystes Données de travailler avec des données en utilisant des requêtes SQL relationnelles connues.
L’utilisation de pipelines dans Azure Data Factory pour exécuter des notebooks dans Azure Databricks, vous pouvez automatiser les processus d’ingénierie de données à grande échelle dans le cloud.