Implémenter un lakehouse avec Microsoft Fabric

Intermédiaire
Analyste de données
Ingénieur Data
Data Scientist
Microsoft Fabric

Ce parcours d’apprentissage présente les composants fondamentaux de l’implémentation d’un data lakehouse avec Microsoft Fabric.

Prérequis

Vous devez connaître la terminologie et les concepts de base relatifs aux données.

Modules de ce parcours d’apprentissage

Découvrez comment Microsoft Fabric peut répondre aux besoins d’analytique de votre entreprise dans une plateforme unique. Découvrez Microsoft Fabric et son fonctionnement, et identifiez comment vous pouvez l’utiliser pour vos besoins d’analytique.

Les lakehouses fusionnent la flexibilité du stockage de lac de données avec l’analytique de l’entrepôt de données. Microsoft Fabric offre une solution de lakehouse pour une analytique complète sur une plateforme SaaS unique.

Apache Spark est une technologie de base pour l’analytique des données à grande échelle. Microsoft Fabric fournit une prise en charge les clusters Spark, ce qui vous permet d’analyser et de traiter des données dans un lakehouse à grande échelle.

Les tables d’un lakehouse Microsoft Fabric sont basées sur le format de stockage Delta Lake couramment utilisé dans Apache Spark. En utilisant les fonctionnalités améliorées des tables delta, vous pouvez créer des solutions d’analytique avancées.

L’ingestion de données est cruciale dans l’analytique. Data Factory de Microsoft Fabric offre des flux de données pour visualiser la création d’une ingestion des données et de leur transformation en plusieurs étapes avec Power Query Online.

Microsoft Fabric inclut des fonctionnalités Data Factory, notamment la possibilité de créer des pipelines qui orchestrent les tâches d’ingestion et de transformation des données.

Explorez le potentiel de la conception de l’architecture en médaillon dans Microsoft Fabric. Organisez et transformez vos données entre les couches Bronze, Argent et Or d’un lakehouse pour une analytique optimisée.