Ingerir dados com o Spark e os notebooks do Microsoft Fabric
Descubra como usar o Apache Spark e o Python para ingestão de dados em um lakehouse do Microsoft Fabric. Os notebooks do Fabric fornecem uma solução escalonável e sistemática.
Objetivos de aprendizagem
Ao final deste módulo, você poderá:
Ingerir dados externos em lakehouses do Fabric usando o Spark
Configurar a autenticação e a otimização de origem externa
Carregar dados no lakehouse como arquivos ou como tabelas Delta
Pré-requisitos
Experiência com Apache Spark e Python
Compreensão básica da extração, transformação e carregamento de dados