Gegevens verkennen en transformeren in een lakehouse

Voltooid

Nadat u gegevens in lakehouse hebt geladen, kunt u verschillende hulpprogramma's en technieken gebruiken om deze te verkennen en te transformeren, waaronder:

  • Apache Spark: Elke Fabric Lakehouse kan Spark-pools gebruiken via notebooks of Spark-taakdefinities om gegevens te verwerken in bestanden en tabellen in lakehouse met behulp van Scala, PySpark of Spark SQL.

    • Notebooks: interactieve coderingsinterfaces waarin u code kunt gebruiken om gegevens rechtstreeks als tabellen en/of bestanden naar lakehouse te lezen, transformeren en schrijven.

    • Spark-taakdefinities: on-demand of geplande scripts die gebruikmaken van de Spark-engine voor het verwerken van gegevens in lakehouse.

  • SQL-analyse-eindpunt: Elk lakehouse bevat een SQL-analyse-eindpunt waarmee u Transact-SQL-instructies kunt uitvoeren om gegevens in Lakehouse-tabellen op te vragen, filteren, aggregeren en anderszins te verkennen.

  • Gegevensstromen (Gen2): naast het gebruik van een gegevensstroom om gegevens op te nemen in lakehouse, kunt u een gegevensstroom maken om volgende transformaties uit te voeren via Power Query en eventueel getransformeerde gegevens terugzetten naar Lakehouse.

  • Gegevenspijplijnen: orchestrateer complexe logica voor gegevenstransformatie die werkt op gegevens in lakehouse via een reeks activiteiten (zoals gegevensstromen, Spark-taken en andere besturingsstroomlogica).

Gegevens analyseren en visualiseren in een lakehouse

De gegevens in uw Lakehouse-tabellen zijn opgenomen in een semantisch model waarmee een relationeel model voor uw gegevens wordt gedefinieerd. U kunt dit semantische model bewerken (of andere semantische modellen maken), aangepaste metingen, hiërarchieën, aggregaties en andere elementen van een semantisch model definiëren. Vervolgens kunt u het semantische model gebruiken als bron voor een Power BI-rapport waarmee u de gegevens kunt visualiseren en analyseren.

Door de mogelijkheden voor gegevensvisualisatie van Power BI te combineren met het gecentraliseerde opslag- en tabelvormige schema van een Data Lakehouse, kunt u een end-to-end analyseoplossing implementeren op één platform.