探索和轉換 Lakehouse 中的資料

已完成

將資料載入 Lakehouse 之後,您可以使用各種工具和技術來探索和轉換資料,包括:

  • Apache Spark:每個 Fabric Lakehouse 都可以透過 NotebookSpark 工作定義使用 Spark 集區,以便使用 Scala、PySpark 或 Spark SQL 處理 Lakehouse 中檔案和資料表中的資料。

    • Notebooks:互動式編碼介面,您可以在其中使用程式碼,將資料作為資料表和/或檔案直接讀取、轉換和寫入 Lakehouse。

    • Spark 作業定義:隨選或排程指令碼使用 Spark 引擎處理 Lakehouse 中的資料。

  • SQL 分析端點:每個 Lakehouse 都包含 SQL 分析端點,您可以透過此端點執行 Transact-SQL 陳述式,以查詢、篩選、彙總,以及探索 Lakehouse 資料表中的資料。

  • 資料流程 (Gen2):除了使用資料流程將資料內嵌到 Lakehouse 之外,您還可以建立資料流程,以透過 Power Query 執行後續轉換,並可選擇將已轉換的資料登陸回 Lakehouse。

  • 資料管線:透過資料流程、Spark 作業和其他控制流程邏輯等一連串的活動,協調 Lakehouse 中資料運作的複雜資料轉換邏輯。

分析及視覺化 Lakehouse 中的資料

Lakehouse 資料表中的資料會包含在語意模型中,以定義資料的關聯式模式。 您可以編輯此語意模型 (或建立其他語意模型)、定義自訂量值、階層、匯總和語意模型的其他元素。 然後,您可以使用語意模型作為 Power BI 報告的來源,即可將資料視覺化並進行分析。

將 Power BI 的資料視覺效果功能與資料湖存放庫的集中式儲存體和表格式結構描述結合在一起,您即可以在單一平台上實作端對端分析解決方案。