共用方式為


連線 ADLS 並使用 Azure Databricks 轉換資料

在本指南中,您將會:

  • 使用 Azure Databricks 在 Azure Data Lake Storage (ADLS) Gen2 帳戶建立 Delta 資料表。

  • 在 ADLS 建立 Delta 資料表的 OneLake 捷徑。

  • 使用 Power BI 透過 ADLS 捷徑分析資料。

必要條件

開始之前,確認您擁有:

  • 帶有 Lakehouse 項目的工作區

  • Azure Databricks 工作區

  • 用於儲存 Delta 資料表的 ADLS Gen2 帳戶

建立 Delta 資料表、建立捷徑,並分析資料

  1. 使用 Azure Databricks 筆記本,在您的 ADLS Gen2 帳戶建立 Delta 資料表。

     # Replace the path below to refer to your sample parquet data with this syntax "abfss://<storage name>@<container name>.dfs.core.windows.net/<filepath>"
    
     # Read Parquet files from an ADLS account
     df = spark.read.format('Parquet').load("abfss://datasetsv1@olsdemo.dfs.core.windows.net/demo/full/dimension_city/")
    
     # Write Delta tables to ADLS account
     df.write.mode("overwrite").format("delta").save("abfss://datasetsv1@olsdemo.dfs.core.windows.net/demo/adb_dim_city_delta/")
    
  2. 在 lakehouse 選取 資料表 旁邊的刪節號 (...),然後選取 新捷徑

    此螢幕擷取畫面顯示資料表[新捷徑]位置。

  3. 新捷徑 畫面,選取 Azure Data Lake Storage Gen2 方塊。

    此螢幕擷取畫面顯示[新捷徑]畫面方塊選項。

  4. 指定捷徑連線詳細資訊,然後選取 下一步

    此螢幕擷取畫面顯示輸入新捷徑連線設定位置。

  5. 指定捷徑詳細資訊。 提供 捷徑名稱子路徑 詳細資訊,然後選取 建立。 子路徑應指向 Delta 資料表所在目錄。

    此螢幕擷取畫面顯示輸入新捷徑詳細資訊位置。

  6. 捷徑會在 資料表 顯示為 Delta 資料表。

    此螢幕擷取畫面顯示新建立 ADLS 捷徑位置。

  7. 您現可直接從筆記本查詢此資料。

    df = spark.sql("SELECT * FROM lakehouse1.adls_shortcut_adb_dim_city_delta LIMIT 1000")
    display(df)
    
  8. 若要透過 Power BI 存取及分析此 Delta 資料表,請選取 新增 Power BI 語意模型

    此螢幕擷取畫面顯示如何建立新 Power BI 語意模型。

  9. 選取捷徑,然後選取 確認

    此螢幕擷取畫面顯示新語意模型設定。

  10. 在發布資料之後,選取 從頭開始

    顯示設定資料集流程的螢幕擷取畫面。

  11. 在報表撰寫體驗,捷徑資料及其所有屬性會顯示為資料表。

    此螢幕擷取畫面顯示撰寫體驗與資料表屬性。

  12. 若要建立 Power BI 報表,請將屬性拖曳至左側窗格。

    此螢幕擷取畫面顯示正在透過 Power BI 報表查詢資料。