共用方式為


工作區套件

工作區套件可以是自訂或私人 Wheel (Python)、jar (Scala/JAVA) 或 tar.gz (R) 檔案。 您可以將這些套件上傳至工作區,稍後再指派給特定的 Spark 集區。

若要新增工作區套件:

  1. 瀏覽至 [管理] > [工作區封裝] 索引標籤。
  2. 使用檔案選取器來上傳 wheel 檔案。
  3. 一旦檔案已上傳至 Azure Synapse Analytics 工作區,您就可以將這些封裝新增至指定的 Apache Spark 集區。

Screenshot that highlights workspace packages.

警告

  • 在 Azure Synapse Analytics 中,Apache Spark 集區可利用上傳為工作區封裝或在已知 Azure Data Lake Storage 路徑內上傳的自訂程式庫。 不過,相同 Apache Spark 集區內不能同時使用這兩個選項。 如果同時以這兩種方法提供封裝,則只會安裝工作區封裝清單中指定的 wheel 檔案。

  • 一旦使用工作區封裝在指定的 Apache Spark 集區安裝封裝,您就無法再於相同集區上使用儲存體帳戶路徑來指定封裝。

注意

建議您在一個工作區中不要有多個 Wheel 套件使用相同名稱的情形。 如果您想要使用相同 Wheel 套件但不同的版本,您必須刪除現有的版本然後上傳新的版本。

儲存體帳戶

您可以將所有 wheel 檔案上傳至與 Synapse 工作區連結的 Azure Data Lake Storage (Gen2) 帳戶,以將自訂 wheel 封裝安裝在 Apache Spark 集區。

檔案應該上傳至儲存體帳戶預設容器中的下列路徑:

abfss://<file_system>@<account_name>.dfs.core.windows.net/synapse/workspaces/<workspace_name>/sparkpools/<pool_name>/libraries/python/

警告

  • 在某些情況下,您可能需要根據以上結構來建立檔案路徑 (如果不存在的話)。 例如,您可能需要在 libraries 資料夾中加入資料夾 python (如果不存在的話)。
  • 適用於 Apache Spark 3.0 的 Azure Synapse Analytics 執行階段不支援這種管理自訂 wheel 檔案的方法。 請參閱工作區封裝功能來管理自訂 wheel 檔案。

重要

若要使用 Azure DataLake Storage 方法來安裝自訂程式庫,則在連結至 Azure Synapse Analytics 工作區的主要 Gen2 儲存體帳戶上,您必須具有儲存體 Blob 資料參與者儲存體 Blob 資料擁有者權限。

下一步