共用方式為


DatabricksCompute 類別

在 Azure Machine Learning 中管理 Databricks 計算目標。

Azure Databricks 是 Azure 雲端中的 Apache Spark 型環境。 它可與 Azure Machine Learning 管線搭配使用作為計算目標。 如需詳細資訊,請參閱 什麼是 Azure Machine Learning 中的計算目標?

類別 ComputeTarget 建構函式。

擷取與所提供工作區相關聯的 Compute 物件的雲端標記法。 傳回對應至所擷取之 Compute 物件之特定類型的子類別實例。

繼承
DatabricksCompute

建構函式

DatabricksCompute(workspace, name)

參數

名稱 Description
workspace
必要

包含要擷取之 DatabricksCompute 物件的工作區物件。

name
必要
str

要擷取之 DatabricksCompute 物件的 名稱。

workspace
必要

包含要擷取之 Compute 物件的工作區物件。

name
必要
str

要擷取之 Compute 物件的 名稱。

備註

下列範例示範如何將 Azure Databricks 附加為計算目標。


   # Replace with your account info before running.

   db_compute_name=os.getenv("DATABRICKS_COMPUTE_NAME", "<my-databricks-compute-name>") # Databricks compute name
   db_resource_group=os.getenv("DATABRICKS_RESOURCE_GROUP", "<my-db-resource-group>") # Databricks resource group
   db_workspace_name=os.getenv("DATABRICKS_WORKSPACE_NAME", "<my-db-workspace-name>") # Databricks workspace name
   db_access_token=os.getenv("DATABRICKS_ACCESS_TOKEN", "<my-access-token>") # Databricks access token

   try:
       databricks_compute = DatabricksCompute(workspace=ws, name=db_compute_name)
       print('Compute target {} already exists'.format(db_compute_name))
   except ComputeTargetException:
       print('Compute not found, will use below parameters to attach new one')
       print('db_compute_name {}'.format(db_compute_name))
       print('db_resource_group {}'.format(db_resource_group))
       print('db_workspace_name {}'.format(db_workspace_name))
       print('db_access_token {}'.format(db_access_token))

       config = DatabricksCompute.attach_configuration(
           resource_group = db_resource_group,
           workspace_name = db_workspace_name,
           access_token= db_access_token)
       databricks_compute=ComputeTarget.attach(ws, db_compute_name, config)
       databricks_compute.wait_for_completion(True)

完整範例可從 https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-use-databricks-as-compute-target.ipynb

方法

attach

已淘汰。 請改用 attach_configuration 方法。

將現有的 Databricks 計算資源與提供的工作區產生關聯。

attach_configuration

建立用來附加 Databricks 計算目標的組態物件。

delete

DatabricksCompute 物件不支援刪除。 請改用 detach

deserialize

將 JSON 物件轉換成 DatabricksCompute 物件。

detach

從相關聯的工作區中斷連結 Databricks 物件。

基礎雲端物件不會刪除,只會移除關聯。

get_credentials

擷取 Databricks 目標的認證。

refresh_state

執行物件的屬性就地更新。

此方法會根據對應雲端物件的目前狀態來更新屬性。 這主要用於手動輪詢計算狀態。

serialize

將此 DatabricksCompute 物件轉換成 JSON 序列化字典。

attach

已淘汰。 請改用 attach_configuration 方法。

將現有的 Databricks 計算資源與提供的工作區產生關聯。

static attach(workspace, name, resource_id, access_token)

參數

名稱 Description
workspace
必要

要與計算資源建立關聯的工作區物件。

name
必要
str

要與所提供工作區內計算資源建立關聯的名稱。 不需要符合要附加的計算資源名稱。

resource_id
必要
str

所連結計算資源的 Azure 資源識別碼。

access_token
必要
str

所連結資源的存取權杖。

傳回

類型 Description

計算物件的 DatabricksCompute 物件表示。

例外狀況

類型 Description

attach_configuration

建立用來附加 Databricks 計算目標的組態物件。

static attach_configuration(resource_group=None, workspace_name=None, resource_id=None, access_token='')

參數

名稱 Description
resource_group
str

Databricks 所在的資源組名。

預設值: None
workspace_name
str

Databricks 工作區名稱。

預設值: None
resource_id
str

所連結計算資源的 Azure 資源識別碼。

預設值: None
access_token
必要
str

要附加之計算資源的存取權杖。

傳回

類型 Description

附加 Compute 物件時要使用的組態物件。

例外狀況

類型 Description

delete

DatabricksCompute 物件不支援刪除。 請改用 detach

delete()

例外狀況

類型 Description

deserialize

將 JSON 物件轉換成 DatabricksCompute 物件。

static deserialize(workspace, object_dict)

參數

名稱 Description
workspace
必要

DatabricksCompute 物件的工作區物件與 相關聯。

object_dict
必要

要轉換成 DatabricksCompute 物件的 JSON 物件。

傳回

類型 Description

所提供 JSON 物件的 DatabricksCompute 標記法。

例外狀況

類型 Description

備註

ComputeTargetException如果提供的工作區不是計算相關聯的工作區,則引發 。

detach

從相關聯的工作區中斷連結 Databricks 物件。

基礎雲端物件不會刪除,只會移除關聯。

detach()

例外狀況

類型 Description

get_credentials

擷取 Databricks 目標的認證。

get_credentials()

傳回

類型 Description

Databricks 目標的認證。

例外狀況

類型 Description

refresh_state

執行物件的屬性就地更新。

此方法會根據對應雲端物件的目前狀態來更新屬性。 這主要用於手動輪詢計算狀態。

refresh_state()

例外狀況

類型 Description

serialize

將此 DatabricksCompute 物件轉換成 JSON 序列化字典。

serialize()

傳回

類型 Description

這個 DatabricksCompute 物件的 JSON 表示。

例外狀況

類型 Description