共用方式為


DatabricksCompute 類別

在 Azure Machine Learning 中管理 Databricks 計算目標。

Azure Databricks 是 Azure 雲端中的 Apache Spark 型環境。 它可與 Azure Machine Learning 管線搭配使用作為計算目標。 如需詳細資訊,請參閱 什麼是 Azure Machine Learning 中的計算目標?

類別 ComputeTarget 建構函式。

擷取與所提供工作區相關聯的 Compute 物件的雲端標記法。 傳回對應至所擷取之 Compute 物件之特定類型的子類別實例。

繼承
DatabricksCompute

建構函式

DatabricksCompute(workspace, name)

參數

workspace
Workspace
必要

包含要擷取之 DatabricksCompute 物件的工作區物件。

name
str
必要

要擷取之 DatabricksCompute 物件的 名稱。

workspace
Workspace
必要

包含要擷取之 Compute 物件的工作區物件。

name
str
必要

要擷取之 Compute 物件的 名稱。

備註

下列範例示範如何將 Azure Databricks 附加為計算目標。


   # Replace with your account info before running.

   db_compute_name=os.getenv("DATABRICKS_COMPUTE_NAME", "<my-databricks-compute-name>") # Databricks compute name
   db_resource_group=os.getenv("DATABRICKS_RESOURCE_GROUP", "<my-db-resource-group>") # Databricks resource group
   db_workspace_name=os.getenv("DATABRICKS_WORKSPACE_NAME", "<my-db-workspace-name>") # Databricks workspace name
   db_access_token=os.getenv("DATABRICKS_ACCESS_TOKEN", "<my-access-token>") # Databricks access token

   try:
       databricks_compute = DatabricksCompute(workspace=ws, name=db_compute_name)
       print('Compute target {} already exists'.format(db_compute_name))
   except ComputeTargetException:
       print('Compute not found, will use below parameters to attach new one')
       print('db_compute_name {}'.format(db_compute_name))
       print('db_resource_group {}'.format(db_resource_group))
       print('db_workspace_name {}'.format(db_workspace_name))
       print('db_access_token {}'.format(db_access_token))

       config = DatabricksCompute.attach_configuration(
           resource_group = db_resource_group,
           workspace_name = db_workspace_name,
           access_token= db_access_token)
       databricks_compute=ComputeTarget.attach(ws, db_compute_name, config)
       databricks_compute.wait_for_completion(True)

完整範例可從 https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-use-databricks-as-compute-target.ipynb

方法

attach

已淘汰。 請改用 attach_configuration 方法。

將現有的 Databricks 計算資源與提供的工作區產生關聯。

attach_configuration

建立用來附加 Databricks 計算目標的組態物件。

delete

DatabricksCompute 物件不支援刪除。 請改用 detach

deserialize

將 JSON 物件轉換成 DatabricksCompute 物件。

detach

從相關聯的工作區中斷連結 Databricks 物件。

基礎雲端物件不會刪除,只會移除關聯。

get_credentials

擷取 Databricks 目標的認證。

refresh_state

執行物件的屬性就地更新。

此方法會根據對應雲端物件的目前狀態來更新屬性。 這主要用於手動輪詢計算狀態。

serialize

將此 DatabricksCompute 物件轉換成 JSON 序列化字典。

attach

已淘汰。 請改用 attach_configuration 方法。

將現有的 Databricks 計算資源與提供的工作區產生關聯。

static attach(workspace, name, resource_id, access_token)

參數

workspace
Workspace
必要

要與計算資源建立關聯的工作區物件。

name
str
必要

要與所提供工作區內計算資源建立關聯的名稱。 不需要符合要附加的計算資源名稱。

resource_id
str
必要

所連結計算資源的 Azure 資源識別碼。

access_token
str
必要

所連結資源的存取權杖。

傳回

計算物件的 DatabricksCompute 物件表示。

傳回類型

例外狀況

attach_configuration

建立用來附加 Databricks 計算目標的組態物件。

static attach_configuration(resource_group=None, workspace_name=None, resource_id=None, access_token='')

參數

resource_group
str
預設值: None

Databricks 所在的資源組名。

workspace_name
str
預設值: None

Databricks 工作區名稱。

resource_id
str
預設值: None

所連結計算資源的 Azure 資源識別碼。

access_token
str
必要

要附加之計算資源的存取權杖。

傳回

附加 Compute 物件時要使用的組態物件。

傳回類型

例外狀況

delete

DatabricksCompute 物件不支援刪除。 請改用 detach

delete()

例外狀況

deserialize

將 JSON 物件轉換成 DatabricksCompute 物件。

static deserialize(workspace, object_dict)

參數

workspace
Workspace
必要

DatabricksCompute 物件的工作區物件與 相關聯。

object_dict
dict
必要

要轉換成 DatabricksCompute 物件的 JSON 物件。

傳回

所提供 JSON 物件的 DatabricksCompute 標記法。

傳回類型

例外狀況

備註

ComputeTargetException如果提供的工作區不是計算相關聯的工作區,則引發 。

detach

從相關聯的工作區中斷連結 Databricks 物件。

基礎雲端物件不會刪除,只會移除關聯。

detach()

例外狀況

get_credentials

擷取 Databricks 目標的認證。

get_credentials()

傳回

Databricks 目標的認證。

傳回類型

例外狀況

refresh_state

執行物件的屬性就地更新。

此方法會根據對應雲端物件的目前狀態來更新屬性。 這主要用於手動輪詢計算狀態。

refresh_state()

例外狀況

serialize

將此 DatabricksCompute 物件轉換成 JSON 序列化字典。

serialize()

傳回

這個 DatabricksCompute 物件的 JSON 表示。

傳回類型

例外狀況