DatabricksCompute 類別
在 Azure Machine Learning 中管理 Databricks 計算目標。
Azure Databricks 是 Azure 雲端中的 Apache Spark 型環境。 它可與 Azure Machine Learning 管線搭配使用作為計算目標。 如需詳細資訊,請參閱 什麼是 Azure Machine Learning 中的計算目標?
類別 ComputeTarget 建構函式。
擷取與所提供工作區相關聯的 Compute 物件的雲端標記法。 傳回對應至所擷取之 Compute 物件之特定類型的子類別實例。
- 繼承
-
DatabricksCompute
建構函式
DatabricksCompute(workspace, name)
參數
名稱 | Description |
---|---|
workspace
必要
|
包含要擷取之 DatabricksCompute 物件的工作區物件。 |
name
必要
|
要擷取之 DatabricksCompute 物件的 名稱。 |
workspace
必要
|
包含要擷取之 Compute 物件的工作區物件。 |
name
必要
|
要擷取之 Compute 物件的 名稱。 |
備註
下列範例示範如何將 Azure Databricks 附加為計算目標。
# Replace with your account info before running.
db_compute_name=os.getenv("DATABRICKS_COMPUTE_NAME", "<my-databricks-compute-name>") # Databricks compute name
db_resource_group=os.getenv("DATABRICKS_RESOURCE_GROUP", "<my-db-resource-group>") # Databricks resource group
db_workspace_name=os.getenv("DATABRICKS_WORKSPACE_NAME", "<my-db-workspace-name>") # Databricks workspace name
db_access_token=os.getenv("DATABRICKS_ACCESS_TOKEN", "<my-access-token>") # Databricks access token
try:
databricks_compute = DatabricksCompute(workspace=ws, name=db_compute_name)
print('Compute target {} already exists'.format(db_compute_name))
except ComputeTargetException:
print('Compute not found, will use below parameters to attach new one')
print('db_compute_name {}'.format(db_compute_name))
print('db_resource_group {}'.format(db_resource_group))
print('db_workspace_name {}'.format(db_workspace_name))
print('db_access_token {}'.format(db_access_token))
config = DatabricksCompute.attach_configuration(
resource_group = db_resource_group,
workspace_name = db_workspace_name,
access_token= db_access_token)
databricks_compute=ComputeTarget.attach(ws, db_compute_name, config)
databricks_compute.wait_for_completion(True)
方法
attach |
已淘汰。 請改用 將現有的 Databricks 計算資源與提供的工作區產生關聯。 |
attach_configuration |
建立用來附加 Databricks 計算目標的組態物件。 |
delete |
DatabricksCompute 物件不支援刪除。 請改用 detach。 |
deserialize |
將 JSON 物件轉換成 DatabricksCompute 物件。 |
detach |
從相關聯的工作區中斷連結 Databricks 物件。 基礎雲端物件不會刪除,只會移除關聯。 |
get_credentials |
擷取 Databricks 目標的認證。 |
refresh_state |
執行物件的屬性就地更新。 此方法會根據對應雲端物件的目前狀態來更新屬性。 這主要用於手動輪詢計算狀態。 |
serialize |
將此 DatabricksCompute 物件轉換成 JSON 序列化字典。 |
attach
已淘汰。 請改用 attach_configuration
方法。
將現有的 Databricks 計算資源與提供的工作區產生關聯。
static attach(workspace, name, resource_id, access_token)
參數
名稱 | Description |
---|---|
workspace
必要
|
要與計算資源建立關聯的工作區物件。 |
name
必要
|
要與所提供工作區內計算資源建立關聯的名稱。 不需要符合要附加的計算資源名稱。 |
resource_id
必要
|
所連結計算資源的 Azure 資源識別碼。 |
access_token
必要
|
所連結資源的存取權杖。 |
傳回
類型 | Description |
---|---|
計算物件的 DatabricksCompute 物件表示。 |
例外狀況
類型 | Description |
---|---|
attach_configuration
建立用來附加 Databricks 計算目標的組態物件。
static attach_configuration(resource_group=None, workspace_name=None, resource_id=None, access_token='')
參數
名稱 | Description |
---|---|
resource_group
|
Databricks 所在的資源組名。 預設值: None
|
workspace_name
|
Databricks 工作區名稱。 預設值: None
|
resource_id
|
所連結計算資源的 Azure 資源識別碼。 預設值: None
|
access_token
必要
|
要附加之計算資源的存取權杖。 |
傳回
類型 | Description |
---|---|
附加 Compute 物件時要使用的組態物件。 |
例外狀況
類型 | Description |
---|---|
delete
deserialize
將 JSON 物件轉換成 DatabricksCompute 物件。
static deserialize(workspace, object_dict)
參數
名稱 | Description |
---|---|
workspace
必要
|
DatabricksCompute 物件的工作區物件與 相關聯。 |
object_dict
必要
|
要轉換成 DatabricksCompute 物件的 JSON 物件。 |
傳回
類型 | Description |
---|---|
所提供 JSON 物件的 DatabricksCompute 標記法。 |
例外狀況
類型 | Description |
---|---|
備註
ComputeTargetException如果提供的工作區不是計算相關聯的工作區,則引發 。
detach
get_credentials
擷取 Databricks 目標的認證。
get_credentials()
傳回
類型 | Description |
---|---|
Databricks 目標的認證。 |
例外狀況
類型 | Description |
---|---|
refresh_state
執行物件的屬性就地更新。
此方法會根據對應雲端物件的目前狀態來更新屬性。 這主要用於手動輪詢計算狀態。
refresh_state()
例外狀況
類型 | Description |
---|---|
serialize
將此 DatabricksCompute 物件轉換成 JSON 序列化字典。
serialize()
傳回
類型 | Description |
---|---|
這個 DatabricksCompute 物件的 JSON 表示。 |
例外狀況
類型 | Description |
---|---|