SynapseSparkCompute 類別
注意
這是實驗性類別,隨時可能會變更。 請參閱 https://aka.ms/azuremlexperimental 以取得詳細資訊。
SynapseSpark 計算資源。
- 繼承
-
azure.ai.ml.entities._compute.compute.ComputeSynapseSparkCompute
建構函式
SynapseSparkCompute(*, name: str, description: str | None = None, tags: Dict[str, str] | None = None, node_count: int | None = None, node_family: str | None = None, node_size: str | None = None, spark_version: str | None = None, identity: IdentityConfiguration | None = None, scale_settings: AutoScaleSettings | None = None, auto_pause_settings: AutoPauseSettings | None = None, **kwargs: Any)
僅限關鍵字的參數
名稱 | Description |
---|---|
name
|
計算的名稱。 |
description
|
資源的描述。 預設值為 [無]。 |
tags
|
定義為索引鍵/值組的資源標記集。 預設值為 [無]。 |
node_count
|
計算中的節點數目。 |
node_family
|
計算的節點系列。 |
node_size
|
節點的大小。 |
spark_version
|
要使用的 Spark 版本。 |
identity
|
與計算叢集相關聯的身分識別組態。 |
scale_settings
|
計算的縮放設定。 |
auto_pause_settings
|
計算的自動暫停設定。 |
kwargs
|
傳遞至父類別的其他關鍵字引數。 |
範例
建立 Synapse Spark 計算。
from azure.ai.ml.entities import (
AutoPauseSettings,
AutoScaleSettings,
IdentityConfiguration,
ManagedIdentityConfiguration,
SynapseSparkCompute,
)
synapse_compute = SynapseSparkCompute(
name="synapse_name",
resource_id="/subscriptions/subscription/resourceGroups/group/providers/Microsoft.Synapse/workspaces/workspace/bigDataPools/pool",
identity=IdentityConfiguration(
type="UserAssigned",
user_assigned_identities=[
ManagedIdentityConfiguration(
resource_id="/subscriptions/subscription/resourceGroups/group/providers/Microsoft.ManagedIdentity/userAssignedIdentities/identity"
)
],
),
scale_settings=AutoScaleSettings(min_node_count=1, max_node_count=3, enabled=True),
auto_pause_settings=AutoPauseSettings(delay_in_minutes=10, enabled=True),
)
方法
dump |
以 yaml 格式將計算內容傾印到檔案中。 |
dump
以 yaml 格式將計算內容傾印到檔案中。
dump(dest: str | PathLike | IO, **kwargs: Any) -> None
參數
名稱 | Description |
---|---|
dest
必要
|
接收此計算內容的目的地。 必須是本機檔案的路徑,或已開啟的檔案資料流程。 如果 dest 是檔案路徑,將會建立新的檔案,如果檔案存在,則會引發例外狀況。 如果 dest 是開啟的檔案,則會將檔案直接寫入,如果檔案無法寫入,則會引發例外狀況。 |