Share via


ComputeOperations クラス

ComputeOperations。

このクラスを直接インスタンス化しないでください。 代わりに、MLClient オブジェクトの コンピューティング 属性を使用します。

継承
azure.ai.ml._scope_dependent_operations._ScopeDependentOperations
ComputeOperations

コンストラクター

ComputeOperations(operation_scope: OperationScope, operation_config: OperationConfig, service_client: AzureMachineLearningWorkspaces, **kwargs: Dict)

パラメーター

operation_scope
<xref:azure.ai.ml._scope_dependent_operations.OperationScope>
必須

MLClient オブジェクトの操作クラスのスコープ変数。

operation_config
<xref:azure.ai.ml._scope_dependent_operations.OperationConfig>
必須

MLClient オブジェクトの操作クラスの一般的な構成。

service_client
<xref:azure.ai.ml._restclient.v2023_02_01_preview.AzureMachineLearningWorkspaces>
必須

エンド ユーザーが Azure Machine Learning ワークスペース リソースを操作できるようにするサービス クライアント。

メソッド

begin_attach

コンピューティング リソースをワークスペースにアタッチします。

begin_create_or_update

コンピューティング リソースを作成して登録します。

begin_delete

コンピューティング リソースを削除またはデタッチします。

begin_restart

コンピューティング インスタンスを再起動します。

begin_start

コンピューティング インスタンスを開始します。

begin_stop

コンピューティング インスタンスを停止します。

begin_update

コンピューティング リソースを更新します。 現在、AmlCompute リソースの種類に対してのみ有効です。

get

コンピューティング リソースを取得します。

list

ワークスペースのコンピューティングを一覧表示します。

list_nodes

コンピューティング リソースのノードの一覧を取得します。

list_sizes

サポートされている VM サイズを場所に一覧表示します。

list_usage

現在の使用状況情報と、指定されたサブスクリプションと場所の AzureML リソース制限を一覧表示します。

begin_attach

コンピューティング リソースをワークスペースにアタッチします。

begin_attach(compute: Compute, **kwargs: Any) -> LROPoller[Compute]

パラメーター

compute
Compute
必須

コンピューティング リソース定義。

戻り値

実行時間の長い操作が完了すると Compute オブジェクトを返す LROPoller のインスタンス。

の戻り値の型 :

コンピューティング リソースをワークスペースにアタッチする。


   from azure.ai.ml.entities import AmlCompute

   compute_obj = AmlCompute(
       name=compute_name_2,
       tags={"key1": "value1", "key2": "value2"},
       min_instances=0,
       max_instances=10,
       idle_time_before_scale_down=100,
   )
   attached_compute = ml_client.compute.begin_attach(compute_obj)

begin_create_or_update

コンピューティング リソースを作成して登録します。

begin_create_or_update(compute: Compute) -> LROPoller[Compute]

パラメーター

compute
Compute
必須

コンピューティング リソース定義。

戻り値

実行時間の長い操作が完了すると Compute オブジェクトを返す LROPoller のインスタンス。

の戻り値の型 :

コンピューティング リソースの作成と登録。


   from azure.ai.ml.entities import AmlCompute

   compute_obj = AmlCompute(
       name=compute_name_1,
       tags={"key1": "value1", "key2": "value2"},
       min_instances=0,
       max_instances=10,
       idle_time_before_scale_down=100,
   )
   registered_compute = ml_client.compute.begin_create_or_update(compute_obj)

begin_delete

コンピューティング リソースを削除またはデタッチします。

begin_delete(name: str, *, action: str = 'Delete') -> LROPoller[None]

パラメーター

name
str
必須

コンピューティング リソースの名前。

action

実行するアクション。 指定できる値: ["Delete", "Detach"]。 既定値は "Delete" です。

戻り値

操作の状態を追跡するポーリングャー。

の戻り値の型 :

コンピューティングの削除の例。


   ml_client.compute.begin_delete(compute_name_1, action="Detach")

   ml_client.compute.begin_delete(compute_name_2)

begin_restart

コンピューティング インスタンスを再起動します。

begin_restart(name: str) -> LROPoller[None]

パラメーター

name
str
必須

コンピューティング インスタンスの名前。

戻り値

操作の状態を追跡するポーリングャー。

の戻り値の型 :

停止したコンピューティング インスタンスを再起動する。


   ml_client.compute.begin_restart(ci_name)

begin_start

コンピューティング インスタンスを開始します。

begin_start(name: str) -> LROPoller[None]

パラメーター

name
str
必須

コンピューティング インスタンスの名前。

戻り値

操作の状態を追跡するポーリングャー。

の戻り値の型 :

コンピューティング インスタンスの開始。


   ml_client.compute.begin_start(ci_name)

begin_stop

コンピューティング インスタンスを停止します。

begin_stop(name: str) -> LROPoller[None]

パラメーター

name
str
必須

コンピューティング インスタンスの名前。

戻り値

操作の状態を追跡するポーリングャー。

の戻り値の型 :

コンピューティング インスタンスの停止。


   ml_client.compute.begin_stop(ci_name)

begin_update

コンピューティング リソースを更新します。 現在、AmlCompute リソースの種類に対してのみ有効です。

begin_update(compute: Compute) -> LROPoller[Compute]

パラメーター

compute
Compute
必須

コンピューティング リソース定義。

戻り値

実行時間の長い操作が完了すると Compute オブジェクトを返す LROPoller のインスタンス。

の戻り値の型 :

AmlCompute リソースの更新。


   compute_obj = ml_client.compute.get("cpu-cluster")
   compute_obj.idle_time_before_scale_down = 200
   updated_compute = ml_client.compute.begin_update(compute_obj)

get

コンピューティング リソースを取得します。

get(name: str) -> Compute

パラメーター

name
str
必須

コンピューティング リソースの名前。

戻り値

Compute オブジェクト。

の戻り値の型 :

ワークスペースからのコンピューティング リソースの取得。


   cpu_cluster = ml_client.compute.get("cpu-cluster")

list

ワークスペースのコンピューティングを一覧表示します。

list(*, compute_type: str | None = None) -> Iterable[Compute]

パラメーター

compute_type
Optional[str]

一覧表示されるコンピューティングの種類。大文字と小文字は区別されません。 既定値は AMLCompute です。

戻り値

Compute オブジェクトのインスタンスのような反復子。

の戻り値の型 :

ワークスペース内の AzureML Kubernetes コンピューティング リソースの一覧を取得する。


   compute_list = ml_client.compute.list(compute_type="AMLK8s")  # cspell:disable-line

list_nodes

コンピューティング リソースのノードの一覧を取得します。

list_nodes(name: str) -> Iterable[AmlComputeNodeInfo]

パラメーター

name
str
必須

コンピューティング リソースの名前。

戻り値

AmlComputeNodeInfo オブジェクトの反復子に似たインスタンス。

の戻り値の型 :

コンピューティング リソースからノードの一覧を取得する。


   node_list = ml_client.compute.list_nodes(name="cpu-cluster")

list_sizes

サポートされている VM サイズを場所に一覧表示します。

list_sizes(*, location: str | None = None, compute_type: str | None = None) -> Iterable[VmSize]

パラメーター

location
str

仮想マシン サイズのクエリを実行する場所。 既定値はワークスペースの場所です。

compute_type
Optional[str]

一覧表示されるコンピューティングの種類。大文字と小文字は区別されません。 既定値は AMLCompute です。

戻り値

仮想マシン サイズ オブジェクトに対する反復子。

の戻り値の型 :

ワークスペースの場所にサポートされている VM サイズを一覧表示します。


   size_list = ml_client.compute.list_sizes()

list_usage

現在の使用状況情報と、指定されたサブスクリプションと場所の AzureML リソース制限を一覧表示します。

list_usage(*, location: str | None = None) -> Iterable[Usage]

パラメーター

location
Optional[str]

リソース使用量のクエリを実行する場所。 既定値はワークスペースの場所です。

戻り値

現在の使用状況情報オブジェクトを指す反復子。

の戻り値の型 :

ワークスペースの場所のリソース使用量を一覧表示します。


   usage_list = ml_client.compute.list_usage()