ml パッケージ
パッケージ
automl |
Azure Machine Learning SDKv2 の自動機械学習クラスが含まれています。 主な領域は、AutoML タスクの管理です。 |
constants |
このパッケージでは、Azure Machine Learning SDKv2 で使用される定数を定義します。 |
dsl | |
entities |
Azure Machine Learning SDKv2 のエンティティと SDK オブジェクトが含まれています。 主な領域は、コンピューティング 先の管理、ワークスペースとジョブの作成/管理、モデルの送信/アクセス、実行、出力/ログ記録などです。 |
identity |
Azure Machine Learning SDKv2 の ID 構成が含まれています。 |
operations |
Azure Machine Learning SDKv2 でサポートされている操作が含まれています。 操作は、バックエンド サービス (通常は自動生成された操作呼び出し) と対話するロジックを含むクラスです。 |
parallel | |
sweep |
モジュール
exceptions |
Azure Machine Learning SDKv2 の例外モジュールが含まれています。 これには、例外の列挙型とクラスが含まれます。 |
クラス
AmlTokenConfiguration |
AML トークン ID の構成。 |
Input |
コンポーネントまたはジョブの入力を定義します。 既定値は uri_folder Input です。 |
MLClient |
Azure ML サービスと対話するためのクライアント クラス。 このクライアントを使用して、ワークスペース、ジョブ、モデルなどの Azure ML リソースを管理します。 |
ManagedIdentityConfiguration |
マネージド ID 資格情報。 |
MpiDistribution |
MPI 配布の構成。 |
Output |
コンポーネントまたはジョブの出力を定義します。 |
PyTorchDistribution |
PyTorch ディストリビューションの構成。 |
TensorFlowDistribution |
TensorFlow 分散の構成。 |
UserIdentityConfiguration |
ユーザー ID の構成。 |
機能
command
dsl.pipeline 内で関数として使用でき、スタンドアロン コマンド ジョブとしても作成できる Command オブジェクトを作成します。
command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, **kwargs) -> Command
パラメーター
- tags
- <xref:Dict>
このコマンドにアタッチするタグ
- distribution
- <xref:Union>[<xref:Dict>, MpiDistribution, TensorFlowDistribution, PyTorchDistribution]
このコマンドに使用する配布モード
- inputs
- <xref:Dict>
このコマンドで使用される入力のディクト。
- outputs
- <xref:Dict>
このコマンドの出力
- instance_count
コンピューティング 先で使用されるインスタンスまたはノードの数 (省略可能)。 既定値は 1 です。
- instance_type
コンピューティング 先でサポートされている VM の種類 (省略可能)。
- docker_args
Docker 実行コマンドに渡す追加の引数。 これにより、システムまたはこのセクションで既に設定されているパラメーターがオーバーライドされます。 このパラメーターは、Azure ML コンピューティングの種類でのみサポートされています。
- shm_size
Docker コンテナーの共有メモリ ブロックのサイズ。 これは、(number)(unit) の形式である必要があります。ここで、数値は 0 より大きく、単位には b(バイト)、k(キロバイト)、m(メガバイト)、g(ギガバイト) のいずれかを指定できます。
- timeout
ジョブが取り消される秒数。
- identity
- <xref:Union>[<xref:azure.ai.ml.ManagedIdentityConfiguration,azure.ai.ml.AmlTokenConfiguration>]
コンピューティングでの実行中にトレーニング ジョブが使用する ID。
- is_deterministic
- bool
同じ入力を指定して、コマンドが同じ出力を返すかどうかを指定します。 コマンド (コンポーネント) が決定論的な場合、パイプラインでノードまたはステップとして使用すると、同じ入力と設定を持つ現在のワークスペースで送信された以前のジョブの結果が再利用されます。 この場合、この手順ではコンピューティング リソースは使用されません。 このような再利用動作を回避する場合は、既定値を True に設定し、is_deterministic=False を指定します。
- services
- <xref:Dict>[str, JobService]
ノードの対話型サービス。 これは試験的なパラメーターであり、いつでも変更される可能性があります。 詳細については、https://aka.ms/azuremlexperimental を参照してください。
load_batch_deployment
yaml ファイルからバッチ デプロイ オブジェクトを構築します。
load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
バッチ デプロイ オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
構築されたバッチ 配置オブジェクト。
の戻り値の型 :
load_batch_endpoint
yaml ファイルからバッチ エンドポイント オブジェクトを構築します。
load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
バッチ エンドポイント オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
構築されたバッチ エンドポイント オブジェクト。
の戻り値の型 :
load_component
コンポーネントをローカルまたはリモートからコンポーネント関数に読み込みます。
次に例を示します。
# Load a local component to a component function.
component_func = load_component(source="custom_component/component_spec.yaml")
# Load a remote component to a component function.
component_func = load_component(client=ml_client, name="my_component", version=1)
# Consuming the component func
component = component_func(param1=xxx, param2=xxx)
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
コンポーネントのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
パラメーターを使用して呼び出して azure.ai.ml.entities.Component を取得できる関数
の戻り値の型 :
load_compute
yaml ファイルからコンピューティング オブジェクトを構築します。
load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Compute
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
コンピューティングのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
読み込まれたコンピューティング オブジェクト。
の戻り値の型 :
load_data
yaml ファイルからデータ オブジェクトを作成します。
load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
データ オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
構築されたデータ オブジェクト。
の戻り値の型 :
例外
データを正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_datastore
yaml ファイルからデータストア オブジェクトを構築します。
load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
データストアのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
データストア オブジェクトを読み込んだ。
の戻り値の型 :
例外
データストアを正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_environment
yaml ファイルから環境オブジェクトを構築します。
load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
環境のローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
構築された環境オブジェクト。
の戻り値の型 :
例外
環境を正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_job
yaml ファイルからジョブ オブジェクトを作成します。
load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
ジョブのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
読み込まれたジョブ オブジェクト。
の戻り値の型 :
例外
Job が正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_model
yaml ファイルからモデル オブジェクトを構築します。
load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
モデルのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
構築されたモデル オブジェクト。
の戻り値の型 :
例外
Model が正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_online_deployment
yaml ファイルからオンライン デプロイ オブジェクトを構築します。
load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
オンライン デプロイ オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]
戻り値
オンライン 展開オブジェクトを構築しました。
の戻り値の型 :
例外
オンライン展開を正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_online_endpoint
yaml ファイルからオンライン エンドポイント オブジェクトを構築します。
load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
オンライン エンドポイント オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
オンライン エンドポイント オブジェクトを構築しました。
の戻り値の型 :
例外
オンライン エンドポイントを正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。
load_registry
yaml ファイルからレジストリ オブジェクトを読み込みます。
load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
レジストリのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
読み込まれたレジストリ オブジェクト。
の戻り値の型 :
load_workspace
yaml ファイルからワークスペース オブジェクトを読み込みます。
load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
ワークスペースのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
読み込まれたワークスペース オブジェクト。
の戻り値の型 :
load_workspace_connection
yaml ファイルからワークスペース接続オブジェクトを構築します。
load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection
パラメーター
- source
- <xref:Union>[<xref:PathLike>, str, TextIOWrapper]
ワークスペース接続オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。
- relative_origin
- str
解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。
- params_override
- <xref:List>[<xref:Dict>]
yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]
戻り値
構築されたワークスペース接続オブジェクト。
の戻り値の型 :
spark
dsl.pipeline 内で関数として使用でき、スタンドアロンの Spark ジョブとしても作成できる Spark オブジェクトを作成します。
spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark
パラメーター
- identity
- <xref:Union>[<xref:Dict>, <xref:ManagedIdentity>, <xref:AmlToken>, <xref:UserIdentity>]
コンピューティングでの実行中に Spark ジョブが使用する ID。
- executor_memory
- str
Executor プロセスごとに使用するメモリの量。サイズ単位サフィックス ("k"、"m"、"g"、または "t") (例: 512m、2g) を持つ JVM メモリ文字列と同じ形式です。
- dynamic_allocation_enabled
- bool
動的リソース割り当てを使用するかどうか。これにより、ワークロードに基づいて、このアプリケーションに登録されている Executor の数がスケールアップまたはスケールダウンされます。
フィードバック
フィードバックの送信と表示