ml パッケージ

パッケージ

automl

Azure Machine Learning SDKv2 の自動機械学習クラスが含まれています。

主な領域は、AutoML タスクの管理です。

constants

このパッケージでは、Azure Machine Learning SDKv2 で使用される定数を定義します。

dsl
entities

Azure Machine Learning SDKv2 のエンティティと SDK オブジェクトが含まれています。

主な領域は、コンピューティング 先の管理、ワークスペースとジョブの作成/管理、モデルの送信/アクセス、実行、出力/ログ記録などです。

identity

Azure Machine Learning SDKv2 の ID 構成が含まれています。

operations

Azure Machine Learning SDKv2 でサポートされている操作が含まれています。 操作は、バックエンド サービス (通常は自動生成された操作呼び出し) と対話するロジックを含むクラスです。

parallel
sweep

モジュール

exceptions

Azure Machine Learning SDKv2 の例外モジュールが含まれています。

これには、例外の列挙型とクラスが含まれます。

クラス

AmlTokenConfiguration

AML トークン ID の構成。

Input

コンポーネントまたはジョブの入力を定義します。

既定値は uri_folder Input です。

MLClient

Azure ML サービスと対話するためのクライアント クラス。

このクライアントを使用して、ワークスペース、ジョブ、モデルなどの Azure ML リソースを管理します。

ManagedIdentityConfiguration

マネージド ID 資格情報。

MpiDistribution

MPI 配布の構成。

Output

コンポーネントまたはジョブの出力を定義します。

PyTorchDistribution

PyTorch ディストリビューションの構成。

TensorFlowDistribution

TensorFlow 分散の構成。

UserIdentityConfiguration

ユーザー ID の構成。

機能

command

dsl.pipeline 内で関数として使用でき、スタンドアロン コマンド ジョブとしても作成できる Command オブジェクトを作成します。

command(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, properties: Dict | None = None, display_name: str | None = None, command: str | None = None, experiment_name: str | None = None, environment: str | Environment | None = None, environment_variables: Dict | None = None, distribution: Dict | MpiDistribution | TensorFlowDistribution | PyTorchDistribution | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, instance_count: int | None = None, instance_type: str | None = None, docker_args: str | None = None, shm_size: str | None = None, timeout: int | None = None, code: PathLike | str | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, is_deterministic: bool = True, services: Dict[str, JobService | JupyterLabJobService | SshJobService | TensorBoardJobService | VsCodeJobService] | None = None, **kwargs) -> Command

パラメーター

name
str
必須

作成されたコマンド ジョブまたはコンポーネントの名前

description
str
必須

コマンドのわかりやすい説明

tags
<xref:Dict>
必須

このコマンドにアタッチするタグ

properties
dict[str, str]
必須

資産プロパティ ディクショナリ。

display_name
str
必須

フレンドリ名

experiment_name
str
必須

ジョブが作成される実験の名前。None が指定されている場合、既定値は現在のディレクトリ名に設定されます。 パイプライン ステップとして無視されます。

command
str
必須

実行されるコマンド文字列

environment
<xref:Union>[str, Environment]
必須

このコマンドに使用する環境

environment_variables
dict
必須

このコマンドを実行する前にコンピューティングで設定する環境変数

distribution
<xref:Union>[<xref:Dict>, MpiDistribution, TensorFlowDistribution, PyTorchDistribution]
必須

このコマンドに使用する配布モード

compute
str
必須

コマンド ジョブが実行されるコンピューティングの名前(コマンドがコンポーネント/関数として使用されている場合は使用されません)

inputs
<xref:Dict>
必須

このコマンドで使用される入力のディクト。

outputs
<xref:Dict>
必須

このコマンドの出力

instance_count
必須

コンピューティング 先で使用されるインスタンスまたはノードの数 (省略可能)。 既定値は 1 です。

instance_type
必須

コンピューティング 先でサポートされている VM の種類 (省略可能)。

docker_args
必須

Docker 実行コマンドに渡す追加の引数。 これにより、システムまたはこのセクションで既に設定されているパラメーターがオーバーライドされます。 このパラメーターは、Azure ML コンピューティングの種類でのみサポートされています。

shm_size
必須

Docker コンテナーの共有メモリ ブロックのサイズ。 これは、(number)(unit) の形式である必要があります。ここで、数値は 0 より大きく、単位には b(バイト)、k(キロバイト)、m(メガバイト)、g(ギガバイト) のいずれかを指定できます。

timeout
必須

ジョブが取り消される秒数。

code
<xref:Union>[str, PathLike]
必須

実行するコード フォルダー ( 通常はジョブの送信時にアップロードされるローカル フォルダー)

identity
<xref:Union>[<xref:azure.ai.ml.ManagedIdentityConfiguration,azure.ai.ml.AmlTokenConfiguration>]
必須

コンピューティングでの実行中にトレーニング ジョブが使用する ID。

is_deterministic
bool
必須

同じ入力を指定して、コマンドが同じ出力を返すかどうかを指定します。 コマンド (コンポーネント) が決定論的な場合、パイプラインでノードまたはステップとして使用すると、同じ入力と設定を持つ現在のワークスペースで送信された以前のジョブの結果が再利用されます。 この場合、この手順ではコンピューティング リソースは使用されません。 このような再利用動作を回避する場合は、既定値を True に設定し、is_deterministic=False を指定します。

services
<xref:Dict>[str, JobService]
必須

ノードの対話型サービス。 これは試験的なパラメーターであり、いつでも変更される可能性があります。 詳細については、https://aka.ms/azuremlexperimental を参照してください。

load_batch_deployment

yaml ファイルからバッチ デプロイ オブジェクトを構築します。

load_batch_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> BatchDeployment

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

バッチ デプロイ オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

戻り値

構築されたバッチ 配置オブジェクト。

の戻り値の型 :

load_batch_endpoint

yaml ファイルからバッチ エンドポイント オブジェクトを構築します。

load_batch_endpoint(source: str | PathLike | IO, relative_origin: str | None = None, **kwargs) -> BatchEndpoint

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

バッチ エンドポイント オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
既定値: None

解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

戻り値

構築されたバッチ エンドポイント オブジェクト。

の戻り値の型 :

load_component

コンポーネントをローカルまたはリモートからコンポーネント関数に読み込みます。

次に例を示します。


   # Load a local component to a component function.
   component_func = load_component(source="custom_component/component_spec.yaml")
   # Load a remote component to a component function.
   component_func = load_component(client=ml_client, name="my_component", version=1)

   # Consuming the component func
   component = component_func(param1=xxx, param2=xxx)
load_component(source: str | PathLike | IO | None = None, *, relative_origin: str | None = None, **kwargs) -> CommandComponent | ParallelComponent | PipelineComponent

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
既定値: None

コンポーネントのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

client
MLClient
必須

MLClient インスタンス。

name
str
必須

コンポーネント名。

version
str
必須

コンポーネントのバージョン。

kwargs
dict
必須

追加の構成パラメーターのディクショナリ。

戻り値

パラメーターを使用して呼び出して azure.ai.ml.entities.Component を取得できる関数

の戻り値の型 :

load_compute

yaml ファイルからコンピューティング オブジェクトを構築します。

load_compute(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Compute

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

コンピューティングのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

読み込まれたコンピューティング オブジェクト。

の戻り値の型 :

load_data

yaml ファイルからデータ オブジェクトを作成します。

load_data(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Data

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

データ オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

構築されたデータ オブジェクト。

の戻り値の型 :

例外

データを正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_datastore

yaml ファイルからデータストア オブジェクトを構築します。

load_datastore(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Datastore

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

データストアのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

データストア オブジェクトを読み込んだ。

の戻り値の型 :

例外

データストアを正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_environment

yaml ファイルから環境オブジェクトを構築します。

load_environment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Environment

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

環境のローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

構築された環境オブジェクト。

の戻り値の型 :

例外

環境を正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_job

yaml ファイルからジョブ オブジェクトを作成します。

load_job(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Job

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

ジョブのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

読み込まれたジョブ オブジェクト。

の戻り値の型 :

Job

例外

Job が正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_model

yaml ファイルからモデル オブジェクトを構築します。

load_model(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Model

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

モデルのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

構築されたモデル オブジェクト。

の戻り値の型 :

例外

Model が正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_online_deployment

yaml ファイルからオンライン デプロイ オブジェクトを構築します。

load_online_deployment(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineDeployment

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

オンライン デプロイ オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 Format is [{"field1": "value1"}, {"field2": "value2"}]

戻り値

オンライン 展開オブジェクトを構築しました。

の戻り値の型 :

例外

オンライン展開を正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_online_endpoint

yaml ファイルからオンライン エンドポイント オブジェクトを構築します。

load_online_endpoint(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> OnlineEndpoint

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

オンライン エンドポイント オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対的な場所を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定で設定されます。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

戻り値

オンライン エンドポイント オブジェクトを構築しました。

の戻り値の型 :

例外

オンライン エンドポイントを正常に検証できない場合に発生します。 詳細はエラー メッセージに表示されます。

load_registry

yaml ファイルからレジストリ オブジェクトを読み込みます。

load_registry(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Registry

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

レジストリのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

戻り値

読み込まれたレジストリ オブジェクト。

の戻り値の型 :

load_workspace

yaml ファイルからワークスペース オブジェクトを読み込みます。

load_workspace(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> Workspace

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

ワークスペースのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

戻り値

読み込まれたワークスペース オブジェクト。

の戻り値の型 :

load_workspace_connection

yaml ファイルからワークスペース接続オブジェクトを構築します。

load_workspace_connection(source: str | PathLike | IO, *, relative_origin: str | None = None, **kwargs) -> WorkspaceConnection

パラメーター

source
<xref:Union>[<xref:PathLike>, str, TextIOWrapper]
必須

ワークスペース接続オブジェクトのローカル yaml ソース。 ローカル ファイルへのパス、または既に開いているファイルである必要があります。 ソースがパスの場合は、開いて読み取られます。 ファイルが存在しない場合は例外が発生します。 ソースが開いているファイルの場合、ファイルは直接読み取られ、ファイルが読み取り可能でない場合は例外が発生します。

relative_origin
str
必須

解析された yaml で参照されるファイルの相対位置を指定するときに使用される配信元。 ファイルまたはファイル パスの入力である場合は、入力されたソースのディレクトリが既定値になります。 ソースが名前値のないストリーム入力の場合、既定値は "./" です。

params_override
<xref:List>[<xref:Dict>]
必須

yaml ファイルの上に上書きするフィールド。 書式は [{"field1": "value1"}, {"field2": "value2"}]

戻り値

構築されたワークスペース接続オブジェクト。

の戻り値の型 :

spark

dsl.pipeline 内で関数として使用でき、スタンドアロンの Spark ジョブとしても作成できる Spark オブジェクトを作成します。

spark(*, experiment_name: str | None = None, name: str | None = None, display_name: str | None = None, description: str | None = None, tags: Dict | None = None, code: PathLike | str | None = None, entry: Dict[str, str] | SparkJobEntry | None = None, py_files: List[str] | None = None, jars: List[str] | None = None, files: List[str] | None = None, archives: List[str] | None = None, identity: Dict[str, str] | ManagedIdentity | AmlToken | UserIdentity | None = None, driver_cores: int | None = None, driver_memory: str | None = None, executor_cores: int | None = None, executor_memory: str | None = None, executor_instances: int | None = None, dynamic_allocation_enabled: bool | None = None, dynamic_allocation_min_executors: int | None = None, dynamic_allocation_max_executors: int | None = None, conf: Dict[str, str] | None = None, environment: str | Environment | None = None, inputs: Dict | None = None, outputs: Dict | None = None, args: str | None = None, compute: str | None = None, resources: Dict | SparkResourceConfiguration | None = None, **kwargs) -> Spark

パラメーター

experiment_name
str
必須

ジョブが作成される実験の名前。

name
str
必須

ジョブの名前。

display_name
str
必須

ジョブの表示名。

description
str
必須

ジョブの説明。

tags
dict[str, str]
必須

タグ辞書。 タグは追加、削除、更新できます。

code
<xref:Union>[str, PathLike]
必須

ジョブを実行するソース コード。

entry
dict[str, str]
必須

ファイルまたはクラスのエントリ ポイント。

py_files
<xref:Optional>[List[str]]
必須

Python アプリの PYTHONPATH に配置する.zip、.egg、または .py ファイルの一覧。

jars
<xref:Optional>[List[str]]
必須

ドライバーと Executor クラスパスに含める jar の一覧。

files
<xref:Optional>[List[str]]
必須

各 Executor の作業ディレクトリに配置するファイルの一覧。

archives
<xref:Optional>[List[str]]
必須

各 Executor の作業ディレクトリに抽出されるアーカイブの一覧。

identity
<xref:Union>[<xref:Dict>, <xref:ManagedIdentity>, <xref:AmlToken>, <xref:UserIdentity>]
必須

コンピューティングでの実行中に Spark ジョブが使用する ID。

driver_cores
int
必須

クラスター モードでのみ、ドライバー プロセスに使用するコアの数。

driver_memory
str
必須

ドライバー プロセスに使用するメモリの量。

executor_cores
int
必須

Executor ごとに使用するコアの数。

executor_memory
str
必須

Executor プロセスごとに使用するメモリの量。サイズ単位サフィックス ("k"、"m"、"g"、または "t") (例: 512m、2g) を持つ JVM メモリ文字列と同じ形式です。

executor_instances
int
必須

Executor の初期数。

dynamic_allocation_enabled
bool
必須

動的リソース割り当てを使用するかどうか。これにより、ワークロードに基づいて、このアプリケーションに登録されている Executor の数がスケールアップまたはスケールダウンされます。

dynamic_allocation_min_executors
int
必須

動的割り当てが有効になっている場合の Executor の数の下限。

dynamic_allocation_max_executors
int
必須

動的割り当てが有効になっている場合の Executor の数の上限。

conf
dict
必須

定義済みの Spark 構成キーと値を含むディクテーション。

environment
<xref:Union>[str, Environment]
必須

ジョブを実行する Azure ML 環境。

inputs
dict
必須

ジョブで使用される入力データ バインディングのマッピング。

outputs
dict
必須

ジョブで使用される出力データ バインディングのマッピング。

args
str
必須

ジョブの引数。

compute
str
必須

ジョブが実行されるコンピューティング リソース。

resources
<xref:Union>[<xref:Dict>, SparkResourceConfiguration]
必須

ジョブのコンピューティング リソースの構成。