ParallelRunStep 类

创建 Azure 机器学习管道步骤异步并行处理大量数据。

有关使用 ParallelRunStep 的示例,请参阅笔记本 https://aka.ms/batch-inference-notebooks

有关故障排除指南,请参阅 https://aka.ms/prstsg。 可在此处找到更多参考资料。

创建 Azure ML Pipeline 步骤以异步和并行方式处理大量数据。

有关使用 ParallelRunStep 的示例,请参阅笔记本链接 https://aka.ms/batch-inference-notebooks

继承
azureml.pipeline.core._parallel_run_step_base._ParallelRunStepBase
ParallelRunStep

构造函数

ParallelRunStep(name, parallel_run_config, inputs, output=None, side_inputs=None, arguments=None, allow_reuse=True)

参数

名称 说明
name
必需
str

步骤的名称。 对于工作区,必须是唯一的,仅包含小写字母、数字或短划线,以字母开头,且长度在 3 到 32 个字符之间。

parallel_run_config
必需

用于确定所需运行属性的 ParallelRunConfig 对象。

inputs
必需

输入数据集的列表。 列表中的所有数据集应属于同一类型。 将对输入数据进行分区以便并行处理。 列表中的每个数据集都单独分区为微型批处理,并且在并行处理中,每个微型批处理将被同等对待。

output

输出端口绑定,可供后面的管道步骤使用。

默认值: None
side_inputs

侧输入引用数据的列表。 不会将侧输入分区为输入数据。

默认值: None
arguments

要传递到 Python entry_script 的命令行参数的列表。

默认值: None
allow_reuse

当使用相同的设置/输入运行时,该步骤是否应重用以前的结果。 如果为 false,则在管道执行过程中将始终为此步骤生成新的运行。

默认值: True
name
必需
str

步骤的名称。 对于工作区,必须是唯一的,仅包含小写字母、数字或短划线,以字母开头,且长度在 3 到 32 个字符之间。

parallel_run_config
必需

用于确定所需运行属性的 ParallelRunConfig 对象。

inputs
必需

输入数据集的列表。 列表中的所有数据集应属于同一类型。 将对输入数据进行分区以便并行处理。 列表中的每个数据集都单独分区为微型批处理,并且在并行处理中,每个微型批处理将被同等对待。

output
必需

输出端口绑定,可供后面的管道步骤使用。

side_inputs
必需

侧输入引用数据的列表。 不会将侧输入分区为输入数据。

arguments
必需

要传递到 Python entry_script 的命令行参数的列表。

allow_reuse
必需

当使用相同的设置/输入运行时,该步骤是否应重用以前的结果。 如果为 false,则在管道执行过程中将始终为此步骤生成新的运行。

注解

ParallelRunStep 可用于并行处理大量数据。 常见的用例是训练 ML 模型或运行脱机推理,以根据一批观察数据来生成预测。 ParallelRunStep 的工作原理是将数据分解成并行处理的批处理。 可以通过 ParallelRunConfig 类控制批大小节点计数和其他可优化参数以加快并行处理速度。 ParallelRunStep 可以作为输入用于 TabularDatasetFileDataset

如需使用 ParallelRunStep:

  • 创建一个 ParallelRunConfig 对象用于指定批处理的执行方式,该对象的参数可控制批大小、每个计算目标的节点数,以及对自定义 Python 脚本的引用。

  • 创建使用 ParallelRunConfig 对象的 ParallelRunStep 对象,并定义该步骤的输入和输出。

  • 像使用其他管道步骤类型一样,在Pipeline中使用已配置的 ParallelRunStep 对象。

以下文章讨论了使用 ParallelRunStep 和 ParallelRunConfig 类进行批量推理的示例:


   from azureml.pipeline.steps import ParallelRunStep, ParallelRunConfig

   parallel_run_config = ParallelRunConfig(
       source_directory=scripts_folder,
       entry_script=script_file,
       mini_batch_size="5",
       error_threshold=10,         # Optional, allowed failed count on mini batch items
       allowed_failed_count=15,    # Optional, allowed failed count on mini batches
       allowed_failed_percent=10,  # Optional, allowed failed percent on mini batches
       output_action="append_row",
       environment=batch_env,
       compute_target=compute_target,
       node_count=2)

   parallelrun_step = ParallelRunStep(
       name="predict-digits-mnist",
       parallel_run_config=parallel_run_config,
       inputs=[ named_mnist_ds ],
       output=output_dir,
       arguments=[ "--extra_arg", "example_value" ],
       allow_reuse=True
   )

有关此示例详细信息,请参阅笔记本 https://aka.ms/batch-inference-notebooks

方法

create_module_def

创建描述步骤的模块定义对象。

此方法不能直接使用。

create_node

PythonScriptStep 创建节点并将其添加到指定的图。

此方法不能直接使用。 通过 ParallelRunStep 实例化管道时,Azure 机器学习会自动通过此方法传递所需的参数,以便可以将步骤添加到表示工作流的管道图形中。

create_module_def

创建描述步骤的模块定义对象。

此方法不能直接使用。

create_module_def(execution_type, input_bindings, output_bindings, param_defs=None, create_sequencing_ports=True, allow_reuse=True, version=None, arguments=None)

参数

名称 说明
execution_type
必需
str

模块的执行类型。

input_bindings
必需

步骤输入绑定。

output_bindings
必需

步骤输出绑定。

param_defs

步骤参数定义。

默认值: None
create_sequencing_ports

如果为 true,则将为模块创建有序端口。

默认值: True
allow_reuse

如果为 true,则在将来的管道中可重用该模块。

默认值: True
version
str

模块的版本。

默认值: None
arguments

调用此模块时使用的批注参数列表。

默认值: None

返回

类型 说明

模块定义对象。

create_node

PythonScriptStep 创建节点并将其添加到指定的图。

此方法不能直接使用。 通过 ParallelRunStep 实例化管道时,Azure 机器学习会自动通过此方法传递所需的参数,以便可以将步骤添加到表示工作流的管道图形中。

create_node(graph, default_datastore, context)

参数

名称 说明
graph
必需

图对象。

default_datastore
必需

默认数据存储。

context
必需
<xref:azureml.pipeline.core._GraphContext>

上下文。

返回

类型 说明

创建的节点。