你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
Parallel 类
并行节点的基类,用于并行组件版本消耗。
不应直接实例化此类。 相反,应从生成器函数:parallel 创建 。
- 继承
-
azure.ai.ml.entities._builders.base_node.BaseNodeParallelazure.ai.ml.entities._job.pipeline._io.mixin.NodeWithGroupInputMixinParallel
构造函数
Parallel(*, component: ParallelComponent | str, compute: str | None = None, inputs: Dict[str, NodeOutput | Input | str | bool | int | float | Enum] | None = None, outputs: Dict[str, str | Output] | None = None, retry_settings: Dict[str, RetrySettings | str] | None = None, logging_level: str | None = None, max_concurrency_per_instance: int | None = None, error_threshold: int | None = None, mini_batch_error_threshold: int | None = None, input_data: str | None = None, task: Dict[str, ParallelTask | str] | None = None, partition_keys: List | None = None, mini_batch_size: int | None = None, resources: JobResourceConfiguration | None = None, environment_variables: Dict | None = None, **kwargs)
参数
- component
- <xref:azure.ai.ml.entities._component.parallel_component.parallelComponent>
要为步骤运行的并行组件/作业的 ID 或实例
- mini_batch_size
- str
对于 FileDataset 输入,此字段是用户脚本在一次 run() 调用中可以处理的文件数。 对于 TabularDataset 输入,此字段是用户脚本可以在一次 run() 调用中处理的数据的近似大小。 示例值为 1024、1024KB、10MB 和1GB。 (可选,对于 FileDataset,默认值为 10 个文件,对于 TabularDataset 为 1MB。) 可以通过 PipelineParameter 设置此值
- partition_keys
- List
用于将数据集分区为小型批处理的键。 如果指定此参数,则具有相同键的数据将分区到相同的小型批处理中。 如果同时指定partition_keys和mini_batch_size,分区键将生效。 输入 (s) 必须是 () 的分区数据集,并且 partition_keys 必须是每个输入数据集的键的子集才能运行。
方法
clear | |
copy | |
dump |
将作业内容转储到 YAML 格式的文件中。 |
fromkeys |
使用可迭代键创建新字典,并将值设置为 value。 |
get |
如果键在字典中,则返回键的值,否则返回默认值。 |
items | |
keys | |
pop |
如果未找到密钥,则返回默认值(如果给定);否则,引发 KeyError。 |
popitem |
删除并返回 (键,值) 对作为 2 元组。 对按 LIFO (先入先出) 顺序返回。 如果 dict 为空,则引发 KeyError。 |
set_resources |
设置并行作业的资源。 |
setdefault |
如果键不在字典中,则插入值为默认值的键。 如果 key 在字典中,则返回 key 的值,否则返回默认值。 |
update |
如果 E 存在并且具有 .keys () 方法,则对于 E 中的 k: D[k] = E[k] 如果 E 存在且缺少 .keys () 方法,则 为 k,在 E 中为 v:D[k] = v 在任一情况下,这后跟:f 中的 k: D[k] = F[k] = F[k] |
values |
clear
clear() -> None. Remove all items from D.
copy
copy() -> a shallow copy of D
dump
将作业内容转储到 YAML 格式的文件中。
dump(dest: str | PathLike | IO, **kwargs) -> None
参数
要向其写入 YAML 内容的本地路径或文件流。 如果 dest 是文件路径,则将创建新文件。 如果 dest 是一个打开的文件,则该文件将直接写入。
- kwargs
- dict
要传递给 YAML 序列化程序的其他参数。
例外
如果 dest 是文件路径且文件已存在,则引发。
如果 dest 是打开的文件且文件不可写,则引发。
fromkeys
使用可迭代键创建新字典,并将值设置为 value。
fromkeys(value=None, /)
参数
- type
- iterable
- value
get
如果键在字典中,则返回键的值,否则返回默认值。
get(key, default=None, /)
参数
- key
- default
items
items() -> a set-like object providing a view on D's items
keys
keys() -> a set-like object providing a view on D's keys
pop
如果未找到密钥,则返回默认值(如果给定);否则,引发 KeyError。
pop(k, [d]) -> v, remove specified key and return the corresponding value.
popitem
删除并返回 (键,值) 对作为 2 元组。
对按 LIFO (先入先出) 顺序返回。 如果 dict 为空,则引发 KeyError。
popitem()
set_resources
设置并行作业的资源。
set_resources(*, instance_type: str | List[str] | None = None, instance_count: int | None = None, properties: Dict | None = None, docker_args: str | None = None, shm_size: str | None = None, **kwargs)
参数
- instance_count
- int
计算目标使用的实例或节点数。
- properties
- dict
资源的属性字典。
- docker_args
- str
要传递给 Docker run 命令的额外参数。
- shm_size
- str
Docker 容器的共享内存块的大小。
setdefault
如果键不在字典中,则插入值为默认值的键。
如果 key 在字典中,则返回 key 的值,否则返回默认值。
setdefault(key, default=None, /)
参数
- key
- default
update
如果 E 存在并且具有 .keys () 方法,则对于 E 中的 k: D[k] = E[k] 如果 E 存在且缺少 .keys () 方法,则 为 k,在 E 中为 v:D[k] = v 在任一情况下,这后跟:f 中的 k: D[k] = F[k] = F[k]
update([E], **F) -> None. Update D from dict/iterable E and F.
values
values() -> an object providing a view on D's values
属性
base_path
component
creation_context
id
inputs
log_files
name
outputs
resources
retry_settings
status
作业的状态。
返回的常见值包括“正在运行”、“已完成”和“失败”。 所有可能的值为:
NotStarted - 这是客户端 Run 对象在云提交之前处于的临时状态。
正在启动 - 运行已开始在云中处理。 调用方此时具有运行 ID。
预配 - 正在为给定作业提交创建按需计算。
准备 - 运行环境正在准备中,处于以下两个阶段之一:
Docker 映像生成
Conda 环境设置
已排队 - 作业在计算目标上排队。 例如,在 BatchAI 中,作业处于排队状态
等待所有请求的节点准备就绪时。
正在运行 - 作业已开始在计算目标上运行。
完成 - 用户代码执行已完成,运行处于后处理阶段。
已请求取消 - 已请求取消作业。
已完成 - 运行已成功完成。 这包括用户代码执行和运行
后期处理阶段。
失败 - 运行失败。 通常,运行上的 Error 属性会提供有关原因的详细信息。
已取消 - 遵循取消请求并指示运行现已成功取消。
未响应 - 对于启用了检测信号的运行,最近未发送任何检测信号。
返回
作业的状态。