共用方式為


Parallel 類別

平行節點的基類,用於平行元件版本耗用量。

您不應該直接具現化此類別。 相反地,您應該從建立器函式建立:parallel。

繼承
azure.ai.ml.entities._builders.base_node.BaseNode
Parallel
azure.ai.ml.entities._job.pipeline._io.mixin.NodeWithGroupInputMixin
Parallel

建構函式

Parallel(*, component: ParallelComponent | str, compute: str | None = None, inputs: Dict[str, NodeOutput | Input | str | bool | int | float | Enum] | None = None, outputs: Dict[str, str | Output] | None = None, retry_settings: Dict[str, RetrySettings | str] | None = None, logging_level: str | None = None, max_concurrency_per_instance: int | None = None, error_threshold: int | None = None, mini_batch_error_threshold: int | None = None, input_data: str | None = None, task: Dict[str, ParallelTask | str] | None = None, partition_keys: List | None = None, mini_batch_size: int | None = None, resources: JobResourceConfiguration | None = None, environment_variables: Dict | None = None, **kwargs)

參數

component
<xref:azure.ai.ml.entities._component.parallel_component.parallelComponent>
必要

要針對步驟執行的平行元件/作業識別碼或實例

name
str
必要

平行的名稱

description
str
必要

逗號的描述

tags
dict[str, str]
必要

標記字典。 標記可以新增、移除和更新

properties
dict[str, str]
必要

job 屬性字典

display_name
str
必要

作業的顯示名稱

retry_settings
BatchRetrySettings
必要

平行作業執行失敗重試

logging_level
str
必要

記錄層級名稱的字串

max_concurrency_per_instance
int
必要

每個計算實例都有的最大平行處理原則

error_threshold
int
必要

應該忽略專案處理失敗的數目

mini_batch_error_threshold
int
必要

應該忽略迷你批次處理失敗的數目

task
ParallelTask
必要

平行工作

mini_batch_size
str
必要

對於 FileDataset 輸入,此欄位是使用者腳本可在一次執行 () 呼叫中處理的檔案數目。 對於 TabularDataset 輸入,此欄位是使用者腳本可在一次執行 () 呼叫中處理的大約資料大小。 範例值為 1024、1024KB、10MB 和 1GB。 (選擇性,FileDataset 的預設值為 10 個檔案,而 TabularDataset 的預設值為 1MB。) 此值可以透過 PipelineParameter 設定

partition_keys
List
必要

用來將資料資料集分割成迷你批次的索引鍵。 如果指定,具有相同索引鍵的資料會分割成相同的迷你批次。 如果同時指定partition_keys和mini_batch_size,分割區索引鍵將會生效。 輸入 () 必須是分割資料集 () ,而partition_keys必須是每個輸入資料集的索引鍵子集,才能運作。

input_data
str
必要

輸入資料

inputs
dict
必要

元件/作業的輸入

outputs
dict
必要

元件/作業的輸出

方法

clear
copy
dump

以 YAML 格式將作業內容傾印到檔案中。

fromkeys

建立新的字典,其中包含可反覆運算的索引鍵,並將值設定為 value。

get

如果索引鍵位於字典中,則傳回索引鍵的值,否則為預設值。

items
keys
pop

如果找不到索引鍵,則傳回指定的預設值;否則,請引發 KeyError。

popitem

移除並傳回 (索引鍵、值) 組作為 2 元組。

配對會以 LIFO 傳回, (先出) 順序。 如果聽寫是空的,則引發 KeyError。

set_resources

設定平行作業的資源。

setdefault

如果索引鍵不在字典中,則插入值為預設值的索引鍵。

如果索引鍵位於字典中,則傳回索引鍵的值,否則為預設值。

update

如果 E 存在且具有 .keys () 方法,則執行: e: D[k] = E[k] 如果 E 存在且缺少 .keys () 方法,則會執行: for k, v in E: D[k] = v 在任一案例中,後面接著: f: D[k] = F[k]

values

clear

clear() -> None.  Remove all items from D.

copy

copy() -> a shallow copy of D

dump

以 YAML 格式將作業內容傾印到檔案中。

dump(dest: str | PathLike | IO, **kwargs) -> None

參數

dest
Union[<xref:PathLike>, str, IO[AnyStr]]
必要

要寫入 YAML 內容的本機路徑或檔案資料流程。 如果 dest 是檔案路徑,則會建立新的檔案。 如果 dest 是開啟的檔案,則會直接寫入檔案。

kwargs
dict

要傳遞至 YAML 序列化程式的其他引數。

例外狀況

如果 dest 是檔案路徑且檔案已經存在,則引發。

如果 dest 是開啟的檔案,而且無法寫入檔案,則引發。

fromkeys

建立新的字典,其中包含可反覆運算的索引鍵,並將值設定為 value。

fromkeys(value=None, /)

參數

type
必要
iterable
必要
value
預設值: None

get

如果索引鍵位於字典中,則傳回索引鍵的值,否則為預設值。

get(key, default=None, /)

參數

key
必要
default
預設值: None

items

items() -> a set-like object providing a view on D's items

keys

keys() -> a set-like object providing a view on D's keys

pop

如果找不到索引鍵,則傳回指定的預設值;否則,請引發 KeyError。

pop(k, [d]) -> v, remove specified key and return the corresponding value.

popitem

移除並傳回 (索引鍵、值) 組作為 2 元組。

配對會以 LIFO 傳回, (先出) 順序。 如果聽寫是空的,則引發 KeyError。

popitem()

set_resources

設定平行作業的資源。

set_resources(*, instance_type: str | List[str] | None = None, instance_count: int | None = None, properties: Dict | None = None, docker_args: str | None = None, shm_size: str | None = None, **kwargs)

參數

instance_type
strlist[str]

實例類型或計算目標所支援的實例類型清單。

instance_count
int

計算目標所使用的實例或節點數目。

properties
dict

資源的屬性字典。

docker_args
str

要傳遞至 Docker run 命令的額外引數。

shm_size
str

Docker 容器的共用記憶體區塊大小。

setdefault

如果索引鍵不在字典中,則插入值為預設值的索引鍵。

如果索引鍵位於字典中,則傳回索引鍵的值,否則為預設值。

setdefault(key, default=None, /)

參數

key
必要
default
預設值: None

update

如果 E 存在且具有 .keys () 方法,則執行: e: D[k] = E[k] 如果 E 存在且缺少 .keys () 方法,則會執行: for k, v in E: D[k] = v 在任一案例中,後面接著: f: D[k] = F[k]

update([E], **F) -> None.  Update D from dict/iterable E and F.

values

values() -> an object providing a view on D's values

屬性

base_path

資源的基底路徑。

傳回

資源的基底路徑。

傳回類型

str

component

取得平行作業的元件。

傳回

平行作業的元件。

傳回類型

str,

creation_context

資源的建立內容。

傳回

資源的建立中繼資料。

傳回類型

id

資源識別碼。

傳回

資源的全域識別碼,Azure Resource Manager (ARM) 識別碼。

傳回類型

inputs

取得 物件的輸入。

傳回

字典,包含 物件的輸入。

傳回類型

log_files

作業輸出檔案。

傳回

記錄名稱和 URL 的字典。

傳回類型

name

取得節點的名稱。

傳回

節點的名稱。

傳回類型

str

outputs

取得 物件的輸出。

傳回

字典,包含 物件的輸出。

傳回類型

resources

取得平行作業的資源組態。

傳回

平行作業的資源組態。

傳回類型

retry_settings

取得平行作業的重試設定。

傳回

平行作業的重試設定。

傳回類型

status

工作的狀態。

傳回的常見值包括 「Running」、「Completed」 和 「Failed」。 所有可能的值為:

  • NotStarted - 這是用戶端 Run 物件在雲端提交之前所在的暫時狀態。

  • 啟動 - 執行已在雲端中開始處理。 呼叫端此時有執行識別碼。

  • 布建 - 針對指定的作業提交建立隨選計算。

  • 準備 - 正在準備執行環境,且處於兩個階段之一:

    • Docker 映射組建

    • conda 環境設定

  • 已排入佇列 - 作業會排入計算目標上的佇列。 例如,在 BatchAI 中,作業處於佇列狀態

    等候所有要求的節點準備就緒時。

  • 執行 - 作業已開始在計算目標上執行。

  • 完成 - 使用者程式碼執行已完成,且執行處於後續處理階段。

  • CancelRequested - 已要求取消作業。

  • 已完成 - 執行已順利完成。 這包括使用者程式碼執行和執行

    後續處理階段。

  • 失敗 - 執行失敗。 執行上的 Error 屬性通常會提供原因的詳細資料。

  • 已取消 - 遵循取消要求,並指出現在已成功取消執行。

  • NotResponding - 針對已啟用活動訊號的執行,最近不會傳送活動訊號。

傳回

作業的狀態。

傳回類型

studio_url

Azure ML Studio 端點。

傳回

作業詳細資料頁面的 URL。

傳回類型

task

取得平行工作。

傳回

平行工作。

傳回類型

type

作業的類型。

傳回

作業的類型。

傳回類型