PipelineJob 類別

管線作業。

您不應該直接具現化此類別。 相反地,您應該使用 @pipeline 裝飾專案來建立 PipelineJob

] :p aram 計算:所建置管線的計算目標名稱。 預設為 None :type compute: str :p aram 標籤:標記字典。 標記可以新增、移除和更新。 預設為 None :type tags: dict[str, str] :p aram kwargs:其他組態參數的字典。 預設值為 None :type kwargs: dict

繼承
azure.ai.ml.entities._job.job.Job
PipelineJob
azure.ai.ml.entities._mixins.YamlTranslatableMixin
PipelineJob
azure.ai.ml.entities._job.pipeline._io.mixin.PipelineJobIOMixin
PipelineJob
azure.ai.ml.entities._validation.path_aware_schema.PathAwareSchemaValidatableMixin
PipelineJob

建構函式

PipelineJob(*, component: str | PipelineComponent | None = None, inputs: Dict[str, int | str | float | bool | Input] | None = None, outputs: Dict[str, Output] | None = None, name: str | None = None, description: str | None = None, display_name: str | None = None, experiment_name: str | None = None, jobs: Dict[str, BaseNode] | None = None, settings: PipelineJobSettings | None = None, identity: ManagedIdentityConfiguration | AmlTokenConfiguration | UserIdentityConfiguration | None = None, compute: str | None = None, tags: Dict[str, str] | None = None, **kwargs)

參數

component
Union[str, PipelineComponent]
必要

管線元件版本。 欄位與 'jobs' 互斥。

inputs
dict[str, Union[<xref:azure.ai.ml.entities.Input>, str, bool, int, float]]
必要

管線作業的輸入。

outputs
dict[str, <xref:azure.ai.ml.entities.Output>]
必要

管線作業的輸出。

name
str
必要

PipelineJob 的名稱。 預設值為 None

description
str
必要

管線作業的描述。 預設值為 None

display_name
str
必要

管線作業的顯示名稱。 預設值為 None

experiment_name
str
必要

將建立作業的實驗名稱。 如果提供 None,實驗將會設定為目前的目錄。 預設值為 None

jobs
dict[str, <xref:azure.ai.ml.entities._builders.BaseNode>]
必要

元件物件的管線元件節點名稱。 預設值為 None

settings
PipelineJobSettings
必要

管線作業的設定。 預設值為 None

identity
Union[ ManagedIdentityConfiguration, AmlTokenConfiguration, UserIdentityConfiguration
必要

在計算上執行時,定型作業將使用的身分識別。 預設值為 None

範例

示範如何使用這個類別建立管線。


   from azure.ai.ml.entities import PipelineJob, PipelineJobSettings

   pipeline_job = PipelineJob(
       description="test pipeline job",
       tags={},
       display_name="test display name",
       experiment_name="pipeline_job_samples",
       properties={},
       settings=PipelineJobSettings(force_rerun=True, default_compute="cpu-cluster"),
       jobs={"component1": component_func(component_in_number=1.0, component_in_path=uri_file_input)},
   )
   ml_client.jobs.create_or_update(pipeline_job)

方法

dump

以 YAML 格式將作業內容傾印到檔案中。

dump

以 YAML 格式將作業內容傾印到檔案中。

dump(dest: str | PathLike | IO, **kwargs) -> None

參數

dest
Union[<xref:PathLike>, str, IO[AnyStr]]
必要

要寫入 YAML 內容的本機路徑或檔案資料流程。 如果 dest 是檔案路徑,將會建立新的檔案。 如果 dest 是開啟的檔案,則會直接將檔案寫入。

kwargs
dict

要傳遞至 YAML 序列化程式的其他引數。

例外狀況

如果 dest 是檔案路徑且檔案已經存在,則會引發 。

如果 dest 是開啟的檔案,而且檔案無法寫入,則引發。

屬性

base_path

資源的基底路徑。

傳回

資源的基底路徑。

傳回類型

str

creation_context

資源的建立內容。

傳回

資源的建立中繼資料。

傳回類型

id

資源識別碼。

傳回

資源的全域識別碼,Azure Resource Manager (ARM) 識別碼。

傳回類型

inputs

管線作業的輸入。

傳回

管線作業的輸入。

傳回類型

jobs

傳回管線作業的作業。

傳回

管線作業的作業。

傳回類型

log_files

作業輸出檔案。

傳回

記錄名稱和 URL 的字典。

傳回類型

outputs

管線作業的輸出。

傳回

管線作業的輸出。

傳回類型

settings

管線作業的設定。

傳回

管線作業的設定。

傳回類型

status

工作的狀態。

傳回的常見值包括「執行中」、「已完成」和「失敗」。 所有可能的值為:

  • NotStarted - 這是用戶端 Run 物件在雲端提交之前所在的暫時狀態。

  • 啟動 - 執行已在雲端中開始處理。 呼叫端此時具有執行識別碼。

  • 布建 - 正在針對指定的作業提交建立隨選計算。

  • 準備 - 正在準備執行環境,且處於兩個階段之一:

    • Docker 映射組建

    • conda 環境設定

  • 已排入佇列 - 作業已排入計算目標上的佇列。 例如,在 BatchAI 中,作業處於佇列狀態

    等候所有要求的節點準備就緒時。

  • 執行 - 作業已開始在計算目標上執行。

  • 完成 - 使用者程式碼執行已完成,且執行處於後續處理階段。

  • CancelRequested - 作業已要求取消。

  • 已完成 - 執行已順利完成。 這包括使用者程式碼執行和執行

    後續處理階段。

  • 失敗 - 執行失敗。 執行上的 Error 屬性通常會提供原因的詳細資料。

  • 已取消 - 遵循取消要求,並指出現在已成功取消執行。

  • NotResponding - 針對已啟用活動訊號的執行,最近不會傳送活動訊號。

傳回

作業的狀態。

傳回類型

studio_url

Azure ML Studio 端點。

傳回

作業詳細資料頁面的 URL。

傳回類型

type

作業的類型。

傳回

作業的類型。

傳回類型