Schedule 클래스
파이프라인을 제출할 일정을 정의합니다.
파이프라인이 게시되면 일정을 사용하여 지정된 간격으로 또는 Blob Storage 위치에 대한 변경 내용이 검색될 때 파이프라인을 제출할 수 있습니다.
일정을 초기화합니다.
- 상속
-
builtins.objectSchedule
생성자
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
이 일정이 속하게 될 작업 영역 개체입니다. |
id
필수
|
일정의 ID입니다. |
name
필수
|
일정의 이름입니다. |
description
필수
|
일정에 대한 설명입니다. |
pipeline_id
필수
|
일정이 제출할 파이프라인의 ID입니다. |
status
필수
|
일정의 상태('Active' 또는 'Disabled')입니다. |
recurrence
필수
|
파이프라인에 대한 일정 되풀이입니다. |
datastore_name
필수
|
수정/추가된 BLOB를 모니터링할 데이터 저장소의 이름입니다. 참고: 1) VNET 데이터 저장소는 지원되지 않습니다. 2) 데이터 저장소에 대한 인증 유형을 "계정 키"로 설정해야 합니다. |
polling_interval
필수
|
수정/추가된 BLOB에 대한 폴링 사이의 시간(분)입니다. |
data_path_parameter_name
필수
|
변경된 BLOB 경로를 사용하여 설정할 데이터 경로 파이프라인 매개 변수의 이름입니다. |
continue_on_step_failure
필수
|
단계가 실패할 경우 제출된 PipelineRun에서 다른 단계를 계속 실행할지 여부입니다. 제공된 경우 파이프라인에 대한 continue_on_step_failure 설정을 재정의합니다. |
path_on_datastore
필수
|
선택 사항입니다. 수정/추가된 BLOB를 모니터링할 데이터 저장소의 경로입니다. 참고: path_on_datastore는 데이터 저장소의 컨테이너 아래에 있으므로 일정이 모니터링할 실제 경로는 container/path_on_datastore가 됩니다. 없는 경우 데이터 저장소 컨테이너가 모니터링됩니다. path_on_datastore의 하위 폴더에 대한 추가/수정 내용이 모니터링되지 않습니다. 데이터 저장소 일정에만 지원됩니다. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
일정 공급자입니다. Default value: None
|
workspace
필수
|
이 일정이 속하게 될 작업 영역 개체입니다. |
id
필수
|
일정의 ID입니다. |
name
필수
|
일정의 이름입니다. |
description
필수
|
일정에 대한 설명입니다. |
pipeline_id
필수
|
일정이 제출할 파이프라인의 ID입니다. |
status
필수
|
일정의 상태('Active' 또는 'Disabled')입니다. |
recurrence
필수
|
파이프라인의 일정 되풀이입니다. |
datastore_name
필수
|
수정/추가된 BLOB를 모니터링할 데이터 저장소의 이름입니다. 참고: VNET 데이터 저장소는 지원되지 않습니다. |
polling_interval
필수
|
수정/추가된 BLOB에 대한 폴링 사이의 시간(분)입니다. |
data_path_parameter_name
필수
|
변경된 BLOB 경로를 사용하여 설정할 데이터 경로 파이프라인 매개 변수의 이름입니다. |
continue_on_step_failure
필수
|
단계가 실패할 경우 제출된 PipelineRun에서 다른 단계를 계속 실행할지 여부입니다. 제공된 경우 파이프라인에 대한 continue_on_step_failure 설정을 재정의합니다. |
path_on_datastore
필수
|
선택 사항입니다. 수정/추가된 BLOB를 모니터링할 데이터 저장소의 경로입니다. 참고: path_on_datastore는 데이터 저장소의 컨테이너 아래에 있으므로 일정이 모니터링할 실제 경로는 container/path_on_datastore가 됩니다. 없는 경우 데이터 저장소 컨테이너가 모니터링됩니다. path_on_datastore의 하위 폴더에 대한 추가/수정 내용이 모니터링되지 않습니다. 데이터 저장소 일정에만 지원됩니다. |
_schedule_provider
필수
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
일정 공급자입니다. |
pipeline_endpoint_id
|
일정이 제출할 파이프라인 엔드포인트의 ID입니다. Default value: None
|
설명
두 가지 유형의 일정이 지원됩니다. 첫 번째는 시간 되풀이를 사용하여 지정된 일정에 따라 파이프라인을 제출합니다. 두 번째는 추가되거나 수정된 BLOB에 대한 AzureBlobDatastore를 모니터링하고 변경 내용이 감지되면 파이프라인을 제출합니다.
되풀이 일정에 따라 파이프라인을 제출할 일정을 만들려면 일정을 만들 때 ScheduleRecurrence를 사용합니다.
ScheduleRecurrence는 다음과 같이 파이프라인에 대한 일정을 만들 때 사용됩니다.
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
이 일정은 12시간마다 제공된 PublishedPipeline을 제출합니다. 제출된 파이프라인은 "helloworld"라는 이름으로 실험 아래에 만들어집니다.
Blob Storage 위치 수정 시 PipelineRuns를 트리거하는 일정을 만들려면 일정을 만들 때 데이터 저장소 및 관련 데이터 정보를 지정합니다.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
polling_interval 및 path_on_datastore 매개 변수는 선택 사항입니다. polling_interval은 데이터 저장소 수정을 폴링하는 빈도를 지정하며 기본적으로 5분입니다. path_on_datastore를 사용하여 변경 내용을 모니터링할 데이터 저장소의 폴더를 지정할 수 있습니다. None인 경우 데이터 저장소 컨테이너가 모니터링됩니다. 참고: path_on_datastore 또는 데이터 저장소 컨테이너의 하위 폴더에서 BLOB 추가/수정(path_on_datastore가 지정되지 않은 경우)은 검색되지 않습니다.
또한 파이프라인이 단계 입력을 설명하는 데 DataPathPipelineParameter를 사용하도록 생성된 경우 데이터 저장소 트리거 일정을 만들 때 data_path_parameter_name 매개 변수를 사용하여 PipelineRun이 일정에 의해 제출될 때 입력을 변경된 파일로 설정합니다.
다음 예제에서 일정이 PipelineRun을 트리거하면 "input_data" PipelineParameter의 값이 수정/추가된 파일로 설정됩니다.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
일정 예약에 대한 자세한 내용은 https://aka.ms/pl-schedule을 참조하세요.
메서드
create |
파이프라인에 대한 일정을 만듭니다. 시간 기반 일정에 대한 되풀이를 지정하거나 데이터 저장소, (선택 사항) polling_interval, (선택 사항) data_path_parameter_name을 지정하여 수정/추가에 대한 데이터 저장소 위치를 모니터링하는 일정을 만듭니다. |
create_for_pipeline_endpoint |
파이프라인 엔드포인트에 대한 일정을 만듭니다. 시간 기반 일정에 대한 되풀이를 지정하거나 데이터 저장소, (선택 사항) polling_interval, (선택 사항) data_path_parameter_name을 지정하여 수정/추가에 대한 데이터 저장소 위치를 모니터링하는 일정을 만듭니다. |
disable |
일정을 'Disabled'로 설정하고 실행할 수 없습니다. |
enable |
일정을 'Active'로 설정하고 실행할 수 있습니다. |
get |
지정된 ID를 사용하여 일정을 가져옵니다. |
get_all |
현재 작업 영역에서 모든 일정을 가져옵니다. 사용되지 않음: 이 메서드는 사용되지 않으며 list 메서드로 대체되었습니다. |
get_last_pipeline_run |
일정에 의해 제출된 마지막 파이프라인 실행을 가져옵니다. 실행이 제출되지 않은 경우 None을 반환합니다. |
get_pipeline_runs |
일정에서 생성된 파이프라인 실행을 가져옵니다. |
get_schedules_for_pipeline_endpoint_id |
지정된 파이프라인 엔드포인트 ID에 대한 모든 일정을 가져옵니다. |
get_schedules_for_pipeline_id |
지정된 파이프라인 ID에 대한 모든 일정을 가져옵니다. |
list |
현재 작업 영역에서 모든 일정을 가져옵니다. |
load_yaml |
YAML 파일을 로드하고 읽어 일정 매개 변수를 가져옵니다. YAML 파일은 일정 매개 변수를 전달하여 일정을 만드는 한 가지 방법입니다. |
update |
일정을 업데이트합니다. |
create
파이프라인에 대한 일정을 만듭니다.
시간 기반 일정에 대한 되풀이를 지정하거나 데이터 저장소, (선택 사항) polling_interval, (선택 사항) data_path_parameter_name을 지정하여 수정/추가에 대한 데이터 저장소 위치를 모니터링하는 일정을 만듭니다.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
이 일정이 속하게 될 작업 영역 개체입니다. |
name
필수
|
일정의 이름입니다. |
pipeline_id
필수
|
일정이 제출할 파이프라인의 ID입니다. |
experiment_name
필수
|
일정이 제출할 실험의 이름입니다. |
recurrence
|
파이프라인의 일정 되풀이입니다. Default value: None
|
description
|
일정에 대한 설명입니다. Default value: None
|
pipeline_parameters
|
새 값 {param name, param value}를 할당하기 위한 매개 변수 사전 Default value: None
|
wait_for_provisioning
|
일정의 프로비전이 완료될 때까지 기다릴지 여부입니다. Default value: False
|
wait_timeout
|
시간이 초과되기 전에 대기하는 시간(초)입니다. Default value: 3600
|
datastore
|
수정/추가된 BLOB를 모니터링할 데이터 저장소입니다. 참고: VNET 데이터 저장소는 지원되지 않습니다. 되풀이와 함께 사용할 수 없습니다. Default value: None
|
polling_interval
|
수정/추가된 BLOB에 대한 폴링 사이의 시간(분)입니다. 기본값은 5분입니다. 데이터 저장소 일정에만 지원됩니다. Default value: 5
|
data_path_parameter_name
|
변경된 BLOB 경로를 사용하여 설정할 데이터 경로 파이프라인 매개 변수의 이름입니다. 데이터 저장소 일정에만 지원됩니다. Default value: None
|
continue_on_step_failure
|
단계가 실패할 경우 제출된 PipelineRun에서 다른 단계를 계속 실행할지 여부입니다. 제공된 경우 파이프라인에 대한 continue_on_step_failure 설정을 재정의합니다. Default value: None
|
path_on_datastore
|
선택 사항입니다. 수정/추가된 BLOB를 모니터링할 데이터 저장소의 경로입니다. 참고: path_on_datastore는 데이터 저장소의 컨테이너 아래에 있으므로 일정이 모니터링할 실제 경로는 container/path_on_datastore가 됩니다. 없는 경우 데이터 저장소 컨테이너가 모니터링됩니다. path_on_datastore의 하위 폴더에 대한 추가/수정 내용이 모니터링되지 않습니다. 데이터 저장소 일정에만 지원됩니다. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
만든 일정입니다. |
create_for_pipeline_endpoint
파이프라인 엔드포인트에 대한 일정을 만듭니다.
시간 기반 일정에 대한 되풀이를 지정하거나 데이터 저장소, (선택 사항) polling_interval, (선택 사항) data_path_parameter_name을 지정하여 수정/추가에 대한 데이터 저장소 위치를 모니터링하는 일정을 만듭니다.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
이 일정이 속하게 될 작업 영역 개체입니다. |
name
필수
|
일정의 이름입니다. |
pipeline_endpoint_id
필수
|
일정이 제출할 파이프라인 엔드포인트의 ID입니다. |
experiment_name
필수
|
일정이 제출할 실험의 이름입니다. |
recurrence
|
파이프라인의 일정 되풀이입니다. Default value: None
|
description
|
일정에 대한 설명입니다. Default value: None
|
pipeline_parameters
|
새 값 {param name, param value}를 할당하기 위한 매개 변수 사전 Default value: None
|
wait_for_provisioning
|
일정의 프로비전이 완료될 때까지 기다릴지 여부입니다. Default value: False
|
wait_timeout
|
시간이 초과되기 전에 대기하는 시간(초)입니다. Default value: 3600
|
datastore
|
수정/추가된 BLOB를 모니터링할 데이터 저장소입니다. 참고: VNET 데이터 저장소는 지원되지 않습니다. 되풀이와 함께 사용할 수 없습니다. Default value: None
|
polling_interval
|
수정/추가된 BLOB에 대한 폴링 사이의 시간(분)입니다. 기본값은 5분입니다. 데이터 저장소 일정에만 지원됩니다. Default value: 5
|
data_path_parameter_name
|
변경된 BLOB 경로를 사용하여 설정할 데이터 경로 파이프라인 매개 변수의 이름입니다. 데이터 저장소 일정에만 지원됩니다. Default value: None
|
continue_on_step_failure
|
단계가 실패할 경우 제출된 PipelineRun에서 다른 단계를 계속 실행할지 여부입니다. 제공된 경우 파이프라인에 대한 continue_on_step_failure 설정을 재정의합니다. Default value: None
|
path_on_datastore
|
선택 사항입니다. 수정/추가된 BLOB를 모니터링할 데이터 저장소의 경로입니다. 참고: path_on_datastore는 데이터 저장소의 컨테이너 아래에 있으므로 일정이 모니터링할 실제 경로는 container/path_on_datastore가 됩니다. 없는 경우 데이터 저장소 컨테이너가 모니터링됩니다. path_on_datastore의 하위 폴더에 대한 추가/수정 내용이 모니터링되지 않습니다. 데이터 저장소 일정에만 지원됩니다. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
만든 일정입니다. |
disable
일정을 'Disabled'로 설정하고 실행할 수 없습니다.
disable(wait_for_provisioning=False, wait_timeout=3600)
매개 변수
Name | Description |
---|---|
wait_for_provisioning
|
일정의 프로비전이 완료될 때까지 기다릴지 여부입니다. Default value: False
|
wait_timeout
|
시간이 초과되기 전에 대기하는 시간(초)입니다. Default value: 3600
|
enable
일정을 'Active'로 설정하고 실행할 수 있습니다.
enable(wait_for_provisioning=False, wait_timeout=3600)
매개 변수
Name | Description |
---|---|
wait_for_provisioning
|
일정의 프로비전이 완료될 때까지 기다릴지 여부입니다. Default value: False
|
wait_timeout
|
시간이 초과되기 전에 대기하는 시간(초)입니다. Default value: 3600
|
get
지정된 ID를 사용하여 일정을 가져옵니다.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
일정이 만들어진 작업 영역입니다. |
id
필수
|
일정의 ID입니다. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
일정 개체 |
get_all
현재 작업 영역에서 모든 일정을 가져옵니다.
사용되지 않음: 이 메서드는 사용되지 않으며 list 메서드로 대체되었습니다.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
작업 영역입니다. |
active_only
|
true이면 현재 활성 상태인 일정만 반환합니다. 파이프라인 ID가 제공되지 않은 경우에만 적용됩니다. Default value: True
|
pipeline_id
|
제공된 경우 지정된 ID를 사용하여 파이프라인에 대한 일정만 반환합니다. Default value: None
|
pipeline_endpoint_id
|
제공된 경우 지정된 ID를 사용하여 파이프라인 엔드포인트에 대한 일정만 반환합니다. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
Schedule의 목록입니다. |
get_last_pipeline_run
일정에 의해 제출된 마지막 파이프라인 실행을 가져옵니다. 실행이 제출되지 않은 경우 None을 반환합니다.
get_last_pipeline_run()
반환
형식 | Description |
---|---|
마지막 파이프라인 실행입니다. |
get_pipeline_runs
get_schedules_for_pipeline_endpoint_id
지정된 파이프라인 엔드포인트 ID에 대한 모든 일정을 가져옵니다.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
작업 영역입니다. |
pipeline_endpoint_id
필수
|
파이프라인 엔드포인트 ID입니다. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
Schedule의 목록입니다. |
get_schedules_for_pipeline_id
지정된 파이프라인 ID에 대한 모든 일정을 가져옵니다.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
작업 영역입니다. |
pipeline_id
필수
|
파이프라인 ID입니다. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
Schedule의 목록입니다. |
list
현재 작업 영역에서 모든 일정을 가져옵니다.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
작업 영역입니다. |
active_only
|
true이면 현재 활성 상태인 일정만 반환합니다. 파이프라인 ID가 제공되지 않은 경우에만 적용됩니다. Default value: True
|
pipeline_id
|
제공된 경우 지정된 ID를 사용하여 파이프라인에 대한 일정만 반환합니다. Default value: None
|
pipeline_endpoint_id
|
제공된 경우 지정된 ID를 사용하여 파이프라인 엔드포인트에 대한 일정만 반환합니다. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
Schedule의 목록입니다. |
load_yaml
YAML 파일을 로드하고 읽어 일정 매개 변수를 가져옵니다.
YAML 파일은 일정 매개 변수를 전달하여 일정을 만드는 한 가지 방법입니다.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
매개 변수
Name | Description |
---|---|
workspace
필수
|
작업 영역입니다. |
filename
필수
|
위치가 있는 YAML 파일 이름입니다. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
워크플로 공급자입니다. Default value: None
|
_service_endpoint
|
서비스 엔드포인트입니다. Default value: None
|
반환
형식 | Description |
---|---|
Schedule 매개 변수 및 값의 사전입니다. |
설명
일정에 대해 두 가지 유형의 YAML이 지원됩니다. 첫 번째는 파이프라인을 트리거하기 위해 일정 생성에 대한 되풀이 정보를 읽고 로드합니다. 두 번째는 파이프라인을 트리거하기 위해 일정 생성에 대한 데이터 저장소 정보를 읽고 로드합니다.
다음은 되풀이에 파이프라인을 제출하는 일정을 만드는 예제입니다.
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
샘플 YAML 파일 test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
다음은 데이터 저장소에 파이프라인을 제출하는 일정을 만드는 예제입니다.
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
일정을 업데이트합니다.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
매개 변수
Name | Description |
---|---|
name
|
일정의 새 이름입니다. Default value: None
|
recurrence
|
파이프라인의 새 일정 되풀이입니다. Default value: None
|
description
|
일정에 대한 새 설명입니다. Default value: None
|
pipeline_parameters
|
새 값 {param name, param value}를 할당하기 위한 매개 변수 사전입니다. Default value: None
|
status
|
일정의 새 상태('Active' 또는 'Disabled')입니다. Default value: None
|
wait_for_provisioning
|
일정의 프로비전이 완료될 때까지 기다릴지 여부입니다. Default value: False
|
wait_timeout
|
시간이 초과되기 전에 대기하는 시간(초)입니다. Default value: 3600
|
datastore
|
수정/추가된 BLOB를 모니터링할 데이터 저장소입니다. 참고: VNET 데이터 저장소는 지원되지 않습니다. Default value: None
|
polling_interval
|
수정/추가된 BLOB에 대한 폴링 사이의 시간(분)입니다. 기본값은 5분입니다. Default value: None
|
data_path_parameter_name
|
변경된 BLOB 경로를 사용하여 설정할 데이터 경로 파이프라인 매개 변수의 이름입니다. Default value: None
|
continue_on_step_failure
|
단계가 실패할 경우 제출된 PipelineRun에서 다른 단계를 계속 실행할지 여부입니다. 제공된 경우 파이프라인에 대한 continue_on_step_failure 설정을 재정의합니다. Default value: None
|
path_on_datastore
|
선택 사항입니다. 수정/추가된 BLOB를 모니터링할 데이터 저장소의 경로입니다. 참고: path_on_datastore는 데이터 저장소의 컨테이너 아래에 있으므로 일정이 모니터링할 실제 경로는 container/path_on_datastore가 됩니다. 없는 경우 데이터 저장소 컨테이너가 모니터링됩니다. path_on_datastore의 하위 폴더에 대한 추가/수정 내용이 모니터링되지 않습니다. 데이터 저장소 일정에만 지원됩니다. Default value: None
|