Aracılığıyla paylaş


Schedule Sınıf

İşlem hattının gönderildiği zamanlamayı tanımlar.

İşlem Hattı yayımlandıktan sonra, Belirli bir aralıkta veya Blob depolama konumunda değişiklikler algılandığında İşlem Hattını göndermek için bir Zamanlama kullanılabilir.

Zamanlama'yı başlatın.

Devralma
builtins.object
Schedule

Oluşturucu

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parametreler

Name Description
workspace
Gerekli

Bu Schedule'ın ait olacağı çalışma alanı nesnesi.

id
Gerekli
str

Zamanlamanın Kimliği.

name
Gerekli
str

Zamanlama adı.

description
Gerekli
str

Zamanlamanın açıklaması.

pipeline_id
Gerekli
str

Zamanlamanın göndereceği işlem hattının kimliği.

status
Gerekli
str

Zamanlamanın durumu: 'Etkin' veya 'Devre Dışı'.

recurrence
Gerekli

İşlem hattı için zamanlama yinelenme.

datastore_name
Gerekli
str

Değiştirilen/eklenen blobları izlemek için veri deposunun adı. Not: 1) VNET Veri Depoları desteklenmez. 2) Veri deposu için kimlik doğrulama türü "Hesap anahtarı" olarak ayarlanmalıdır.

polling_interval
Gerekli
int

Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden).

data_path_parameter_name
Gerekli
str

Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı.

continue_on_step_failure
Gerekli

Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar.

path_on_datastore
Gerekli
str

İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olacaktır. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore bir alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Zamanlama sağlayıcısı.

Default value: None
workspace
Gerekli

Bu Schedule'ın ait olacağı çalışma alanı nesnesi.

id
Gerekli
str

Zamanlamanın Kimliği.

name
Gerekli
str

Zamanlama adı.

description
Gerekli
str

Zamanlamanın açıklaması.

pipeline_id
Gerekli
str

Zamanlamanın göndereceği işlem hattının kimliği.

status
Gerekli
str

Zamanlamanın durumu: 'Etkin' veya 'Devre Dışı'.

recurrence
Gerekli

İşlem hattının zamanlama yinelenme sayısı.

datastore_name
Gerekli
str

Değiştirilen/eklenen blobları izlemek için veri deposunun adı. Not: VNET Veri Depoları desteklenmez.

polling_interval
Gerekli
int

Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden).

data_path_parameter_name
Gerekli
str

Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı.

continue_on_step_failure
Gerekli

Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar.

path_on_datastore
Gerekli
str

İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olacaktır. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore bir alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir.

_schedule_provider
Gerekli
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Zamanlama sağlayıcısı.

pipeline_endpoint_id
str

Zamanlamanın göndereceği işlem hattı uç noktasının kimliği.

Default value: None

Açıklamalar

İki zamanlama türü desteklenir. İlki, belirli bir zamanlamaya göre işlem hattı göndermek için zaman yinelemesini kullanır. İkinci blob, eklenen veya değiştirilen blobları izler AzureBlobDatastore ve değişiklikler algılandığında bir İşlem Hattı gönderir.

Yinelenen bir zamanlamaya göre bir İşlem Hattı gönderecek bir Zamanlama oluşturmak için Zamanlamayı oluştururken öğesini ScheduleRecurrence kullanın.

Bir İşlem Hattı için Zamanlama oluşturulurken ScheduleRecurrence aşağıdaki gibi kullanılır:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Bu Zamanlama, sağlanan PublishedPipeline öğesini her 12 saatte bir gönderir. Gönderilen İşlem Hattı Deneme altında "helloworld" adıyla oluşturulur.

Blob depolama konumunda yapılan değişikliklerde PipelineRuns'u tetikleyecek bir Schedule oluşturmak için, Schedule'ı oluştururken veri deposu ve ilgili veri bilgilerini belirtin.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

polling_interval ve path_on_datastore parametrelerinin isteğe bağlı olduğunu unutmayın. polling_interval, Datastore'da yapılan değişiklikler için ne sıklıkta yoklama yapılacağını belirtir ve varsayılan olarak 5 dakikadır. path_on_datastore, Datastore'da hangi klasörün değişiklikleri izleyeceğini belirtmek için kullanılabilir. Hiçbiri ise, Datastore kapsayıcısı izlenir. Not: path_on_datastore veya Datastore kapsayıcısının alt klasörlerindeki blob eklemeleri/değişiklikleri (path_on_datastore belirtilmezse) algılanmaz.

Buna ek olarak, İşlem Hattı bir adım girişini açıklamak için kullanılacak DataPathPipelineParameter şekilde oluşturulduysa, Schedule tarafından bir PipelineRun gönderildiğinde değiştirilen dosyaya girişi ayarlamak için Datastore tarafından tetiklenen bir Zamanlama oluştururken data_path_parameter_name parametresini kullanın.

Aşağıdaki örnekte Schedule, PipelineRun'ı tetiklediğinde, "input_data" PipelineParameter değeri değiştirilen/eklenen dosya olarak ayarlanır:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Zamanlamalar hakkında daha fazla bilgi için bkz. https://aka.ms/pl-schedule.

Yöntemler

create

İşlem hattı için zamanlama oluşturma.

Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun.

create_for_pipeline_endpoint

İşlem hattı uç noktası için bir zamanlama oluşturun.

Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun.

disable

Zamanlamayı 'Devre Dışı' olarak ayarlayın ve çalıştırılamıyor.

enable

Zamanlamayı 'Etkin' olarak ayarlayın ve çalıştırabilirsiniz.

get

Verilen kimlikle zamanlamayı alın.

get_all

Geçerli çalışma alanında tüm zamanlamaları alın.

KULLANIMDAN KALDıRILDI: Bu yöntem yöntemin list lehine kullanım dışı bırakılıyor.

get_last_pipeline_run

Zamanlama tarafından gönderilen son işlem hattı çalıştırmasını getirin. Hiçbir çalıştırma gönderilmediyse Hiçbiri döndürür.

get_pipeline_runs

Zamanlamadan oluşturulan işlem hattı çalıştırmalarını getirin.

get_schedules_for_pipeline_endpoint_id

Verilen işlem hattı uç noktası kimliği için tüm zamanlamaları alın.

get_schedules_for_pipeline_id

Belirtilen işlem hattı kimliği için tüm zamanlamaları alın.

list

Geçerli çalışma alanında tüm zamanlamaları alın.

load_yaml

Zamanlama parametrelerini almak için YAML dosyasını yükleyin ve okuyun.

YAML dosyası, zamanlama oluşturmak için Schedule parametrelerini geçirmenin bir diğer yoludur.

update

Zamanlamayı güncelleştirin.

create

İşlem hattı için zamanlama oluşturma.

Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Bu Schedule'ın ait olacağı çalışma alanı nesnesi.

name
Gerekli
str

Zamanlama adı.

pipeline_id
Gerekli
str

Zamanlamanın göndereceği işlem hattının kimliği.

experiment_name
Gerekli
str

Zamanlamanın göndereceği denemenin adı üzerinde çalışır.

recurrence

İşlem hattının zamanlama yinelenme sayısı.

Default value: None
description
str

Zamanlamanın açıklaması.

Default value: None
pipeline_parameters

{param name, param value} yeni değerleri atamak için parametre sözlüğü

Default value: None
wait_for_provisioning

Zamanlamanın sağlanmasının tamamlanmasının beklenip beklenmeyeceği.

Default value: False
wait_timeout
int

Zaman aşımına uğramadan önce bek için saniye sayısı.

Default value: 3600
datastore

Değiştirilen/eklenen blobları izlemek için Veri Deposu. Not: VNET Veri Depoları desteklenmez. Yinelenme ile kullanılamaz.

Default value: None
polling_interval
int

Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). Varsayılan değer 5 dakikadır. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: 5
data_path_parameter_name
str

Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: None
continue_on_step_failure

Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar.

Default value: None
path_on_datastore
str

İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olur. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

Oluşturulan zamanlama.

create_for_pipeline_endpoint

İşlem hattı uç noktası için bir zamanlama oluşturun.

Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Bu Zamanlamanın ait olacağı çalışma alanı nesnesi.

name
Gerekli
str

Zamanlamanın adı.

pipeline_endpoint_id
Gerekli
str

Zamanlamanın göndereceği işlem hattı uç noktasının kimliği.

experiment_name
Gerekli
str

Zamanlamanın göndereceği denemenin adı çalıştırmaları gönderir.

recurrence

İşlem hattının zamanlama yinelenme sayısı.

Default value: None
description
str

Zamanlamanın açıklaması.

Default value: None
pipeline_parameters

Yeni değerler atamak için parametre sözlüğü {param name, param value}

Default value: None
wait_for_provisioning

Zamanlamanın sağlanmasının tamamlanıp beklenmeyeceği.

Default value: False
wait_timeout
int

Zaman aşımına uğramadan önce bekliyecek saniye sayısı.

Default value: 3600
datastore

Değiştirilen/eklenen blobları izlemek için Veri Deposu. Not: VNET Veri Depoları desteklenmez. Yinelenme ile kullanılamaz.

Default value: None
polling_interval
int

Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). Varsayılan değer 5 dakikadır. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: 5
data_path_parameter_name
str

Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: None
continue_on_step_failure

Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar.

Default value: None
path_on_datastore
str

İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olur. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

Oluşturulan zamanlama.

disable

Zamanlamayı 'Devre Dışı' olarak ayarlayın ve çalıştırılamıyor.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parametreler

Name Description
wait_for_provisioning

Zamanlamanın sağlanmasının tamamlanıp beklenmeyeceği.

Default value: False
wait_timeout
int

Zaman aşımına uğramadan önce bekliyecek saniye sayısı.

Default value: 3600

enable

Zamanlamayı 'Etkin' olarak ayarlayın ve çalıştırabilirsiniz.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parametreler

Name Description
wait_for_provisioning

Zamanlamanın sağlanmasının tamamlanıp beklenmeyeceği.

Default value: False
wait_timeout
int

Zaman aşımına uğramadan önce bekliyecek saniye sayısı.

Default value: 3600

get

Verilen kimlikle zamanlamayı alın.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Zamanlamanın oluşturulduğu çalışma alanı.

id
Gerekli
str

Zamanlamanın kimliği.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

Zamanlama nesnesi

get_all

Geçerli çalışma alanında tüm zamanlamaları alın.

KULLANIMDAN KALDıRILDI: Bu yöntem yöntemin list lehine kullanım dışı bırakılıyor.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Çalışma alanı.

active_only

True ise, yalnızca şu anda etkin olan dönüş zamanlamaları. Yalnızca işlem hattı kimliği sağlanmazsa geçerlidir.

Default value: True
pipeline_id
str

Sağlanırsa, yalnızca verilen kimlikle işlem hattı için zamanlamaları döndürür.

Default value: None
pipeline_endpoint_id
str

Sağlanırsa, yalnızca verilen kimlikle işlem hattı uç noktası için zamanlamaları döndürür.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

listesi Schedule.

get_last_pipeline_run

Zamanlama tarafından gönderilen son işlem hattı çalıştırmasını getirin. Hiçbir çalıştırma gönderilmediyse Hiçbiri döndürür.

get_last_pipeline_run()

Döndürülenler

Tür Description

Son işlem hattı çalıştırması.

get_pipeline_runs

Zamanlamadan oluşturulan işlem hattı çalıştırmalarını getirin.

get_pipeline_runs()

Döndürülenler

Tür Description

listesi PipelineRun.

get_schedules_for_pipeline_endpoint_id

Verilen işlem hattı uç noktası kimliği için tüm zamanlamaları alın.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Çalışma alanı.

pipeline_endpoint_id
Gerekli
str

İşlem hattı uç noktası kimliği.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

listesi Schedule.

get_schedules_for_pipeline_id

Belirtilen işlem hattı kimliği için tüm zamanlamaları alın.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Çalışma alanı.

pipeline_id
Gerekli
str

İşlem hattı kimliği.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

listesi Schedule.

list

Geçerli çalışma alanında tüm zamanlamaları alın.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Çalışma alanı.

active_only

True ise, yalnızca şu anda etkin olan dönüş zamanlamaları. Yalnızca işlem hattı kimliği sağlanmazsa geçerlidir.

Default value: True
pipeline_id
str

Sağlanırsa, yalnızca verilen kimlikle işlem hattı için zamanlamaları döndürür.

Default value: None
pipeline_endpoint_id
str

Sağlanırsa, yalnızca verilen kimlikle işlem hattı uç noktası için zamanlamaları döndürür.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

listesi Schedule.

load_yaml

Zamanlama parametrelerini almak için YAML dosyasını yükleyin ve okuyun.

YAML dosyası, zamanlama oluşturmak için Schedule parametrelerini geçirmenin bir diğer yoludur.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parametreler

Name Description
workspace
Gerekli

Çalışma alanı.

filename
Gerekli
str

Konumlu YAML dosya adı.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

İş akışı sağlayıcısı.

Default value: None
_service_endpoint
str

Hizmet uç noktası.

Default value: None

Döndürülenler

Tür Description

Parametre ve değer sözlüğü Schedule .

Açıklamalar

Zamanlamalar için iki tür YAML desteklenir. İlk, işlem hattını tetikleme amacıyla oluşturma zamanlaması için yinelenme bilgilerini okur ve yükler. İkincisi, işlem hattını tetikleme amacıyla oluşturma zamanlaması için veri deposu bilgilerini okur ve yükler.

Aşağıda gösterildiği gibi yinelenme durumunda bir İşlem Hattı gönderecek bir Zamanlama oluşturma örneği:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Örnek YAML dosyası test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Aşağıda gösterildiği gibi bir veri deposunda İşlem Hattı gönderecek bir Zamanlama oluşturma örneği:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Zamanlamayı güncelleştirin.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parametreler

Name Description
name
str

Zamanlama'nın yeni adı.

Default value: None
recurrence

İşlem hattının yeni zamanlama yinelenme sayısı.

Default value: None
description
str

Zamanlamanın yeni açıklaması.

Default value: None
pipeline_parameters

{param name, param value} yeni değerleri atamak için parametre sözlüğü.

Default value: None
status
str

Zamanlamanın yeni durumu: 'Etkin' veya 'Devre Dışı'.

Default value: None
wait_for_provisioning

Zamanlamanın sağlanmasının tamamlanmasının beklenip beklenmeyeceği.

Default value: False
wait_timeout
int

Zaman aşımına uğramadan önce bek için saniye sayısı.

Default value: 3600
datastore

Değiştirilen/eklenen blobları izlemek için Veri Deposu. Not: VNET Veri Depoları desteklenmez.

Default value: None
polling_interval
int

Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). Varsayılan değer 5 dakikadır.

Default value: None
data_path_parameter_name
str

Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı.

Default value: None
continue_on_step_failure

Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar.

Default value: None
path_on_datastore
str

İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olacaktır. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore bir alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir.

Default value: None

Öznitelikler

continue_on_step_failure

Ayarın continue_on_step_failure değerini alın.

Döndürülenler

Tür Description

Ayarın continue_on_step_failure değeri

data_path_parameter_name

Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adını alın.

Döndürülenler

Tür Description
str

Veri yolu parametre adı.

datastore_name

Zamanlama için kullanılan Veri deposunun adını alın.

Döndürülenler

Tür Description
str

Datastore adı.

description

Zamanlamanın açıklamasını alın.

Döndürülenler

Tür Description
str

Zamanlamanın açıklaması.

id

Zamanlamanın kimliğini alın.

Döndürülenler

Tür Description
str

Kimlik.

name

Zamanlamanın adını alın.

Döndürülenler

Tür Description
str

Ad.

path_on_datastore

Zamanlamanın izlediği veri deposundaki yolu alın.

Döndürülenler

Tür Description
str

Veri deposundaki yol.

pipeline_endpoint_id

Zamanlamanın gönderdiği işlem hattı uç noktasının kimliğini alın.

Döndürülenler

Tür Description
str

Kimlik.

pipeline_id

Zamanlamanın gönderdiği işlem hattının kimliğini alın.

Döndürülenler

Tür Description
str

Kimlik.

polling_interval

Değiştirilen/eklenen bloblar için yoklama arasında dakika cinsinden ne kadar süre olduğunu öğrenin.

Döndürülenler

Tür Description
int

Yoklama aralığı.

recurrence

Zamanlama yinelenmesini alın.

Döndürülenler

Tür Description

Zamanlama yinelenme.

status

Zamanlamanın durumunu alın.

Döndürülenler

Tür Description
str

Zamanlamanın durumu.