Schedule Sınıf
İşlem hattının gönderildiği zamanlamayı tanımlar.
İşlem Hattı yayımlandıktan sonra, Belirli bir aralıkta veya Blob depolama konumunda değişiklikler algılandığında İşlem Hattını göndermek için bir Zamanlama kullanılabilir.
Zamanlama'yı başlatın.
- Devralma
-
builtins.objectSchedule
Oluşturucu
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Bu Schedule'ın ait olacağı çalışma alanı nesnesi. |
id
Gerekli
|
Zamanlamanın Kimliği. |
name
Gerekli
|
Zamanlama adı. |
description
Gerekli
|
Zamanlamanın açıklaması. |
pipeline_id
Gerekli
|
Zamanlamanın göndereceği işlem hattının kimliği. |
status
Gerekli
|
Zamanlamanın durumu: 'Etkin' veya 'Devre Dışı'. |
recurrence
Gerekli
|
İşlem hattı için zamanlama yinelenme. |
datastore_name
Gerekli
|
Değiştirilen/eklenen blobları izlemek için veri deposunun adı. Not: 1) VNET Veri Depoları desteklenmez. 2) Veri deposu için kimlik doğrulama türü "Hesap anahtarı" olarak ayarlanmalıdır. |
polling_interval
Gerekli
|
Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). |
data_path_parameter_name
Gerekli
|
Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. |
continue_on_step_failure
Gerekli
|
Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar. |
path_on_datastore
Gerekli
|
İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olacaktır. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore bir alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Zamanlama sağlayıcısı. Default value: None
|
workspace
Gerekli
|
Bu Schedule'ın ait olacağı çalışma alanı nesnesi. |
id
Gerekli
|
Zamanlamanın Kimliği. |
name
Gerekli
|
Zamanlama adı. |
description
Gerekli
|
Zamanlamanın açıklaması. |
pipeline_id
Gerekli
|
Zamanlamanın göndereceği işlem hattının kimliği. |
status
Gerekli
|
Zamanlamanın durumu: 'Etkin' veya 'Devre Dışı'. |
recurrence
Gerekli
|
İşlem hattının zamanlama yinelenme sayısı. |
datastore_name
Gerekli
|
Değiştirilen/eklenen blobları izlemek için veri deposunun adı. Not: VNET Veri Depoları desteklenmez. |
polling_interval
Gerekli
|
Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). |
data_path_parameter_name
Gerekli
|
Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. |
continue_on_step_failure
Gerekli
|
Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar. |
path_on_datastore
Gerekli
|
İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olacaktır. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore bir alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir. |
_schedule_provider
Gerekli
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Zamanlama sağlayıcısı. |
pipeline_endpoint_id
|
Zamanlamanın göndereceği işlem hattı uç noktasının kimliği. Default value: None
|
Açıklamalar
İki zamanlama türü desteklenir. İlki, belirli bir zamanlamaya göre işlem hattı göndermek için zaman yinelemesini kullanır. İkinci blob, eklenen veya değiştirilen blobları izler AzureBlobDatastore ve değişiklikler algılandığında bir İşlem Hattı gönderir.
Yinelenen bir zamanlamaya göre bir İşlem Hattı gönderecek bir Zamanlama oluşturmak için Zamanlamayı oluştururken öğesini ScheduleRecurrence kullanın.
Bir İşlem Hattı için Zamanlama oluşturulurken ScheduleRecurrence aşağıdaki gibi kullanılır:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Bu Zamanlama, sağlanan PublishedPipeline öğesini her 12 saatte bir gönderir. Gönderilen İşlem Hattı Deneme altında "helloworld" adıyla oluşturulur.
Blob depolama konumunda yapılan değişikliklerde PipelineRuns'u tetikleyecek bir Schedule oluşturmak için, Schedule'ı oluştururken veri deposu ve ilgili veri bilgilerini belirtin.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
polling_interval ve path_on_datastore parametrelerinin isteğe bağlı olduğunu unutmayın. polling_interval, Datastore'da yapılan değişiklikler için ne sıklıkta yoklama yapılacağını belirtir ve varsayılan olarak 5 dakikadır. path_on_datastore, Datastore'da hangi klasörün değişiklikleri izleyeceğini belirtmek için kullanılabilir. Hiçbiri ise, Datastore kapsayıcısı izlenir. Not: path_on_datastore veya Datastore kapsayıcısının alt klasörlerindeki blob eklemeleri/değişiklikleri (path_on_datastore belirtilmezse) algılanmaz.
Buna ek olarak, İşlem Hattı bir adım girişini açıklamak için kullanılacak DataPathPipelineParameter şekilde oluşturulduysa, Schedule tarafından bir PipelineRun gönderildiğinde değiştirilen dosyaya girişi ayarlamak için Datastore tarafından tetiklenen bir Zamanlama oluştururken data_path_parameter_name parametresini kullanın.
Aşağıdaki örnekte Schedule, PipelineRun'ı tetiklediğinde, "input_data" PipelineParameter değeri değiştirilen/eklenen dosya olarak ayarlanır:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Zamanlamalar hakkında daha fazla bilgi için bkz. https://aka.ms/pl-schedule.
Yöntemler
create |
İşlem hattı için zamanlama oluşturma. Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun. |
create_for_pipeline_endpoint |
İşlem hattı uç noktası için bir zamanlama oluşturun. Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun. |
disable |
Zamanlamayı 'Devre Dışı' olarak ayarlayın ve çalıştırılamıyor. |
enable |
Zamanlamayı 'Etkin' olarak ayarlayın ve çalıştırabilirsiniz. |
get |
Verilen kimlikle zamanlamayı alın. |
get_all |
Geçerli çalışma alanında tüm zamanlamaları alın. KULLANIMDAN KALDıRILDI: Bu yöntem yöntemin list lehine kullanım dışı bırakılıyor. |
get_last_pipeline_run |
Zamanlama tarafından gönderilen son işlem hattı çalıştırmasını getirin. Hiçbir çalıştırma gönderilmediyse Hiçbiri döndürür. |
get_pipeline_runs |
Zamanlamadan oluşturulan işlem hattı çalıştırmalarını getirin. |
get_schedules_for_pipeline_endpoint_id |
Verilen işlem hattı uç noktası kimliği için tüm zamanlamaları alın. |
get_schedules_for_pipeline_id |
Belirtilen işlem hattı kimliği için tüm zamanlamaları alın. |
list |
Geçerli çalışma alanında tüm zamanlamaları alın. |
load_yaml |
Zamanlama parametrelerini almak için YAML dosyasını yükleyin ve okuyun. YAML dosyası, zamanlama oluşturmak için Schedule parametrelerini geçirmenin bir diğer yoludur. |
update |
Zamanlamayı güncelleştirin. |
create
İşlem hattı için zamanlama oluşturma.
Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Bu Schedule'ın ait olacağı çalışma alanı nesnesi. |
name
Gerekli
|
Zamanlama adı. |
pipeline_id
Gerekli
|
Zamanlamanın göndereceği işlem hattının kimliği. |
experiment_name
Gerekli
|
Zamanlamanın göndereceği denemenin adı üzerinde çalışır. |
recurrence
|
İşlem hattının zamanlama yinelenme sayısı. Default value: None
|
description
|
Zamanlamanın açıklaması. Default value: None
|
pipeline_parameters
|
{param name, param value} yeni değerleri atamak için parametre sözlüğü Default value: None
|
wait_for_provisioning
|
Zamanlamanın sağlanmasının tamamlanmasının beklenip beklenmeyeceği. Default value: False
|
wait_timeout
|
Zaman aşımına uğramadan önce bek için saniye sayısı. Default value: 3600
|
datastore
|
Değiştirilen/eklenen blobları izlemek için Veri Deposu. Not: VNET Veri Depoları desteklenmez. Yinelenme ile kullanılamaz. Default value: None
|
polling_interval
|
Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). Varsayılan değer 5 dakikadır. Yalnızca DataStore zamanlamaları için desteklenir. Default value: 5
|
data_path_parameter_name
|
Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. Yalnızca DataStore zamanlamaları için desteklenir. Default value: None
|
continue_on_step_failure
|
Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar. Default value: None
|
path_on_datastore
|
İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olur. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
Oluşturulan zamanlama. |
create_for_pipeline_endpoint
İşlem hattı uç noktası için bir zamanlama oluşturun.
Zamana bağlı bir zamanlama için yinelenme belirtin veya Datastore'u belirtin, (isteğe bağlı) polling_interval ve (isteğe bağlı) data_path_parameter_name datastore konumunu değişiklikler/eklemeler için izleyecek bir zamanlama oluşturun.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Bu Zamanlamanın ait olacağı çalışma alanı nesnesi. |
name
Gerekli
|
Zamanlamanın adı. |
pipeline_endpoint_id
Gerekli
|
Zamanlamanın göndereceği işlem hattı uç noktasının kimliği. |
experiment_name
Gerekli
|
Zamanlamanın göndereceği denemenin adı çalıştırmaları gönderir. |
recurrence
|
İşlem hattının zamanlama yinelenme sayısı. Default value: None
|
description
|
Zamanlamanın açıklaması. Default value: None
|
pipeline_parameters
|
Yeni değerler atamak için parametre sözlüğü {param name, param value} Default value: None
|
wait_for_provisioning
|
Zamanlamanın sağlanmasının tamamlanıp beklenmeyeceği. Default value: False
|
wait_timeout
|
Zaman aşımına uğramadan önce bekliyecek saniye sayısı. Default value: 3600
|
datastore
|
Değiştirilen/eklenen blobları izlemek için Veri Deposu. Not: VNET Veri Depoları desteklenmez. Yinelenme ile kullanılamaz. Default value: None
|
polling_interval
|
Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). Varsayılan değer 5 dakikadır. Yalnızca DataStore zamanlamaları için desteklenir. Default value: 5
|
data_path_parameter_name
|
Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. Yalnızca DataStore zamanlamaları için desteklenir. Default value: None
|
continue_on_step_failure
|
Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar. Default value: None
|
path_on_datastore
|
İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olur. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
Oluşturulan zamanlama. |
disable
Zamanlamayı 'Devre Dışı' olarak ayarlayın ve çalıştırılamıyor.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parametreler
Name | Description |
---|---|
wait_for_provisioning
|
Zamanlamanın sağlanmasının tamamlanıp beklenmeyeceği. Default value: False
|
wait_timeout
|
Zaman aşımına uğramadan önce bekliyecek saniye sayısı. Default value: 3600
|
enable
Zamanlamayı 'Etkin' olarak ayarlayın ve çalıştırabilirsiniz.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parametreler
Name | Description |
---|---|
wait_for_provisioning
|
Zamanlamanın sağlanmasının tamamlanıp beklenmeyeceği. Default value: False
|
wait_timeout
|
Zaman aşımına uğramadan önce bekliyecek saniye sayısı. Default value: 3600
|
get
Verilen kimlikle zamanlamayı alın.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Zamanlamanın oluşturulduğu çalışma alanı. |
id
Gerekli
|
Zamanlamanın kimliği. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
Zamanlama nesnesi |
get_all
Geçerli çalışma alanında tüm zamanlamaları alın.
KULLANIMDAN KALDıRILDI: Bu yöntem yöntemin list lehine kullanım dışı bırakılıyor.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Çalışma alanı. |
active_only
|
True ise, yalnızca şu anda etkin olan dönüş zamanlamaları. Yalnızca işlem hattı kimliği sağlanmazsa geçerlidir. Default value: True
|
pipeline_id
|
Sağlanırsa, yalnızca verilen kimlikle işlem hattı için zamanlamaları döndürür. Default value: None
|
pipeline_endpoint_id
|
Sağlanırsa, yalnızca verilen kimlikle işlem hattı uç noktası için zamanlamaları döndürür. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
listesi Schedule. |
get_last_pipeline_run
Zamanlama tarafından gönderilen son işlem hattı çalıştırmasını getirin. Hiçbir çalıştırma gönderilmediyse Hiçbiri döndürür.
get_last_pipeline_run()
Döndürülenler
Tür | Description |
---|---|
Son işlem hattı çalıştırması. |
get_pipeline_runs
Zamanlamadan oluşturulan işlem hattı çalıştırmalarını getirin.
get_pipeline_runs()
Döndürülenler
Tür | Description |
---|---|
listesi PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Verilen işlem hattı uç noktası kimliği için tüm zamanlamaları alın.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Çalışma alanı. |
pipeline_endpoint_id
Gerekli
|
İşlem hattı uç noktası kimliği. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
listesi Schedule. |
get_schedules_for_pipeline_id
Belirtilen işlem hattı kimliği için tüm zamanlamaları alın.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Çalışma alanı. |
pipeline_id
Gerekli
|
İşlem hattı kimliği. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
listesi Schedule. |
list
Geçerli çalışma alanında tüm zamanlamaları alın.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Çalışma alanı. |
active_only
|
True ise, yalnızca şu anda etkin olan dönüş zamanlamaları. Yalnızca işlem hattı kimliği sağlanmazsa geçerlidir. Default value: True
|
pipeline_id
|
Sağlanırsa, yalnızca verilen kimlikle işlem hattı için zamanlamaları döndürür. Default value: None
|
pipeline_endpoint_id
|
Sağlanırsa, yalnızca verilen kimlikle işlem hattı uç noktası için zamanlamaları döndürür. Default value: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
listesi Schedule. |
load_yaml
Zamanlama parametrelerini almak için YAML dosyasını yükleyin ve okuyun.
YAML dosyası, zamanlama oluşturmak için Schedule parametrelerini geçirmenin bir diğer yoludur.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parametreler
Name | Description |
---|---|
workspace
Gerekli
|
Çalışma alanı. |
filename
Gerekli
|
Konumlu YAML dosya adı. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
İş akışı sağlayıcısı. Default value: None
|
_service_endpoint
|
Hizmet uç noktası. Default value: None
|
Döndürülenler
Tür | Description |
---|---|
Parametre ve değer sözlüğü Schedule . |
Açıklamalar
Zamanlamalar için iki tür YAML desteklenir. İlk, işlem hattını tetikleme amacıyla oluşturma zamanlaması için yinelenme bilgilerini okur ve yükler. İkincisi, işlem hattını tetikleme amacıyla oluşturma zamanlaması için veri deposu bilgilerini okur ve yükler.
Aşağıda gösterildiği gibi yinelenme durumunda bir İşlem Hattı gönderecek bir Zamanlama oluşturma örneği:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Örnek YAML dosyası test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Aşağıda gösterildiği gibi bir veri deposunda İşlem Hattı gönderecek bir Zamanlama oluşturma örneği:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Zamanlamayı güncelleştirin.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parametreler
Name | Description |
---|---|
name
|
Zamanlama'nın yeni adı. Default value: None
|
recurrence
|
İşlem hattının yeni zamanlama yinelenme sayısı. Default value: None
|
description
|
Zamanlamanın yeni açıklaması. Default value: None
|
pipeline_parameters
|
{param name, param value} yeni değerleri atamak için parametre sözlüğü. Default value: None
|
status
|
Zamanlamanın yeni durumu: 'Etkin' veya 'Devre Dışı'. Default value: None
|
wait_for_provisioning
|
Zamanlamanın sağlanmasının tamamlanmasının beklenip beklenmeyeceği. Default value: False
|
wait_timeout
|
Zaman aşımına uğramadan önce bek için saniye sayısı. Default value: 3600
|
datastore
|
Değiştirilen/eklenen blobları izlemek için Veri Deposu. Not: VNET Veri Depoları desteklenmez. Default value: None
|
polling_interval
|
Değiştirilen/eklenen bloblar için yoklama arasındaki süre (dakika cinsinden). Varsayılan değer 5 dakikadır. Default value: None
|
data_path_parameter_name
|
Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adı. Default value: None
|
continue_on_step_failure
|
Bir adım başarısız olursa gönderilen PipelineRun içindeki diğer adımların yürütülmesine devam edilip edilmeyeceği. Sağlanırsa, bu işlem hattı için continue_on_step_failure ayarını geçersiz kılar. Default value: None
|
path_on_datastore
|
İsteğe bağlı. Değiştirilen/eklenen blobları izlemek için veri deposundaki yol. Not: path_on_datastore veri deposu kapsayıcısının altında yer alır, bu nedenle zamanlamanın izleyeceği gerçek yol kapsayıcı/path_on_datastore olacaktır. Yoksa, veri deposu kapsayıcısı izlenir. path_on_datastore bir alt klasöründe yapılan eklemeler/değişiklikler izlenmez. Yalnızca DataStore zamanlamaları için desteklenir. Default value: None
|
Öznitelikler
continue_on_step_failure
Ayarın continue_on_step_failure
değerini alın.
Döndürülenler
Tür | Description |
---|---|
Ayarın |
data_path_parameter_name
Değiştirilen blob yolu ile ayarlanacağı veri yolu işlem hattı parametresinin adını alın.
Döndürülenler
Tür | Description |
---|---|
Veri yolu parametre adı. |
datastore_name
Zamanlama için kullanılan Veri deposunun adını alın.
Döndürülenler
Tür | Description |
---|---|
Datastore adı. |
description
id
name
path_on_datastore
Zamanlamanın izlediği veri deposundaki yolu alın.
Döndürülenler
Tür | Description |
---|---|
Veri deposundaki yol. |
pipeline_endpoint_id
Zamanlamanın gönderdiği işlem hattı uç noktasının kimliğini alın.
Döndürülenler
Tür | Description |
---|---|
Kimlik. |
pipeline_id
polling_interval
Değiştirilen/eklenen bloblar için yoklama arasında dakika cinsinden ne kadar süre olduğunu öğrenin.
Döndürülenler
Tür | Description |
---|---|
Yoklama aralığı. |