Udostępnij za pośrednictwem


Schedule Klasa

Definiuje harmonogram przesyłania potoku.

Po opublikowaniu potoku harmonogram może służyć do przesyłania potoku w określonym interwale lub w przypadku wykrycia zmian w lokalizacji magazynu obiektów blob.

Zainicjuj harmonogram.

Dziedziczenie
builtins.object
Schedule

Konstruktor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram.

id
Wymagane
str

Identyfikator harmonogramu.

name
Wymagane
str

Nazwa harmonogramu.

description
Wymagane
str

Opis harmonogramu.

pipeline_id
Wymagane
str

Identyfikator potoku, który zostanie przesłany.

status
Wymagane
str

Stan harmonogramu, "Aktywny" lub "Wyłączony".

recurrence
Wymagane

Cykl harmonogramu dla potoku.

datastore_name
Wymagane
str

Nazwa magazynu danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: 1) Magazyny danych sieci wirtualnej nie są obsługiwane. 2) Typ uwierzytelniania dla magazynu danych powinien być ustawiony na "Klucz konta".

polling_interval
Wymagane
int

Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob.

data_path_parameter_name
Wymagane
str

Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob.

continue_on_step_failure
Wymagane

Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku.

path_on_datastore
Wymagane
str

Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Dostawca harmonogramu.

Domyślna wartość: None
workspace
Wymagane

Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram.

id
Wymagane
str

Identyfikator harmonogramu.

name
Wymagane
str

Nazwa harmonogramu.

description
Wymagane
str

Opis harmonogramu.

pipeline_id
Wymagane
str

Identyfikator potoku, który zostanie przesłany.

status
Wymagane
str

Stan harmonogramu, "Aktywny" lub "Wyłączony".

recurrence
Wymagane

Cykl harmonogramu potoku.

datastore_name
Wymagane
str

Nazwa magazynu danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane.

polling_interval
Wymagane
int

Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob.

data_path_parameter_name
Wymagane
str

Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob.

continue_on_step_failure
Wymagane

Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku.

path_on_datastore
Wymagane
str

Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

_schedule_provider
Wymagane
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Dostawca harmonogramu.

pipeline_endpoint_id
str

Identyfikator punktu końcowego potoku, który zostanie przesłany.

Domyślna wartość: None

Uwagi

Obsługiwane są dwa typy harmonogramów. Pierwszy używa cyklu czasu do przesłania potoku zgodnie z danym harmonogramem. Drugi monitoruje AzureBlobDatastore obiekt dla dodanych lub zmodyfikowanych obiektów blob i przesyła potok po wykryciu zmian.

Aby utworzyć harmonogram, który będzie przesyłać potok zgodnie z harmonogramem cyklicznym, użyj elementu ScheduleRecurrence podczas tworzenia harmonogramu.

Funkcja ScheduleRecurrence jest używana podczas tworzenia harmonogramu dla potoku w następujący sposób:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Ten harmonogram będzie przesyłany co PublishedPipeline 12 godzin. Przesłany potok zostanie utworzony w obszarze Eksperyment o nazwie "helloworld".

Aby utworzyć harmonogram, który spowoduje wyzwolenie elementu PipelineRuns w przypadku modyfikacji lokalizacji magazynu obiektów blob, określ magazyn danych i powiązane informacje o danych podczas tworzenia harmonogramu.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Należy pamiętać, że parametry polling_interval i path_on_datastore są opcjonalne. Polling_interval określa, jak często sondować pod kątem modyfikacji magazynu danych, a domyślnie jest to 5 minut. path_on_datastore można użyć do określenia folderu w magazynie danych, który ma być monitorowany pod kątem zmian. Jeśli brak, kontener magazynu danych jest monitorowany. Uwaga: dodatki/modyfikacje obiektów blob w podfolderach path_on_datastore lub kontenera magazynu danych (jeśli nie określono path_on_datastore) nie zostaną wykryte.

Ponadto, jeśli potok został skonstruowany w celu DataPathPipelineParameter opisania danych wejściowych kroku, użyj parametru data_path_parameter_name podczas tworzenia harmonogramu wyzwalanego przez magazyn danych, aby ustawić dane wejściowe na zmieniony plik po przesłaniu potoku zgodnie z harmonogramem.

W poniższym przykładzie, gdy harmonogram wyzwoli element PipelineRun, wartość parametru PipelineParameter "input_data" zostanie ustawiona jako plik, który został zmodyfikowany/dodany:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Aby uzyskać więcej informacji na temat harmonogramów, zobacz: https://aka.ms/pl-schedule.

Metody

create

Utwórz harmonogram dla potoku.

Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania.

create_for_pipeline_endpoint

Utwórz harmonogram dla punktu końcowego potoku.

Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania.

disable

Ustaw harmonogram na wartość "Wyłączone" i jest niedostępny do uruchomienia.

enable

Ustaw harmonogram na "Aktywny" i dostępny do uruchomienia.

get

Pobierz harmonogram z danym identyfikatorem.

get_all

Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym.

PRZESTARZAŁE: Ta metoda jest przestarzała na rzecz list metody .

get_last_pipeline_run

Pobierz ostatnie uruchomienie potoku przesłane zgodnie z harmonogramem. Zwraca wartość Brak, jeśli nie przesłano żadnych przebiegów.

get_pipeline_runs

Pobierz uruchomienia potoku wygenerowane na podstawie harmonogramu.

get_schedules_for_pipeline_endpoint_id

Pobierz wszystkie harmonogramy dla danego identyfikatora punktu końcowego potoku.

get_schedules_for_pipeline_id

Pobierz wszystkie harmonogramy dla danego identyfikatora potoku.

list

Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym.

load_yaml

Załaduj i odczytaj plik YAML, aby uzyskać parametry harmonogramu.

Plik YAML to jeszcze jeden sposób przekazywania parametrów harmonogramu w celu utworzenia harmonogramu.

update

Zaktualizuj harmonogram.

create

Utwórz harmonogram dla potoku.

Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram.

name
Wymagane
str

Nazwa harmonogramu.

pipeline_id
Wymagane
str

Identyfikator potoku, który zostanie przesłany.

experiment_name
Wymagane
str

Nazwa eksperymentu, na który zostanie przesłany harmonogram.

recurrence

Cykl harmonogramu potoku.

Domyślna wartość: None
description
str

Opis harmonogramu.

Domyślna wartość: None
pipeline_parameters

Słownik parametrów do przypisywania nowych wartości {param name, param value}

Domyślna wartość: None
wait_for_provisioning

Czy poczekać na ukończenie aprowizacji harmonogramu.

Domyślna wartość: False
wait_timeout
int

Liczba sekund oczekiwania przed przekroczeniem limitu czasu.

Domyślna wartość: 3600
datastore

Magazyn danych do monitorowania pod kątem zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane. Nie można używać z cyklem.

Domyślna wartość: None
polling_interval
int

Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob. Wartość domyślna to 5 minut. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: 5
data_path_parameter_name
str

Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: None
continue_on_step_failure

Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku.

Domyślna wartość: None
path_on_datastore
str

Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Utworzony harmonogram.

create_for_pipeline_endpoint

Utwórz harmonogram dla punktu końcowego potoku.

Określ cykl dla harmonogramu opartego na czasie lub określ magazyn danych, (opcjonalnie) polling_interval i (opcjonalnie) data_path_parameter_name, aby utworzyć harmonogram, który będzie monitorować lokalizację magazynu danych pod kątem modyfikacji/dodawania.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obiekt obszaru roboczego, do którego będzie należeć ten harmonogram.

name
Wymagane
str

Nazwa harmonogramu.

pipeline_endpoint_id
Wymagane
str

Identyfikator punktu końcowego potoku, który zostanie przesłany.

experiment_name
Wymagane
str

Nazwa eksperymentu, na który zostanie przesłany harmonogram.

recurrence

Cykl harmonogramu potoku.

Domyślna wartość: None
description
str

Opis harmonogramu.

Domyślna wartość: None
pipeline_parameters

Słownik parametrów do przypisywania nowych wartości {param name, param value}

Domyślna wartość: None
wait_for_provisioning

Czy poczekać na ukończenie aprowizacji harmonogramu.

Domyślna wartość: False
wait_timeout
int

Liczba sekund oczekiwania przed przekroczeniem limitu czasu.

Domyślna wartość: 3600
datastore

Magazyn danych do monitorowania pod kątem zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane. Nie można używać z cyklem.

Domyślna wartość: None
polling_interval
int

Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob. Wartość domyślna to 5 minut. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: 5
data_path_parameter_name
str

Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: None
continue_on_step_failure

Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku.

Domyślna wartość: None
path_on_datastore
str

Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Utworzony harmonogram.

disable

Ustaw harmonogram na wartość "Wyłączone" i jest niedostępny do uruchomienia.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parametry

Nazwa Opis
wait_for_provisioning

Czy poczekać na ukończenie aprowizacji harmonogramu.

Domyślna wartość: False
wait_timeout
int

Liczba sekund oczekiwania przed przekroczeniem limitu czasu.

Domyślna wartość: 3600

enable

Ustaw harmonogram na "Aktywny" i dostępny do uruchomienia.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parametry

Nazwa Opis
wait_for_provisioning

Czy poczekać na ukończenie aprowizacji harmonogramu.

Domyślna wartość: False
wait_timeout
int

Liczba sekund oczekiwania przed przekroczeniem limitu czasu.

Domyślna wartość: 3600

get

Pobierz harmonogram z danym identyfikatorem.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obszar roboczy, w ramach którego został utworzony harmonogram.

id
Wymagane
str

Identyfikator harmonogramu.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Obiekt harmonogramu

get_all

Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym.

PRZESTARZAŁE: Ta metoda jest przestarzała na rzecz list metody .

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obszar roboczy.

active_only

Jeśli wartość true, zwraca tylko harmonogramy, które są obecnie aktywne. Ma zastosowanie tylko wtedy, gdy nie podano identyfikatora potoku.

Domyślna wartość: True
pipeline_id
str

Jeśli zostanie podana, zwracaj tylko harmonogramy dla potoku z danym identyfikatorem.

Domyślna wartość: None
pipeline_endpoint_id
str

Jeśli zostanie podana, zwracaj tylko harmonogramy dla punktu końcowego potoku z danym identyfikatorem.

Domyślna wartość: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Lista .Schedule

get_last_pipeline_run

Pobierz ostatnie uruchomienie potoku przesłane zgodnie z harmonogramem. Zwraca wartość Brak, jeśli nie przesłano żadnych przebiegów.

get_last_pipeline_run()

Zwraca

Typ Opis

Ostatnie uruchomienie potoku.

get_pipeline_runs

Pobierz uruchomienia potoku wygenerowane na podstawie harmonogramu.

get_pipeline_runs()

Zwraca

Typ Opis

Lista .PipelineRun

get_schedules_for_pipeline_endpoint_id

Pobierz wszystkie harmonogramy dla danego identyfikatora punktu końcowego potoku.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obszar roboczy.

pipeline_endpoint_id
Wymagane
str

Identyfikator punktu końcowego potoku.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Lista .Schedule

get_schedules_for_pipeline_id

Pobierz wszystkie harmonogramy dla danego identyfikatora potoku.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obszar roboczy.

pipeline_id
Wymagane
str

Identyfikator potoku.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Lista .Schedule

list

Pobierz wszystkie harmonogramy w bieżącym obszarze roboczym.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obszar roboczy.

active_only

Jeśli wartość true, zwraca tylko harmonogramy, które są obecnie aktywne. Ma zastosowanie tylko wtedy, gdy nie podano identyfikatora potoku.

Domyślna wartość: True
pipeline_id
str

Jeśli zostanie podana, zwracaj tylko harmonogramy dla potoku z danym identyfikatorem.

Domyślna wartość: None
pipeline_endpoint_id
str

Jeśli zostanie podana, zwracaj tylko harmonogramy dla punktu końcowego potoku z danym identyfikatorem.

Domyślna wartość: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Lista .Schedule

load_yaml

Załaduj i odczytaj plik YAML, aby uzyskać parametry harmonogramu.

Plik YAML to jeszcze jeden sposób przekazywania parametrów harmonogramu w celu utworzenia harmonogramu.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parametry

Nazwa Opis
workspace
Wymagane

Obszar roboczy.

filename
Wymagane
str

Nazwa pliku YAML z lokalizacją.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Dostawca przepływu pracy.

Domyślna wartość: None
_service_endpoint
str

Punkt końcowy usługi.

Domyślna wartość: None

Zwraca

Typ Opis

Słownik parametrów Schedule i wartości.

Uwagi

W przypadku harmonogramów obsługiwane są dwa typy YAML. Pierwsze operacje odczytu i ładowania informacji o cyklu dla harmonogramu tworzenia w celu wyzwolenia potoku. Drugi odczytuje i ładuje informacje magazynu danych na potrzeby tworzenia harmonogramu w celu wyzwolenia potoku.

Przykład tworzenia harmonogramu, który będzie przesyłał potok w ramach cyklu w następujący sposób:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Przykładowy plik YAML test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Przykład tworzenia harmonogramu, który będzie przesyłać potok w magazynie danych w następujący sposób:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Zaktualizuj harmonogram.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parametry

Nazwa Opis
name
str

Nowa nazwa harmonogramu.

Domyślna wartość: None
recurrence

Nowy harmonogram cyklu potoku.

Domyślna wartość: None
description
str

Nowy opis harmonogramu.

Domyślna wartość: None
pipeline_parameters

Słownik parametrów do przypisywania nowych wartości {param name, param value}.

Domyślna wartość: None
status
str

Nowy stan harmonogramu: "Aktywne" lub "Wyłączone".

Domyślna wartość: None
wait_for_provisioning

Czy poczekać na ukończenie aprowizacji harmonogramu.

Domyślna wartość: False
wait_timeout
int

Liczba sekund oczekiwania przed przekroczeniem limitu czasu.

Domyślna wartość: 3600
datastore

Magazyn danych do monitorowania pod kątem zmodyfikowanych/dodanych obiektów blob. Uwaga: magazyny danych sieci wirtualnej nie są obsługiwane.

Domyślna wartość: None
polling_interval
int

Jak długo, w minutach, między sondowaniem pod kątem zmodyfikowanych/dodanych obiektów blob. Wartość domyślna to 5 minut.

Domyślna wartość: None
data_path_parameter_name
str

Nazwa parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob.

Domyślna wartość: None
continue_on_step_failure

Czy kontynuować wykonywanie innych kroków w przesłanym potokuUruchom, jeśli krok zakończy się niepowodzeniem. Jeśli zostanie podana wartość , spowoduje to zastąpienie ustawienia continue_on_step_failure dla potoku.

Domyślna wartość: None
path_on_datastore
str

Opcjonalny. Ścieżka w magazynie danych do monitorowania zmodyfikowanych/dodanych obiektów blob. Uwaga: path_on_datastore będzie znajdować się w kontenerze dla magazynu danych, więc rzeczywista ścieżka, którą będzie monitorować harmonogram, będzie kontenerem/path_on_datastore. Jeśli nie, kontener magazynu danych jest monitorowany. Dodatki/modyfikacje wprowadzone w podfolderze path_on_datastore nie są monitorowane. Obsługiwane tylko w przypadku harmonogramów magazynu danych.

Domyślna wartość: None

Atrybuty

continue_on_step_failure

Pobierz wartość continue_on_step_failure ustawienia.

Zwraca

Typ Opis

Wartość continue_on_step_failure ustawienia

data_path_parameter_name

Pobierz nazwę parametru potoku ścieżki danych do ustawienia ze zmienioną ścieżką obiektu blob.

Zwraca

Typ Opis
str

Nazwa parametru ścieżki danych.

datastore_name

Pobierz nazwę magazynu danych używanego dla harmonogramu.

Zwraca

Typ Opis
str

Nazwa magazynu danych.

description

Pobierz opis harmonogramu.

Zwraca

Typ Opis
str

Opis harmonogramu.

id

Pobierz identyfikator harmonogramu.

Zwraca

Typ Opis
str

Identyfikator.

name

Pobierz nazwę harmonogramu.

Zwraca

Typ Opis
str

Nazwa.

path_on_datastore

Pobierz ścieżkę do magazynu danych, który monitoruje harmonogram.

Zwraca

Typ Opis
str

Ścieżka w magazynie danych.

pipeline_endpoint_id

Pobierz identyfikator punktu końcowego potoku, który przesyła harmonogram.

Zwraca

Typ Opis
str

Identyfikator.

pipeline_id

Pobierz identyfikator potoku, który przesyła harmonogram.

Zwraca

Typ Opis
str

Identyfikator.

polling_interval

Uzyskaj czas między sondowaniem zmodyfikowanych/dodanych obiektów blob w minutach.

Zwraca

Typ Opis
int

Interwał sondowania.

recurrence

Pobierz cykl harmonogramu.

Zwraca

Typ Opis

Cykl harmonogramu.

status

Pobierz stan harmonogramu.

Zwraca

Typ Opis
str

Stan harmonogramu.