Freigeben über


Schedule Klasse

Definiert einen Zeitplan, nach dem eine Pipeline übermittelt werden soll.

Nachdem eine Pipeline veröffentlicht wurde, kann ein Zeitplan verwendet werden, um die Pipeline in einem angegebenen Intervall oder wenn Änderungen an einem Blobspeicherort erkannt werden zu übermitteln.

Initialisieren Sie Zeitplan.

Vererbung
builtins.object
Schedule

Konstruktor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

id
Erforderlich
str

Die ID des Zeitplans.

name
Erforderlich
str

Der Name des Zeitplans.

description
Erforderlich
str

Die Beschreibung des Zeitplans.

pipeline_id
Erforderlich
str

Die ID der Pipeline, die vom Zeitplan übermittelt wird.

status
Erforderlich
str

Der Status des Zeitplans, entweder „Active“ oder „Disabled“.

recurrence
Erforderlich

Die Zeitplanserie für die Pipeline.

datastore_name
Erforderlich
str

Der Name des Datenspeichers, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: 1) VNET-Datenspeicher werden nicht unterstützt. 2) Der Authentifizierungstyp für den Datenspeicher sollte auf "Kontoschlüssel" festgelegt werden.

polling_interval
Erforderlich
int

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll.

data_path_parameter_name
Erforderlich
str

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll.

continue_on_step_failure
Erforderlich

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
Erforderlich
str

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Der Zeitplananbieter.

Standardwert: None
workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

id
Erforderlich
str

Die ID des Zeitplans.

name
Erforderlich
str

Der Name des Zeitplans.

description
Erforderlich
str

Die Beschreibung des Zeitplans.

pipeline_id
Erforderlich
str

Die ID der Pipeline, die vom Zeitplan übermittelt wird.

status
Erforderlich
str

Der Status des Zeitplans, entweder „Active“ oder „Disabled“.

recurrence
Erforderlich

Die Zeitplanwiederholung der Pipeline.

datastore_name
Erforderlich
str

Der Name des Datenspeichers, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt.

polling_interval
Erforderlich
int

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll.

data_path_parameter_name
Erforderlich
str

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll.

continue_on_step_failure
Erforderlich

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
Erforderlich
str

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

_schedule_provider
Erforderlich
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Der Zeitplananbieter.

pipeline_endpoint_id
str

Die ID des Pipelineendpunkts, der vom Zeitplan übermittelt wird.

Standardwert: None

Hinweise

Es werden zwei Arten von Zeitplänen unterstützt. Die erste verwendet die Zeitserie, um eine Pipeline nach einem bestimmten Zeitplan zu übermitteln. Der zweite überwacht einen AzureBlobDatastore auf hinzugefügte oder geänderte Blobs und übermittelt eine Pipeline, wenn Änderungen erkannt werden.

Um einen Zeitplan zu erstellen, der eine Pipeline nach einem wiederkehrenden Zeitplan übermittelt, verwenden Sie ScheduleRecurrence beim Erstellen des Zeitplans.

Beim Erstellen eines Zeitplans für eine Pipeline wird ScheduleRecurrence wie folgt verwendet:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Dieser Zeitplan übermittelt die bereitgestellte PublishedPipeline alle 12 Stunden. Die übermittelte Pipeline wird unter dem Experiment mit dem Namen „helloworld“ erstellt.

Um einen Zeitplan zu erstellen, der PipelineRuns bei Änderungen an einem Blobspeicherort auslöst, geben Sie bei der Erstellung des Zeitplans einen Datenspeicher und die zugehörigen Dateninformationen an.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Beachten Sie, dass die Parameter polling_interval und path_on_datastore optional sind. Das polling_interval gibt an, wie oft der Datenspeicher auf Änderungen abgefragt werden soll, und beträgt standardmäßig 5 Minuten. path_on_datastore kann verwendet werden, um anzugeben, welcher Ordner im Datenspeicher auf Änderungen überwacht werden soll. Bei „None“ wird der Datenspeichercontainer überwacht. Hinweis: Ergänzungen/Änderungen an Blobs in Unterordnern von path_on_datastore oder im Datenspeichercontainer (wenn path_on_datastore nicht angegeben ist) werden nicht erkannt.

Wenn die Pipeline so konstruiert wurde, dass sie einen DataPathPipelineParameter verwendet, um Schritteingaben zu beschreiben, verwenden Sie außerdem den Parameter data_path_parameter_name, wenn Sie einen von einem Datenspeicher ausgelösten Zeitplan erstellen, um die Eingabe auf die geänderte Datei festzulegen, wenn vom Zeitplan eine PipelineRun übermittelt wird.

Wenn im folgenden Beispiel der Zeitplan die PipelineRun auslöst, wird der Wert des Pipelineparameters input_data auf die Datei festgelegt, die geändert/hinzugefügt wurde:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Weitere Informationen zu Zeitplänen finden Sie unter https://aka.ms/pl-schedule.

Methoden

create

Erstellt einen Zeitplan für eine Pipeline.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

create_for_pipeline_endpoint

Erstellt einen Zeitplan für einen Pipelineendpunkt.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

disable

Festlegen des Zeitplans auf „Deaktiviert“, sodass er nicht zur Ausführung verfügbar ist.

enable

Festlegen des Zeitplans auf „Aktiv“, sodass er zur Ausführung verfügbar ist.

get

Ruft den Zeitplan mit der angegebenen ID ab.

get_all

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

VERALTET: Diese Methode ist veraltet und wurde durch die list-Methode ersetzt.

get_last_pipeline_run

Ruft die letzte Pipelineausführung ab, die vom Zeitplan übermittelt wurde. Gibt „None“ zurück, wenn keine Ausführungen übermittelt wurden.

get_pipeline_runs

Ruft die Pipelineausführungen ab, die vom Zeitplan generiert wurden.

get_schedules_for_pipeline_endpoint_id

Ruft alle Zeitpläne für die angegebene Pipelineendpunkt-ID ab.

get_schedules_for_pipeline_id

Ruft alle Zeitpläne für die angegebene Pipeline-ID ab.

list

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

load_yaml

Lädt und liest die YAML-Datei, um Zeitplanparameter abzurufen.

Die YAML-Datei bietet eine weitere Möglichkeit, Zeitplanparameter zum Erstellen eines Zeitplans zu übergeben.

update

Aktualisieren des Zeitplans.

create

Erstellt einen Zeitplan für eine Pipeline.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

name
Erforderlich
str

Der Name des Zeitplans.

pipeline_id
Erforderlich
str

Die ID der Pipeline, die vom Zeitplan übermittelt wird.

experiment_name
Erforderlich
str

Der Name des Experiments, an das der Zeitplan Ausführungen übermittelt.

recurrence

Die Zeitplanwiederholung der Pipeline.

Standardwert: None
description
str

Die Beschreibung des Zeitplans.

Standardwert: None
pipeline_parameters

Ein Wörterbuch mit Parametern zum Zuweisen neuer Werte {Parametername, Parameterwert}

Standardwert: None
wait_for_provisioning

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

Standardwert: False
wait_timeout
int

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

Standardwert: 3600
datastore

Der Datenspeicher, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt. Kann nicht mit einer Serie verwendet werden.

Standardwert: None
polling_interval
int

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll. Die Standardeinstellung ist 5 Minuten. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: 5
data_path_parameter_name
str

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: None
continue_on_step_failure

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

Standardwert: None
path_on_datastore
str

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Der erstellte Zeitplan.

create_for_pipeline_endpoint

Erstellt einen Zeitplan für einen Pipelineendpunkt.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

name
Erforderlich
str

Der Name des Zeitplans.

pipeline_endpoint_id
Erforderlich
str

Die ID des Pipelineendpunkts, der vom Zeitplan übermittelt wird.

experiment_name
Erforderlich
str

Der Name des Experiments, an das der Zeitplan Ausführungen übermittelt.

recurrence

Die Zeitplanwiederholung der Pipeline.

Standardwert: None
description
str

Die Beschreibung des Zeitplans.

Standardwert: None
pipeline_parameters

Ein Wörterbuch mit Parametern zum Zuweisen neuer Werte {Parametername, Parameterwert}

Standardwert: None
wait_for_provisioning

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

Standardwert: False
wait_timeout
int

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

Standardwert: 3600
datastore

Der Datenspeicher, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt. Kann nicht mit einer Serie verwendet werden.

Standardwert: None
polling_interval
int

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll. Die Standardeinstellung ist 5 Minuten. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: 5
data_path_parameter_name
str

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: None
continue_on_step_failure

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

Standardwert: None
path_on_datastore
str

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Der erstellte Zeitplan.

disable

Festlegen des Zeitplans auf „Deaktiviert“, sodass er nicht zur Ausführung verfügbar ist.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parameter

Name Beschreibung
wait_for_provisioning

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

Standardwert: False
wait_timeout
int

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

Standardwert: 3600

enable

Festlegen des Zeitplans auf „Aktiv“, sodass er zur Ausführung verfügbar ist.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parameter

Name Beschreibung
wait_for_provisioning

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

Standardwert: False
wait_timeout
int

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

Standardwert: 3600

get

Ruft den Zeitplan mit der angegebenen ID ab.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich, in dem der Zeitplan erstellt wurde.

id
Erforderlich
str

ID des Zeitplans.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Zeitplanobjekt

get_all

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

VERALTET: Diese Methode ist veraltet und wurde durch die list-Methode ersetzt.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich.

active_only

Bei „True“ werden nur Zeitpläne zurückgegeben, die derzeit aktiv sind. Gilt nur, wenn keine Pipeline-ID angegeben wird.

Standardwert: True
pipeline_id
str

Bei einer Angabe werden nur Zeitpläne für die Pipeline mit der angegebenen ID zurückgegeben.

Standardwert: None
pipeline_endpoint_id
str

Bei einer Angabe werden nur Zeitpläne für den Pipelineendpunkt mit der angegebenen ID zurückgegeben.

Standardwert: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Eine Schedule-Liste.

get_last_pipeline_run

Ruft die letzte Pipelineausführung ab, die vom Zeitplan übermittelt wurde. Gibt „None“ zurück, wenn keine Ausführungen übermittelt wurden.

get_last_pipeline_run()

Gibt zurück

Typ Beschreibung

Die letzte Pipelineausführung.

get_pipeline_runs

Ruft die Pipelineausführungen ab, die vom Zeitplan generiert wurden.

get_pipeline_runs()

Gibt zurück

Typ Beschreibung

Eine PipelineRun-Liste.

get_schedules_for_pipeline_endpoint_id

Ruft alle Zeitpläne für die angegebene Pipelineendpunkt-ID ab.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich.

pipeline_endpoint_id
Erforderlich
str

Die ID des Pipelineendpunkts.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Eine Liste von Schedule.

get_schedules_for_pipeline_id

Ruft alle Zeitpläne für die angegebene Pipeline-ID ab.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich.

pipeline_id
Erforderlich
str

Die Pipeline-ID.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Eine Schedule-Liste.

list

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich.

active_only

Bei „True“ werden nur Zeitpläne zurückgegeben, die derzeit aktiv sind. Gilt nur, wenn keine Pipeline-ID angegeben wird.

Standardwert: True
pipeline_id
str

Bei einer Angabe werden nur Zeitpläne für die Pipeline mit der angegebenen ID zurückgegeben.

Standardwert: None
pipeline_endpoint_id
str

Bei einer Angabe werden nur Zeitpläne für den Pipelineendpunkt mit der angegebenen ID zurückgegeben.

Standardwert: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Eine Schedule-Liste.

load_yaml

Lädt und liest die YAML-Datei, um Zeitplanparameter abzurufen.

Die YAML-Datei bietet eine weitere Möglichkeit, Zeitplanparameter zum Erstellen eines Zeitplans zu übergeben.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parameter

Name Beschreibung
workspace
Erforderlich

Der Arbeitsbereich.

filename
Erforderlich
str

Der YAML-Dateiname mit Speicherort.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Der Workflowanbieter.

Standardwert: None
_service_endpoint
str

Der Dienstendpunkt.

Standardwert: None

Gibt zurück

Typ Beschreibung

Ein Wörterbuch mit Schedule-Parametern und Werten.

Hinweise

Für Zeitpläne werden zwei YAML-Typen unterstützt. Der erste liest und lädt Serieninformationen für die Zeitplanerstellung, um die Pipeline auszulösen. Der zweite liest und lädt Datenspeicherinformationen für die Zeitplanerstellung, um die Pipeline auszulösen.

Das folgende Beispiel zeigt das Erstellen eines Zeitplans, der eine Pipeline an eine Serie übermittelt:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

YAML-Beispieldatei „test_schedule_with_recurrence.yaml“:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Das folgende Beispiel zeigt das Erstellen eines Zeitplans, der eine Pipeline an einen Datenspeicher übermittelt:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Aktualisieren des Zeitplans.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parameter

Name Beschreibung
name
str

Der neue Name des Zeitplans.

Standardwert: None
recurrence

Die neue Zeitplanserie der Pipeline.

Standardwert: None
description
str

Die neue Beschreibung des Zeitplans.

Standardwert: None
pipeline_parameters

Ein Wörterbuch mit Parametern zum Zuweisen neuer Werte {Parametername, Parameterwert}.

Standardwert: None
status
str

Der neue Status des Zeitplans: „Aktiv“ oder „Deaktiviert“.

Standardwert: None
wait_for_provisioning

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

Standardwert: False
wait_timeout
int

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

Standardwert: 3600
datastore

Der Datenspeicher, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt.

Standardwert: None
polling_interval
int

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll. Die Standardeinstellung ist 5 Minuten.

Standardwert: None
data_path_parameter_name
str

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll.

Standardwert: None
continue_on_step_failure

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

Standardwert: None
path_on_datastore
str

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

Standardwert: None

Attribute

continue_on_step_failure

Abrufen des Werts der continue_on_step_failure-Einstellung.

Gibt zurück

Typ Beschreibung

Der Wert der continue_on_step_failure-Einstellung

data_path_parameter_name

Ruft den Namen des Pipelineparameters des Datenpfads ab, der mit dem geänderten Blobpfad festgelegt werden soll.

Gibt zurück

Typ Beschreibung
str

Der Name des Datenpfadparameters.

datastore_name

Ruft den Namen des für den Zeitplan verwendeten Datenspeichers.

Gibt zurück

Typ Beschreibung
str

Der Datenspeichername.

description

Ruft die Beschreibung des Zeitplans ab.

Gibt zurück

Typ Beschreibung
str

Die Beschreibung des Zeitplans.

id

Ruft die ID für den Zeitplan ab.

Gibt zurück

Typ Beschreibung
str

Die ID.

name

Ruft den Namen des Zeitplans ab.

Gibt zurück

Typ Beschreibung
str

Der Name.

path_on_datastore

Ruft den Pfad für den Datenspeicher ab, der vom Zeitplan überwacht wird.

Gibt zurück

Typ Beschreibung
str

Der Pfad zum Datenspeicher.

pipeline_endpoint_id

Ruft die ID des Pipelineendpunkts ab, der vom Zeitplan übermittelt wird.

Gibt zurück

Typ Beschreibung
str

Die ID.

pipeline_id

Ruft die ID der Pipeline ab, die vom Zeitplan übermittelt wird.

Gibt zurück

Typ Beschreibung
str

Die ID.

polling_interval

Ruft ab, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobs liegen soll.

Gibt zurück

Typ Beschreibung
int

Das Abrufintervall.

recurrence

Ruft die Zeitplanserie ab.

Gibt zurück

Typ Beschreibung

Die Zeitplanserie.

status

Ruft den Status des Zeitplans ab.

Gibt zurück

Typ Beschreibung
str

Der Status des Zeitplans.