Condividi tramite


Schedule Classe

Definisce una pianificazione in base alla quale inviare una pipeline.

Dopo la pubblicazione di una pipeline, è possibile usare una pianificazione per inviare la pipeline a un intervallo specificato o quando vengono rilevate modifiche a un percorso di archiviazione BLOB.

Inizializza pianificazione.

Ereditarietà
builtins.object
Schedule

Costruttore

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parametri

Nome Descrizione
workspace
Necessario

L'oggetto area di lavoro a cui appartiene questa pianificazione.

id
Necessario
str

ID della pianificazione.

name
Necessario
str

Nome della pianificazione.

description
Necessario
str

Descrizione della pianificazione.

pipeline_id
Necessario
str

ID della pipeline che verrà inviato dalla pianificazione.

status
Necessario
str

Stato della pianificazione, "Attivo" o "Disabilitato".

recurrence
Necessario

Ricorrenza della pianificazione per la pipeline.

datastore_name
Necessario
str

Nome dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: 1) Gli archivi dati della rete virtuale non sono supportati. 2) Il tipo di autenticazione per l'archivio dati deve essere impostato su "Chiave account".

polling_interval
Necessario
int

Tempo, espresso in minuti, tra il polling per i BLOB modificati/aggiunti.

data_path_parameter_name
Necessario
str

Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato.

continue_on_step_failure
Necessario

Indica se continuare l'esecuzione di altri passaggi in PipelineRun inviato se un passaggio ha esito negativo. Se specificato, verrà eseguito l'override dell'impostazione continue_on_step_failure per la pipeline.

path_on_datastore
Necessario
str

facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: il path_on_datastore si troverà nel contenitore per l'archivio dati, quindi il percorso effettivo che verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni dell'archivio dati.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Provider di pianificazione.

Valore predefinito: None
workspace
Necessario

L'oggetto area di lavoro a cui appartiene questa pianificazione.

id
Necessario
str

ID della pianificazione.

name
Necessario
str

Nome della pianificazione.

description
Necessario
str

Descrizione della pianificazione.

pipeline_id
Necessario
str

ID della pipeline che verrà inviato dalla pianificazione.

status
Necessario
str

Stato della pianificazione, "Attivo" o "Disabilitato".

recurrence
Necessario

Ricorrenza della pianificazione della pipeline.

datastore_name
Necessario
str

Nome dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati.

polling_interval
Necessario
int

Tempo, espresso in minuti, tra il polling per i BLOB modificati/aggiunti.

data_path_parameter_name
Necessario
str

Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato.

continue_on_step_failure
Necessario

Indica se continuare l'esecuzione di altri passaggi in PipelineRun inviato se un passaggio ha esito negativo. Se specificato, verrà eseguito l'override dell'impostazione continue_on_step_failure per la pipeline.

path_on_datastore
Necessario
str

facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: il path_on_datastore si troverà nel contenitore per l'archivio dati, quindi il percorso effettivo che verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni dell'archivio dati.

_schedule_provider
Necessario
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Provider di pianificazione.

pipeline_endpoint_id
str

ID dell'endpoint della pipeline che verrà inviato dalla pianificazione.

Valore predefinito: None

Commenti

Sono supportati due tipi di pianificazioni. La prima usa la ricorrenza dell'ora per inviare una pipeline in base a una pianificazione specifica. Il secondo monitora un AzureBlobDatastore oggetto per i BLOB aggiunti o modificati e invia una pipeline quando vengono rilevate modifiche.

Per creare una pianificazione che indicherà una pipeline in base a una pianificazione ricorrente, usare durante ScheduleRecurrence la creazione della pianificazione.

Quando si crea una pianificazione per una pipeline, si usa ScheduleRecurrence come indicato di seguito:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Questa pianificazione invia l'oggetto fornito PublishedPipeline ogni 12 ore. La pipeline inviata verrà creata nell'esperimento con il nome "helloworld".

Per creare una pianificazione che attiverà PipelineRuns sulle modifiche apportate a un percorso di archiviazione BLOB, specificare un archivio dati e informazioni sui dati correlati durante la creazione della pianificazione.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Si noti che i parametri polling_interval e path_on_datastore sono facoltativi. Il polling_interval specifica la frequenza con cui eseguire il polling delle modifiche apportate all'archivio dati e per impostazione predefinita è 5 minuti. path_on_datastore può essere usato per specificare la cartella nell'archivio dati per monitorare le modifiche. Se Nessuno, il contenitore archivio dati viene monitorato. Nota: le aggiunte/modifiche dei BLOB nelle sottocartelle del path_on_datastore o del contenitore archivio dati (se non viene specificato alcun path_on_datastore) non vengono rilevate.

Inoltre, se la pipeline è stata costruita per usare un DataPathPipelineParameter oggetto per descrivere un input di passaggio, usare il parametro data_path_parameter_name durante la creazione di una pianificazione attivata dall'archivio dati per impostare l'input sul file modificato quando viene inviato un oggetto PipelineRun dalla pianificazione.

Nell'esempio seguente, quando la pianificazione attiva PipelineRun, il valore di PipelineParameter "input_data" verrà impostato come file modificato/aggiunto:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Per altre informazioni sulle pianificazioni, vedere: https://aka.ms/pl-schedule.

Metodi

create

Creare una pianificazione per una pipeline.

Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte.

create_for_pipeline_endpoint

Creare una pianificazione per un endpoint della pipeline.

Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte.

disable

Impostare la pianificazione su "Disabilitato" e non disponibile per l'esecuzione.

enable

Impostare la pianificazione su 'Active' e disponibile per l'esecuzione.

get

Ottenere la pianificazione con l'ID specificato.

get_all

Ottenere tutte le pianificazioni nell'area di lavoro corrente.

DEPRECATO: questo metodo viene deprecato a favore del list metodo.

get_last_pipeline_run

Recuperare l'ultima esecuzione della pipeline inviata dalla pianificazione. Restituisce Nessuna se non sono state inviate esecuzioni.

get_pipeline_runs

Recuperare le esecuzioni della pipeline generate dalla pianificazione.

get_schedules_for_pipeline_endpoint_id

Ottenere tutte le pianificazioni per l'ID dell'endpoint della pipeline specificato.

get_schedules_for_pipeline_id

Ottenere tutte le pianificazioni per l'ID della pipeline specificato.

list

Ottenere tutte le pianificazioni nell'area di lavoro corrente.

load_yaml

Caricare e leggere il file YAML per ottenere i parametri di pianificazione.

Il file YAML è un altro modo per passare i parametri di pianificazione per creare la pianificazione.

update

Aggiornare la pianificazione.

create

Creare una pianificazione per una pipeline.

Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

L'oggetto area di lavoro a cui appartiene questa pianificazione.

name
Necessario
str

Nome della pianificazione.

pipeline_id
Necessario
str

ID della pipeline che verrà inviato dalla pianificazione.

experiment_name
Necessario
str

Nome dell'esperimento in cui verrà eseguita la pianificazione.

recurrence

Ricorrenza della pianificazione della pipeline.

Valore predefinito: None
description
str

Descrizione della pianificazione.

Valore predefinito: None
pipeline_parameters

Dizionario di parametri per assegnare nuovi valori {nome param, valore param}

Valore predefinito: None
wait_for_provisioning

Indica se attendere il completamento del provisioning della pianificazione.

Valore predefinito: False
wait_timeout
int

Numero di secondi di attesa prima del timeout.

Valore predefinito: 3600
datastore

Archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati. Non può essere utilizzato con una ricorrenza.

Valore predefinito: None
polling_interval
int

Tempo, espresso in minuti, tra il polling per i BLOB modificati/aggiunti. Il valore predefinito è 5 minuti. Supportato solo per le pianificazioni dell'archivio dati.

Valore predefinito: 5
data_path_parameter_name
str

Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. Supportato solo per le pianificazioni dell'archivio dati.

Valore predefinito: None
continue_on_step_failure

Indica se continuare l'esecuzione di altri passaggi in PipelineRun inviato se un passaggio ha esito negativo. Se specificato, verrà eseguito l'override dell'impostazione continue_on_step_failure per la pipeline.

Valore predefinito: None
path_on_datastore
str

facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: il path_on_datastore si troverà nel contenitore per l'archivio dati, quindi il percorso effettivo che verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni dell'archivio dati.

Valore predefinito: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Pianificazione creata.

create_for_pipeline_endpoint

Creare una pianificazione per un endpoint della pipeline.

Specificare la ricorrenza per una pianificazione basata sul tempo o specificare un archivio dati, (facoltativo) polling_interval e (facoltativo) data_path_parameter_name per creare una pianificazione che monitorerà il percorso dell'archivio dati per le modifiche/aggiunte.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

L'oggetto area di lavoro a cui appartiene questa pianificazione.

name
Necessario
str

Nome della pianificazione.

pipeline_endpoint_id
Necessario
str

L'ID dell'endpoint della pipeline invia la pianificazione.

experiment_name
Necessario
str

Il nome dell'esperimento in cui verrà inviato la pianificazione verrà inviato.

recurrence

Ricorrenza della pianificazione della pipeline.

Valore predefinito: None
description
str

Descrizione della pianificazione.

Valore predefinito: None
pipeline_parameters

Dizionario dei parametri per assegnare nuovi valori {param name, param value}

Valore predefinito: None
wait_for_provisioning

Se attendere il completamento del provisioning della pianificazione.

Valore predefinito: False
wait_timeout
int

Numero di secondi di attesa prima del timeout.

Valore predefinito: 3600
datastore

Archivio dati da monitorare per i BLOB modificati o aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati. Non è possibile usare con una ricorrenza.

Valore predefinito: None
polling_interval
int

Tempo, in minuti, tra il polling per i BLOB modificati o aggiunti. Il valore predefinito è 5 minuti. Supportato solo per le pianificazioni di DataStore.

Valore predefinito: 5
data_path_parameter_name
str

Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato. Supportato solo per le pianificazioni di DataStore.

Valore predefinito: None
continue_on_step_failure

Se continuare l'esecuzione di altri passaggi nella pipelinerun inviata se un passaggio ha esito negativo. Se specificato, questa impostazione eseguirà l'override dell'impostazione di continue_on_step_failure per la pipeline.

Valore predefinito: None
path_on_datastore
str

facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: la path_on_datastore sarà nel contenitore per l'archivio dati, quindi il percorso effettivo verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni di DataStore.

Valore predefinito: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Pianificazione creata.

disable

Impostare la pianificazione su "Disabilitato" e non disponibile per l'esecuzione.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parametri

Nome Descrizione
wait_for_provisioning

Se attendere il completamento del provisioning della pianificazione.

Valore predefinito: False
wait_timeout
int

Numero di secondi di attesa prima del timeout.

Valore predefinito: 3600

enable

Impostare la pianificazione su 'Active' e disponibile per l'esecuzione.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parametri

Nome Descrizione
wait_for_provisioning

Se attendere il completamento del provisioning della pianificazione.

Valore predefinito: False
wait_timeout
int

Numero di secondi di attesa prima del timeout.

Valore predefinito: 3600

get

Ottenere la pianificazione con l'ID specificato.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

L'area di lavoro in cui è stata creata la pianificazione.

id
Necessario
str

ID della pianificazione.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Oggetto pianificazione

get_all

Ottenere tutte le pianificazioni nell'area di lavoro corrente.

DEPRECATO: questo metodo viene deprecato a favore del list metodo.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

Area di lavoro.

active_only

Se true, restituisce solo le pianificazioni attualmente attive. Si applica solo se non viene fornito alcun ID della pipeline.

Valore predefinito: True
pipeline_id
str

Se specificato, restituisce solo pianificazioni per la pipeline con l'ID specificato.

Valore predefinito: None
pipeline_endpoint_id
str

Se specificato, restituisce solo pianificazioni per l'endpoint della pipeline con l'ID specificato.

Valore predefinito: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Elenco di Schedule.

get_last_pipeline_run

Recuperare l'ultima esecuzione della pipeline inviata dalla pianificazione. Restituisce Nessuna se non sono state inviate esecuzioni.

get_last_pipeline_run()

Restituisce

Tipo Descrizione

Ultima esecuzione della pipeline.

get_pipeline_runs

Recuperare le esecuzioni della pipeline generate dalla pianificazione.

get_pipeline_runs()

Restituisce

Tipo Descrizione

Elenco di PipelineRun.

get_schedules_for_pipeline_endpoint_id

Ottenere tutte le pianificazioni per l'ID dell'endpoint della pipeline specificato.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

Area di lavoro.

pipeline_endpoint_id
Necessario
str

ID dell'endpoint della pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Elenco di Schedule.

get_schedules_for_pipeline_id

Ottenere tutte le pianificazioni per l'ID della pipeline specificato.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

Area di lavoro.

pipeline_id
Necessario
str

ID della pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Elenco di Schedule.

list

Ottenere tutte le pianificazioni nell'area di lavoro corrente.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

Area di lavoro.

active_only

Se true, restituisce solo le pianificazioni attualmente attive. Si applica solo se non viene fornito alcun ID della pipeline.

Valore predefinito: True
pipeline_id
str

Se specificato, restituisce solo pianificazioni per la pipeline con l'ID specificato.

Valore predefinito: None
pipeline_endpoint_id
str

Se specificato, restituisce solo pianificazioni per l'endpoint della pipeline con l'ID specificato.

Valore predefinito: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Elenco di Schedule.

load_yaml

Caricare e leggere il file YAML per ottenere i parametri di pianificazione.

Il file YAML è un altro modo per passare i parametri di pianificazione per creare la pianificazione.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parametri

Nome Descrizione
workspace
Necessario

Area di lavoro.

filename
Necessario
str

Nome file YAML con percorso.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

Provider del flusso di lavoro.

Valore predefinito: None
_service_endpoint
str

Endpoint del servizio.

Valore predefinito: None

Restituisce

Tipo Descrizione

Dizionario di Schedule parametri e valori.

Commenti

Per pianificazioni sono supportati due tipi di YAML. Le prime letture e carica le informazioni sulle ricorrenze per la creazione della pianificazione per attivare la pipeline. Il secondo legge e carica le informazioni sull'archivio dati per la pianificazione della creazione per attivare la pipeline.

Esempio di creazione di una pianificazione che invia una pipeline in una ricorrenza, come indicato di seguito:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

File YAML di esempio test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Esempio di creazione di una pianificazione che invia una pipeline in un archivio dati, come indicato di seguito:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Aggiornare la pianificazione.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parametri

Nome Descrizione
name
str

Nuovo nome della pianificazione.

Valore predefinito: None
recurrence

Nuova ricorrenza della pianificazione della pipeline.

Valore predefinito: None
description
str

Nuova descrizione della pianificazione.

Valore predefinito: None
pipeline_parameters

Dizionario dei parametri per assegnare nuovi valori {param name, param value}.

Valore predefinito: None
status
str

Nuovo stato della pianificazione: 'Attivo' o 'Disabilitato'.

Valore predefinito: None
wait_for_provisioning

Se attendere il completamento del provisioning della pianificazione.

Valore predefinito: False
wait_timeout
int

Numero di secondi di attesa prima del timeout.

Valore predefinito: 3600
datastore

Archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: gli archivi dati della rete virtuale non sono supportati.

Valore predefinito: None
polling_interval
int

Tempo, espresso in minuti, tra il polling per i BLOB modificati/aggiunti. Il valore predefinito è 5 minuti.

Valore predefinito: None
data_path_parameter_name
str

Nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato.

Valore predefinito: None
continue_on_step_failure

Indica se continuare l'esecuzione di altri passaggi in PipelineRun inviato se un passaggio ha esito negativo. Se specificato, verrà eseguito l'override dell'impostazione continue_on_step_failure per la pipeline.

Valore predefinito: None
path_on_datastore
str

facoltativo. Percorso dell'archivio dati da monitorare per i BLOB modificati/aggiunti. Nota: il path_on_datastore si troverà nel contenitore per l'archivio dati, quindi il percorso effettivo che verrà monitorato sarà contenitore/path_on_datastore. In caso contrario, il contenitore dell'archivio dati viene monitorato. Le aggiunte o le modifiche apportate in una sottocartella del path_on_datastore non vengono monitorate. Supportato solo per le pianificazioni dell'archivio dati.

Valore predefinito: None

Attributi

continue_on_step_failure

Ottiene il valore dell'impostazione continue_on_step_failure .

Restituisce

Tipo Descrizione

Valore dell'impostazione continue_on_step_failure

data_path_parameter_name

Ottenere il nome del parametro della pipeline del percorso dati da impostare con il percorso BLOB modificato.

Restituisce

Tipo Descrizione
str

Nome del parametro del percorso dati.

datastore_name

Ottenere il nome dell'archivio dati usato per la pianificazione.

Restituisce

Tipo Descrizione
str

Nome dell'archivio dati.

description

Ottenere la descrizione della pianificazione.

Restituisce

Tipo Descrizione
str

Descrizione della pianificazione.

id

Ottenere l'ID per la pianificazione.

Restituisce

Tipo Descrizione
str

ID.

name

Ottenere il nome della pianificazione.

Restituisce

Tipo Descrizione
str

Nome.

path_on_datastore

Ottenere il percorso nell'archivio dati monitorato dalla pianificazione.

Restituisce

Tipo Descrizione
str

Percorso nell'archivio dati.

pipeline_endpoint_id

Ottenere l'ID dell'endpoint della pipeline inviato dalla pianificazione.

Restituisce

Tipo Descrizione
str

ID.

pipeline_id

Ottenere l'ID della pipeline che la pianificazione invia.

Restituisce

Tipo Descrizione
str

ID.

polling_interval

Ottenere il tempo, espresso in minuti, tra il polling per i BLOB modificati/aggiunti.

Restituisce

Tipo Descrizione
int

Intervallo di polling.

recurrence

Ottenere la ricorrenza della pianificazione.

Restituisce

Tipo Descrizione

Ricorrenza della pianificazione.

status

Ottenere lo stato della pianificazione.

Restituisce

Tipo Descrizione
str

Stato della pianificazione.