Schedule Classe
Define um agendamento para enviar um pipeline.
Depois que um pipeline é publicado, um agendamento pode ser usado para enviá-lo em um intervalo especificado ou quando alterações são detectadas em um local de armazenamento de blobs.
Inicializar Agendamento.
- Herança
-
builtins.objectSchedule
Construtor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O objeto de workspace ao qual o agendamento pertencerá. |
id
Obrigatório
|
A ID do agendamento. |
name
Obrigatório
|
O nome do agendamento. |
description
Obrigatório
|
A descrição da agenda. |
pipeline_id
Obrigatório
|
A ID do pipeline que o agendamento enviará. |
status
Obrigatório
|
O status do agendamento, “Ativo” ou “Desabilitado”. |
recurrence
Obrigatório
|
A recorrência do agendamento para o pipeline. |
datastore_name
Obrigatório
|
O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Observação: 1) Não há suporte para armazenamentos de dados de VNET. 2) O tipo de autenticação do armazenamento de dados deve ser definido como "Chave de conta". |
polling_interval
Obrigatório
|
Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. |
data_path_parameter_name
Obrigatório
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. |
continue_on_step_failure
Obrigatório
|
Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline. |
path_on_datastore
Obrigatório
|
Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
O provedor de agendamento. Valor padrão: None
|
workspace
Obrigatório
|
O objeto de workspace ao qual o agendamento pertencerá. |
id
Obrigatório
|
A ID do agendamento. |
name
Obrigatório
|
O nome do agendamento. |
description
Obrigatório
|
A descrição da agenda. |
pipeline_id
Obrigatório
|
A ID do pipeline que o agendamento enviará. |
status
Obrigatório
|
O status do agendamento, “Ativo” ou “Desabilitado”. |
recurrence
Obrigatório
|
A recorrência do agendamento do pipeline. |
datastore_name
Obrigatório
|
O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet. |
polling_interval
Obrigatório
|
Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. |
data_path_parameter_name
Obrigatório
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. |
continue_on_step_failure
Obrigatório
|
Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline. |
path_on_datastore
Obrigatório
|
Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados. |
_schedule_provider
Obrigatório
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
O provedor de agendamento. |
pipeline_endpoint_id
|
A ID do ponto de extremidade do pipeline que o agendamento enviará. Valor padrão: None
|
Comentários
Há suporte para dois tipos de agendamentos. O primeiro usa a recorrência de tempo para enviar um pipeline em um determinado agendamento. O segundo monitora um AzureBlobDatastore quanto a blobs adicionados ou modificados e envia um pipeline quando alterações são detectadas.
Para criar um agendamento que enviará um pipeline em um agendamento recorrente, use ScheduleRecurrence ao criar o agendamento.
Uma ScheduleRecurrence é usada ao criar um Agendamento para um Pipeline da seguinte forma:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Esse agendamento enviará o PublishedPipeline fornecido a cada 12 horas. O pipeline enviado será criado no experimento com o nome "helloworld".
Para criar um agendamento que disparará PipelineRuns em modificações feitas em um local de armazenamento de blob, especifique um armazenamento de dados e informações de dados relacionadas ao criar o agendamento.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Observe que os parâmetros polling_interval e path_on_datastore são opcionais. polling_interval especifica com que frequência sondar modificações no armazenamento de dados e tem como valor, por padrão, cinco minutos. path_on_datastore pode ser usado para especificar em qual pasta no armazenamento de dados monitorar as alterações. Se Nenhum, o contêiner do armazenamento de dados será monitorado. Observação: não são detectadas adições/modificações de blob em subpastas de path_on_datastore ou do contêiner de armazenamento de dados (se path_on_datastore não for especificado).
Além disso, se o pipeline foi criado para usar um DataPathPipelineParameter a fim de descrever uma entrada de etapa, use o parâmetro data_path_parameter_name ao criar um agendamento disparado por armazenamento de dados a fim de definir a entrada para o arquivo alterado quando uma PipelineRun for enviada pelo agendamento.
No exemplo a seguir, quando o agendamento disparar a PipelineRun, o valor de PipelineParameter "input_data" será definido como o arquivo modificado/adicionado:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Para saber mais sobre agendamentos, confira: https://aka.ms/pl-schedule.
Métodos
create |
Criar um agendamento para um pipeline. Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições. |
create_for_pipeline_endpoint |
Criar um agendamento para um ponto de extremidade de pipeline. Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições. |
disable |
Definir o agendamento como "Desabilitado" e não disponível para execução. |
enable |
Definir o agendamento como "Ativo" e disponível para execução. |
get |
Obter o agendamento com a ID especificada. |
get_all |
Obter todos os agendamentos no workspace atual. PRETERIDO: esse método está sendo preterido e substituído pelo método list. |
get_last_pipeline_run |
Buscar a última execução de pipeline enviada pelo agendamento. Retorna Nenhum se nenhuma das execuções tiver sido enviada. |
get_pipeline_runs |
Buscar as execuções de pipeline que foram geradas a partir do agendamento. |
get_schedules_for_pipeline_endpoint_id |
Obter todos os agendamentos de uma determinada ID de ponto de extremidade de pipeline. |
get_schedules_for_pipeline_id |
Obter todos os agendamentos da ID de pipeline especificada. |
list |
Obter todos os agendamentos no workspace atual. |
load_yaml |
Carregar e ler o arquivo YAML para obter os parâmetros de agendamento. O arquivo YAML é mais uma maneira de transmitir parâmetros de agendamento para criar agendamentos. |
update |
Atualizar o agendamento. |
create
Criar um agendamento para um pipeline.
Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O objeto de workspace ao qual o agendamento pertencerá. |
name
Obrigatório
|
O nome do agendamento. |
pipeline_id
Obrigatório
|
A ID do pipeline que o agendamento enviará. |
experiment_name
Obrigatório
|
O nome do experimento em que o agendamento enviará execuções. |
recurrence
|
A recorrência do agendamento do pipeline. Valor padrão: None
|
description
|
A descrição da agenda. Valor padrão: None
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro} Valor padrão: None
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento da agenda. Valor padrão: False
|
wait_timeout
|
O número de segundos a aguardar antes de esgotar o tempo limite. Valor padrão: 3600
|
datastore
|
O armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet. Não é possível usar com uma recorrência. Valor padrão: None
|
polling_interval
|
Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. O padrão é de 5 minutos. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: 5
|
data_path_parameter_name
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: None
|
continue_on_step_failure
|
Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline. Valor padrão: None
|
path_on_datastore
|
Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
O agendamento criado. |
create_for_pipeline_endpoint
Criar um agendamento para um ponto de extremidade de pipeline.
Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O objeto de workspace ao qual o agendamento pertencerá. |
name
Obrigatório
|
O nome do agendamento. |
pipeline_endpoint_id
Obrigatório
|
A ID do ponto de extremidade do pipeline que o agendamento enviará. |
experiment_name
Obrigatório
|
O nome do experimento em que o agendamento enviará execuções. |
recurrence
|
A recorrência do agendamento do pipeline. Valor padrão: None
|
description
|
A descrição da agenda. Valor padrão: None
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro} Valor padrão: None
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento da agenda. Valor padrão: False
|
wait_timeout
|
O número de segundos a aguardar antes de esgotar o tempo limite. Valor padrão: 3600
|
datastore
|
O armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet. Não é possível usar com uma recorrência. Valor padrão: None
|
polling_interval
|
Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. O padrão é de 5 minutos. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: 5
|
data_path_parameter_name
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: None
|
continue_on_step_failure
|
Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline. Valor padrão: None
|
path_on_datastore
|
Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
O agendamento criado. |
disable
Definir o agendamento como "Desabilitado" e não disponível para execução.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parâmetros
Nome | Description |
---|---|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento da agenda. Valor padrão: False
|
wait_timeout
|
Número de segundos a aguardar antes de esgotar o tempo limite. Valor padrão: 3600
|
enable
Definir o agendamento como "Ativo" e disponível para execução.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parâmetros
Nome | Description |
---|---|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento da agenda. Valor padrão: False
|
wait_timeout
|
Número de segundos a aguardar antes de esgotar o tempo limite. Valor padrão: 3600
|
get
Obter o agendamento com a ID especificada.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O workspace em que o agendamento foi criado. |
id
Obrigatório
|
ID da agenda. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Objeto Agendamento |
get_all
Obter todos os agendamentos no workspace atual.
PRETERIDO: esse método está sendo preterido e substituído pelo método list.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O workspace. |
active_only
|
Se true, retornará somente agendamentos ativos no momento. Aplica-se somente se nenhuma ID de pipeline for fornecida. Valor padrão: True
|
pipeline_id
|
Se a ID for fornecida, retornará somente agendamentos para o pipeline respectivo. Valor padrão: None
|
pipeline_endpoint_id
|
Se a ID for fornecida, retornará somente agendamentos para o respectivo ponto de extremidade de pipeline. Valor padrão: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Uma lista de Schedule. |
get_last_pipeline_run
Buscar a última execução de pipeline enviada pelo agendamento. Retorna Nenhum se nenhuma das execuções tiver sido enviada.
get_last_pipeline_run()
Retornos
Tipo | Description |
---|---|
A última execução de pipeline. |
get_pipeline_runs
Buscar as execuções de pipeline que foram geradas a partir do agendamento.
get_pipeline_runs()
Retornos
Tipo | Description |
---|---|
Uma lista de PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Obter todos os agendamentos de uma determinada ID de ponto de extremidade de pipeline.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O workspace. |
pipeline_endpoint_id
Obrigatório
|
A ID do ponto de extremidade do pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Uma lista de Schedule. |
get_schedules_for_pipeline_id
Obter todos os agendamentos da ID de pipeline especificada.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O workspace. |
pipeline_id
Obrigatório
|
A ID do pipeline. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Uma lista de Schedule. |
list
Obter todos os agendamentos no workspace atual.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O workspace. |
active_only
|
Se true, retornará somente agendamentos ativos no momento. Aplica-se somente se nenhuma ID de pipeline for fornecida. Valor padrão: True
|
pipeline_id
|
Se a ID for fornecida, retornará somente agendamentos para o pipeline respectivo. Valor padrão: None
|
pipeline_endpoint_id
|
Se a ID for fornecida, retornará somente agendamentos para o respectivo ponto de extremidade de pipeline. Valor padrão: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Uma lista de Schedule. |
load_yaml
Carregar e ler o arquivo YAML para obter os parâmetros de agendamento.
O arquivo YAML é mais uma maneira de transmitir parâmetros de agendamento para criar agendamentos.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O workspace. |
filename
Obrigatório
|
O nome de arquivo YAML com local. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor do fluxo de trabalho. Valor padrão: None
|
_service_endpoint
|
O ponto de extremidade de serviço. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Um dicionário de parâmetros e valores de Schedule. |
Comentários
Há suporte para dois tipos de YAML nos agendamentos. O primeiro lê e carrega informações de recorrência para a criação de agendamento a fim de disparar o pipeline. O segundo lê e carrega informações de armazenamento de dados para a criação de agendamento a fim de disparar o pipeline.
Exemplo de criação de um agendamento que enviará um pipeline em uma recorrência, da seguinte forma:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Arquivo YAML de exemplo test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exemplo de criação de um agendamento que enviará um pipeline em um armazenamento de dados, da seguinte forma:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Atualizar o agendamento.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parâmetros
Nome | Description |
---|---|
name
|
O novo nome do agendamento. Valor padrão: None
|
recurrence
|
A nova recorrência de agendamento do pipeline. Valor padrão: None
|
description
|
A nova descrição do agendamento. Valor padrão: None
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro}. Valor padrão: None
|
status
|
O novo status do agendamento, “Ativo” ou “Desabilitado”. Valor padrão: None
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento da agenda. Valor padrão: False
|
wait_timeout
|
O número de segundos a aguardar antes de esgotar o tempo limite. Valor padrão: 3600
|
datastore
|
O armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet. Valor padrão: None
|
polling_interval
|
Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. O padrão é de 5 minutos. Valor padrão: None
|
data_path_parameter_name
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Valor padrão: None
|
continue_on_step_failure
|
Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline. Valor padrão: None
|
path_on_datastore
|
Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados. Valor padrão: None
|
Atributos
continue_on_step_failure
Obter o valor da configuração continue_on_step_failure
.
Retornos
Tipo | Description |
---|---|
O valor da configuração |
data_path_parameter_name
Obter o nome do parâmetro de pipeline de caminho de dados para definir com o caminho de blob alterado.
Retornos
Tipo | Description |
---|---|
O nome do parâmetro de caminho de dados. |
datastore_name
Obter o nome do armazenamento de dados usado para o agendamento.
Retornos
Tipo | Description |
---|---|
O nome do armazenamento de dados. |
description
id
name
path_on_datastore
Obter o caminho no armazenamento de dados que o agendamento monitora.
Retornos
Tipo | Description |
---|---|
O caminho no armazenamento de dados. |
pipeline_endpoint_id
Obter a ID do ponto de extremidade do pipeline que o agendamento envia.
Retornos
Tipo | Description |
---|---|
A ID. |
pipeline_id
polling_interval
Obter a duração, em minutos, entre a sondagem de blobs modificados/adicionados.
Retornos
Tipo | Description |
---|---|
O intervalo de sondagem. |
recurrence
Obter a recorrência do agendamento.
Retornos
Tipo | Description |
---|---|
A recorrência do agendamento. |