Schedule Classe
Define um cronograma para enviar um pipeline.
Depois que um Pipeline é publicado, um Schedule pode ser usado para enviar o Pipeline em um intervalo especificado ou quando alterações em um local de armazenamento de Blob são detetadas.
Inicializar agenda.
Construtor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O objeto de espaço de trabalho ao qual esta Agenda pertencerá. |
|
id
Necessário
|
O ID da agenda. |
|
name
Necessário
|
O nome da Agenda. |
|
description
Necessário
|
A descrição do horário. |
|
pipeline_id
Necessário
|
O ID do pipeline que o cronograma enviará. |
|
status
Necessário
|
O status da agenda, 'Ativo' ou 'Desativado'. |
|
recurrence
Necessário
|
A recorrência do cronograma para o pipeline. |
|
datastore_name
Necessário
|
O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Nota: 1) Os Datastores VNET não são suportados. 2) O tipo de autenticação para o armazenamento de dados deve ser definido como "Chave de conta". |
|
polling_interval
Necessário
|
Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. |
|
data_path_parameter_name
Necessário
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. |
|
continue_on_step_failure
Necessário
|
Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline. |
|
path_on_datastore
Necessário
|
Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore. |
|
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
O provedor de agendamento. Default value: None
|
|
workspace
Necessário
|
O objeto de espaço de trabalho ao qual esta Agenda pertencerá. |
|
id
Necessário
|
O ID da agenda. |
|
name
Necessário
|
O nome da Agenda. |
|
description
Necessário
|
A descrição do horário. |
|
pipeline_id
Necessário
|
O ID do pipeline que o cronograma enviará. |
|
status
Necessário
|
O status da agenda, 'Ativo' ou 'Desativado'. |
|
recurrence
Necessário
|
A recorrência do cronograma do pipeline. |
|
datastore_name
Necessário
|
O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados. |
|
polling_interval
Necessário
|
Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. |
|
data_path_parameter_name
Necessário
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. |
|
continue_on_step_failure
Necessário
|
Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline. |
|
path_on_datastore
Necessário
|
Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore. |
|
_schedule_provider
Necessário
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
O provedor de agendamento. |
|
pipeline_endpoint_id
|
A ID do ponto de extremidade do pipeline que o agendamento enviará. Default value: None
|
Observações
São suportados dois tipos de horários. O primeiro usa a recorrência de tempo para enviar um Pipeline em um determinado cronograma. O segundo monitora um AzureBlobDatastore para blobs adicionados ou modificados e envia um Pipeline quando alterações são detetadas.
Para criar uma Agenda que enviará um Pipeline em uma agenda recorrente, use o ScheduleRecurrence ao criar a Agenda.
Um ScheduleRecurrence é usado ao criar um Schedule para um Pipeline da seguinte maneira:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Este Cronograma enviará o fornecido PublishedPipeline a cada 12 horas. O Pipeline submetido será criado sob o Experimento com o nome "helloworld".
Para criar um Schedule que acionará PipelineRuns em modificações em um local de armazenamento de Blob, especifique um Datastore e informações de dados relacionadas ao criar o Schedule.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Observe que os parâmetros polling_interval e path_on_datastore são opcionais. O polling_interval especifica a frequência de pesquisa de modificações no Datastore e, por padrão, é de 5 minutos. path_on_datastore pode ser usado para especificar qual pasta no Datastore monitorar alterações. Se Nenhum, o contêiner Datastore será monitorado. Nota: adições/modificações de blob em subpastas do path_on_datastore ou do contêiner Datastore (se nenhum path_on_datastore for especificado) não são detetadas.
Além disso, se o Pipeline foi construído para usar um DataPathPipelineParameter para descrever uma entrada de etapa, use o parâmetro data_path_parameter_name ao criar um Schedule acionado por Datastore para definir a entrada para o arquivo alterado quando um PipelineRun for enviado pelo Schedule.
No exemplo a seguir, quando o Schedule aciona o PipelineRun, o valor do "input_data" PipelineParameter será definido como o arquivo que foi modificado/adicionado:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Para obter mais informações sobre horários, consulte: https://aka.ms/pl-schedule.
Métodos
| create |
Crie uma agenda para um pipeline. Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições. |
| create_for_pipeline_endpoint |
Crie uma agenda para um ponto de extremidade de pipeline. Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições. |
| disable |
Defina a agenda como 'Desativado' e indisponível para execução. |
| enable |
Defina o agendamento como 'Ativo' e disponível para execução. |
| get |
Obtenha o agendamento com o ID fornecido. |
| get_all |
Obtenha todas as agendas no espaço de trabalho atual. DEPRECATED: Este método está sendo preterido em favor do list método. |
| get_last_pipeline_run |
Buscar a última execução de pipeline enviada pela agenda. Retorna Nenhum se nenhuma execução tiver sido enviada. |
| get_pipeline_runs |
Buscar as execuções de pipeline que foram geradas a partir da programação. |
| get_schedules_for_pipeline_endpoint_id |
Obtenha todas as agendas para a ID de ponto de extremidade de pipeline fornecida. |
| get_schedules_for_pipeline_id |
Obtenha todas as agendas para o ID de pipeline fornecido. |
| list |
Obtenha todas as agendas no espaço de trabalho atual. |
| load_yaml |
Carregue e leia o arquivo YAML para obter parâmetros de agendamento. O arquivo YAML é mais uma maneira de passar parâmetros de agenda para criar agenda. |
| update |
Atualize o cronograma. |
create
Crie uma agenda para um pipeline.
Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O objeto de espaço de trabalho ao qual esta Agenda pertencerá. |
|
name
Necessário
|
O nome da Agenda. |
|
pipeline_id
Necessário
|
O ID do pipeline que o cronograma enviará. |
|
experiment_name
Necessário
|
O nome do experimento que o cronograma enviará é executado. |
|
recurrence
|
A recorrência do cronograma do pipeline. Default value: None
|
|
description
|
A descrição do horário. Default value: None
|
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {param name, param value} Default value: None
|
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento do agendamento. Default value: False
|
|
wait_timeout
|
O número de segundos a aguardar antes do tempo limite. Default value: 3600
|
|
datastore
|
O Datastore para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados. Não pode usar com uma recorrência. Default value: None
|
|
polling_interval
|
Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. A predefinição é 5 minutos. Suporte apenas para agendas DataStore. Default value: 5
|
|
data_path_parameter_name
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Suporte apenas para agendas DataStore. Default value: None
|
|
continue_on_step_failure
|
Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline. Default value: None
|
|
path_on_datastore
|
Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore. Default value: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
O cronograma criado. |
create_for_pipeline_endpoint
Crie uma agenda para um ponto de extremidade de pipeline.
Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O objeto de espaço de trabalho ao qual esta Agenda pertencerá. |
|
name
Necessário
|
O nome da Agenda. |
|
pipeline_endpoint_id
Necessário
|
A ID do ponto de extremidade do pipeline que o agendamento enviará. |
|
experiment_name
Necessário
|
O nome do experimento que o cronograma enviará é executado. |
|
recurrence
|
A recorrência do cronograma do pipeline. Default value: None
|
|
description
|
A descrição do horário. Default value: None
|
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {param name, param value} Default value: None
|
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento do agendamento. Default value: False
|
|
wait_timeout
|
O número de segundos a aguardar antes do tempo limite. Default value: 3600
|
|
datastore
|
O Datastore para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados. Não pode usar com uma recorrência. Default value: None
|
|
polling_interval
|
Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. A predefinição é 5 minutos. Suporte apenas para agendas DataStore. Default value: 5
|
|
data_path_parameter_name
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Suporte apenas para agendas DataStore. Default value: None
|
|
continue_on_step_failure
|
Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline. Default value: None
|
|
path_on_datastore
|
Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore. Default value: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
O cronograma criado. |
disable
Defina a agenda como 'Desativado' e indisponível para execução.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parâmetros
| Name | Description |
|---|---|
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento do agendamento. Default value: False
|
|
wait_timeout
|
Número de segundos a aguardar antes do tempo limite. Default value: 3600
|
enable
Defina o agendamento como 'Ativo' e disponível para execução.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parâmetros
| Name | Description |
|---|---|
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento do agendamento. Default value: False
|
|
wait_timeout
|
Número de segundos a aguardar antes do tempo limite. Default value: 3600
|
get
Obtenha o agendamento com o ID fornecido.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O espaço de trabalho no qual a agenda foi criada. |
|
id
Necessário
|
ID do horário. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
Objeto de agendamento |
get_all
Obtenha todas as agendas no espaço de trabalho atual.
DEPRECATED: Este método está sendo preterido em favor do list método.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O espaço de trabalho. |
|
active_only
|
Se verdadeiro, retorne apenas as agendas que estão ativas no momento. Só se aplica se nenhum ID de pipeline for fornecido. Default value: True
|
|
pipeline_id
|
Se fornecido, apenas retorne agendamentos para o pipeline com a id fornecida. Default value: None
|
|
pipeline_endpoint_id
|
Se fornecido, apenas retorne agendamentos para o ponto de extremidade do pipeline com a id fornecida. Default value: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
Uma lista de Schedule. |
get_last_pipeline_run
Buscar a última execução de pipeline enviada pela agenda. Retorna Nenhum se nenhuma execução tiver sido enviada.
get_last_pipeline_run()
Devoluções
| Tipo | Description |
|---|---|
|
O último pipeline é executado. |
get_pipeline_runs
Buscar as execuções de pipeline que foram geradas a partir da programação.
get_pipeline_runs()
Devoluções
| Tipo | Description |
|---|---|
|
Uma lista de PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Obtenha todas as agendas para a ID de ponto de extremidade de pipeline fornecida.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O espaço de trabalho. |
|
pipeline_endpoint_id
Necessário
|
A ID do ponto de extremidade do pipeline. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
Uma lista de Schedule. |
get_schedules_for_pipeline_id
Obtenha todas as agendas para o ID de pipeline fornecido.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O espaço de trabalho. |
|
pipeline_id
Necessário
|
O id do pipeline. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
Uma lista de Schedule. |
list
Obtenha todas as agendas no espaço de trabalho atual.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O espaço de trabalho. |
|
active_only
|
Se verdadeiro, retorne apenas as agendas que estão ativas no momento. Só se aplica se nenhum ID de pipeline for fornecido. Default value: True
|
|
pipeline_id
|
Se fornecido, apenas retorne agendamentos para o pipeline com a id fornecida. Default value: None
|
|
pipeline_endpoint_id
|
Se fornecido, apenas retorne agendamentos para o ponto de extremidade do pipeline com a id fornecida. Default value: None
|
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
Uma lista de Schedule. |
load_yaml
Carregue e leia o arquivo YAML para obter parâmetros de agendamento.
O arquivo YAML é mais uma maneira de passar parâmetros de agenda para criar agenda.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parâmetros
| Name | Description |
|---|---|
|
workspace
Necessário
|
O espaço de trabalho. |
|
filename
Necessário
|
O nome do arquivo YAML com localização. |
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
O provedor de fluxo de trabalho. Default value: None
|
|
_service_endpoint
|
O ponto de extremidade do serviço. Default value: None
|
Devoluções
| Tipo | Description |
|---|---|
|
Um dicionário de Schedule parâmetros e valores. |
Observações
Dois tipos de YAML são suportados para Agendas. O primeiro lê e carrega informações de recorrência para criação de agendamento para acionar pipeline. O segundo lê e carrega informações do armazenamento de dados para agendar a criação para acionar o pipeline.
Exemplo para criar um cronograma que enviará um pipeline em uma recorrência, da seguinte maneira:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Exemplo de arquivo YAML test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exemplo para criar uma Agenda que enviará um Pipeline em um armazenamento de dados, da seguinte maneira:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Atualize o cronograma.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parâmetros
| Name | Description |
|---|---|
|
name
|
O novo nome da Agenda. Default value: None
|
|
recurrence
|
A recorrência do novo cronograma do gasoduto. Default value: None
|
|
description
|
A nova descrição do calendário. Default value: None
|
|
pipeline_parameters
|
Um dicionário de parâmetros para atribuir novos valores {param name, param value}. Default value: None
|
|
status
|
O novo status da agenda: 'Ativo' ou 'Desativado'. Default value: None
|
|
wait_for_provisioning
|
Se deve aguardar a conclusão do provisionamento do agendamento. Default value: False
|
|
wait_timeout
|
O número de segundos a aguardar antes do tempo limite. Default value: 3600
|
|
datastore
|
O Datastore para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados. Default value: None
|
|
polling_interval
|
Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. A predefinição é 5 minutos. Default value: None
|
|
data_path_parameter_name
|
O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Default value: None
|
|
continue_on_step_failure
|
Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline. Default value: None
|
|
path_on_datastore
|
Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore. Default value: None
|
Atributos
continue_on_step_failure
Obtenha o valor da continue_on_step_failure configuração.
Devoluções
| Tipo | Description |
|---|---|
|
O valor da |
data_path_parameter_name
Obtenha o nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.
Devoluções
| Tipo | Description |
|---|---|
|
O nome do parâmetro de caminho de dados. |
datastore_name
Obtenha o nome do Datastore usado para a agenda.
Devoluções
| Tipo | Description |
|---|---|
|
O nome do armazenamento de dados. |
description
id
name
path_on_datastore
Obtenha o caminho no armazenamento de dados que a agenda monitora.
Devoluções
| Tipo | Description |
|---|---|
|
O caminho no armazenamento de dados. |
pipeline_endpoint_id
Obtenha a ID do ponto de extremidade do pipeline que a agenda envia.
Devoluções
| Tipo | Description |
|---|---|
|
O ID. |
pipeline_id
polling_interval
Obtenha quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados.
Devoluções
| Tipo | Description |
|---|---|
|
O intervalo de votação. |
recurrence
Obtenha a recorrência do cronograma.
Devoluções
| Tipo | Description |
|---|---|
|
A recorrência do cronograma. |