Compartilhar via


Schedule Classe

Define um agendamento para enviar um pipeline.

Depois que um pipeline é publicado, um agendamento pode ser usado para enviá-lo em um intervalo especificado ou quando alterações são detectadas em um local de armazenamento de blobs.

Inicializar Agendamento.

Herança
builtins.object
Schedule

Construtor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parâmetros

Nome Description
workspace
Obrigatório

O objeto de workspace ao qual o agendamento pertencerá.

id
Obrigatório
str

A ID do agendamento.

name
Obrigatório
str

O nome do agendamento.

description
Obrigatório
str

A descrição da agenda.

pipeline_id
Obrigatório
str

A ID do pipeline que o agendamento enviará.

status
Obrigatório
str

O status do agendamento, “Ativo” ou “Desabilitado”.

recurrence
Obrigatório

A recorrência do agendamento para o pipeline.

datastore_name
Obrigatório
str

O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Observação: 1) Não há suporte para armazenamentos de dados de VNET. 2) O tipo de autenticação do armazenamento de dados deve ser definido como "Chave de conta".

polling_interval
Obrigatório
int

Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados.

data_path_parameter_name
Obrigatório
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

continue_on_step_failure
Obrigatório

Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline.

path_on_datastore
Obrigatório
str

Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

O provedor de agendamento.

Valor padrão: None
workspace
Obrigatório

O objeto de workspace ao qual o agendamento pertencerá.

id
Obrigatório
str

A ID do agendamento.

name
Obrigatório
str

O nome do agendamento.

description
Obrigatório
str

A descrição da agenda.

pipeline_id
Obrigatório
str

A ID do pipeline que o agendamento enviará.

status
Obrigatório
str

O status do agendamento, “Ativo” ou “Desabilitado”.

recurrence
Obrigatório

A recorrência do agendamento do pipeline.

datastore_name
Obrigatório
str

O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet.

polling_interval
Obrigatório
int

Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados.

data_path_parameter_name
Obrigatório
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

continue_on_step_failure
Obrigatório

Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline.

path_on_datastore
Obrigatório
str

Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados.

_schedule_provider
Obrigatório
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

O provedor de agendamento.

pipeline_endpoint_id
str

A ID do ponto de extremidade do pipeline que o agendamento enviará.

Valor padrão: None

Comentários

Há suporte para dois tipos de agendamentos. O primeiro usa a recorrência de tempo para enviar um pipeline em um determinado agendamento. O segundo monitora um AzureBlobDatastore quanto a blobs adicionados ou modificados e envia um pipeline quando alterações são detectadas.

Para criar um agendamento que enviará um pipeline em um agendamento recorrente, use ScheduleRecurrence ao criar o agendamento.

Uma ScheduleRecurrence é usada ao criar um Agendamento para um Pipeline da seguinte forma:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Esse agendamento enviará o PublishedPipeline fornecido a cada 12 horas. O pipeline enviado será criado no experimento com o nome "helloworld".

Para criar um agendamento que disparará PipelineRuns em modificações feitas em um local de armazenamento de blob, especifique um armazenamento de dados e informações de dados relacionadas ao criar o agendamento.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Observe que os parâmetros polling_interval e path_on_datastore são opcionais. polling_interval especifica com que frequência sondar modificações no armazenamento de dados e tem como valor, por padrão, cinco minutos. path_on_datastore pode ser usado para especificar em qual pasta no armazenamento de dados monitorar as alterações. Se Nenhum, o contêiner do armazenamento de dados será monitorado. Observação: não são detectadas adições/modificações de blob em subpastas de path_on_datastore ou do contêiner de armazenamento de dados (se path_on_datastore não for especificado).

Além disso, se o pipeline foi criado para usar um DataPathPipelineParameter a fim de descrever uma entrada de etapa, use o parâmetro data_path_parameter_name ao criar um agendamento disparado por armazenamento de dados a fim de definir a entrada para o arquivo alterado quando uma PipelineRun for enviada pelo agendamento.

No exemplo a seguir, quando o agendamento disparar a PipelineRun, o valor de PipelineParameter "input_data" será definido como o arquivo modificado/adicionado:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Para saber mais sobre agendamentos, confira: https://aka.ms/pl-schedule.

Métodos

create

Criar um agendamento para um pipeline.

Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições.

create_for_pipeline_endpoint

Criar um agendamento para um ponto de extremidade de pipeline.

Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições.

disable

Definir o agendamento como "Desabilitado" e não disponível para execução.

enable

Definir o agendamento como "Ativo" e disponível para execução.

get

Obter o agendamento com a ID especificada.

get_all

Obter todos os agendamentos no workspace atual.

PRETERIDO: esse método está sendo preterido e substituído pelo método list.

get_last_pipeline_run

Buscar a última execução de pipeline enviada pelo agendamento. Retorna Nenhum se nenhuma das execuções tiver sido enviada.

get_pipeline_runs

Buscar as execuções de pipeline que foram geradas a partir do agendamento.

get_schedules_for_pipeline_endpoint_id

Obter todos os agendamentos de uma determinada ID de ponto de extremidade de pipeline.

get_schedules_for_pipeline_id

Obter todos os agendamentos da ID de pipeline especificada.

list

Obter todos os agendamentos no workspace atual.

load_yaml

Carregar e ler o arquivo YAML para obter os parâmetros de agendamento.

O arquivo YAML é mais uma maneira de transmitir parâmetros de agendamento para criar agendamentos.

update

Atualizar o agendamento.

create

Criar um agendamento para um pipeline.

Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O objeto de workspace ao qual o agendamento pertencerá.

name
Obrigatório
str

O nome do agendamento.

pipeline_id
Obrigatório
str

A ID do pipeline que o agendamento enviará.

experiment_name
Obrigatório
str

O nome do experimento em que o agendamento enviará execuções.

recurrence

A recorrência do agendamento do pipeline.

Valor padrão: None
description
str

A descrição da agenda.

Valor padrão: None
pipeline_parameters

Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro}

Valor padrão: None
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento da agenda.

Valor padrão: False
wait_timeout
int

O número de segundos a aguardar antes de esgotar o tempo limite.

Valor padrão: 3600
datastore

O armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet. Não é possível usar com uma recorrência.

Valor padrão: None
polling_interval
int

Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. O padrão é de 5 minutos. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: 5
data_path_parameter_name
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: None
continue_on_step_failure

Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline.

Valor padrão: None
path_on_datastore
str

Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

O agendamento criado.

create_for_pipeline_endpoint

Criar um agendamento para um ponto de extremidade de pipeline.

Especifique a recorrência de um agendamento baseado em tempo ou especifique um armazenamento de dados, (opcional) polling_interval e (opcional) data_path_parameter_name para criar um agendamento que monitorará o local do armazenamento de dados em busca de modificações/adições.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O objeto de workspace ao qual o agendamento pertencerá.

name
Obrigatório
str

O nome do agendamento.

pipeline_endpoint_id
Obrigatório
str

A ID do ponto de extremidade do pipeline que o agendamento enviará.

experiment_name
Obrigatório
str

O nome do experimento em que o agendamento enviará execuções.

recurrence

A recorrência do agendamento do pipeline.

Valor padrão: None
description
str

A descrição da agenda.

Valor padrão: None
pipeline_parameters

Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro}

Valor padrão: None
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento da agenda.

Valor padrão: False
wait_timeout
int

O número de segundos a aguardar antes de esgotar o tempo limite.

Valor padrão: 3600
datastore

O armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet. Não é possível usar com uma recorrência.

Valor padrão: None
polling_interval
int

Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. O padrão é de 5 minutos. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: 5
data_path_parameter_name
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: None
continue_on_step_failure

Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline.

Valor padrão: None
path_on_datastore
str

Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

O agendamento criado.

disable

Definir o agendamento como "Desabilitado" e não disponível para execução.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parâmetros

Nome Description
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento da agenda.

Valor padrão: False
wait_timeout
int

Número de segundos a aguardar antes de esgotar o tempo limite.

Valor padrão: 3600

enable

Definir o agendamento como "Ativo" e disponível para execução.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parâmetros

Nome Description
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento da agenda.

Valor padrão: False
wait_timeout
int

Número de segundos a aguardar antes de esgotar o tempo limite.

Valor padrão: 3600

get

Obter o agendamento com a ID especificada.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O workspace em que o agendamento foi criado.

id
Obrigatório
str

ID da agenda.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

Objeto Agendamento

get_all

Obter todos os agendamentos no workspace atual.

PRETERIDO: esse método está sendo preterido e substituído pelo método list.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O workspace.

active_only

Se true, retornará somente agendamentos ativos no momento. Aplica-se somente se nenhuma ID de pipeline for fornecida.

Valor padrão: True
pipeline_id
str

Se a ID for fornecida, retornará somente agendamentos para o pipeline respectivo.

Valor padrão: None
pipeline_endpoint_id
str

Se a ID for fornecida, retornará somente agendamentos para o respectivo ponto de extremidade de pipeline.

Valor padrão: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

Uma lista de Schedule.

get_last_pipeline_run

Buscar a última execução de pipeline enviada pelo agendamento. Retorna Nenhum se nenhuma das execuções tiver sido enviada.

get_last_pipeline_run()

Retornos

Tipo Description

A última execução de pipeline.

get_pipeline_runs

Buscar as execuções de pipeline que foram geradas a partir do agendamento.

get_pipeline_runs()

Retornos

Tipo Description

Uma lista de PipelineRun.

get_schedules_for_pipeline_endpoint_id

Obter todos os agendamentos de uma determinada ID de ponto de extremidade de pipeline.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O workspace.

pipeline_endpoint_id
Obrigatório
str

A ID do ponto de extremidade do pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

Uma lista de Schedule.

get_schedules_for_pipeline_id

Obter todos os agendamentos da ID de pipeline especificada.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O workspace.

pipeline_id
Obrigatório
str

A ID do pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

Uma lista de Schedule.

list

Obter todos os agendamentos no workspace atual.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O workspace.

active_only

Se true, retornará somente agendamentos ativos no momento. Aplica-se somente se nenhuma ID de pipeline for fornecida.

Valor padrão: True
pipeline_id
str

Se a ID for fornecida, retornará somente agendamentos para o pipeline respectivo.

Valor padrão: None
pipeline_endpoint_id
str

Se a ID for fornecida, retornará somente agendamentos para o respectivo ponto de extremidade de pipeline.

Valor padrão: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

Uma lista de Schedule.

load_yaml

Carregar e ler o arquivo YAML para obter os parâmetros de agendamento.

O arquivo YAML é mais uma maneira de transmitir parâmetros de agendamento para criar agendamentos.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Nome Description
workspace
Obrigatório

O workspace.

filename
Obrigatório
str

O nome de arquivo YAML com local.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor do fluxo de trabalho.

Valor padrão: None
_service_endpoint
str

O ponto de extremidade de serviço.

Valor padrão: None

Retornos

Tipo Description

Um dicionário de parâmetros e valores de Schedule.

Comentários

Há suporte para dois tipos de YAML nos agendamentos. O primeiro lê e carrega informações de recorrência para a criação de agendamento a fim de disparar o pipeline. O segundo lê e carrega informações de armazenamento de dados para a criação de agendamento a fim de disparar o pipeline.

Exemplo de criação de um agendamento que enviará um pipeline em uma recorrência, da seguinte forma:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Arquivo YAML de exemplo test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Exemplo de criação de um agendamento que enviará um pipeline em um armazenamento de dados, da seguinte forma:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Atualizar o agendamento.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parâmetros

Nome Description
name
str

O novo nome do agendamento.

Valor padrão: None
recurrence

A nova recorrência de agendamento do pipeline.

Valor padrão: None
description
str

A nova descrição do agendamento.

Valor padrão: None
pipeline_parameters

Um dicionário de parâmetros para atribuir novos valores {nome do parâmetro, valor do parâmetro}.

Valor padrão: None
status
str

O novo status do agendamento, “Ativo” ou “Desabilitado”.

Valor padrão: None
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento da agenda.

Valor padrão: False
wait_timeout
int

O número de segundos a aguardar antes de esgotar o tempo limite.

Valor padrão: 3600
datastore

O armazenamento de dados para monitorar blobs modificados/adicionados. Observação: não há suporte para armazenamentos de dados de VNet.

Valor padrão: None
polling_interval
int

Por quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. O padrão é de 5 minutos.

Valor padrão: None
data_path_parameter_name
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

Valor padrão: None
continue_on_step_failure

Se deseja continuar a execução de outras etapas no PipelineRun enviado se uma etapa falhar. Se fornecido, substituirá a configuração continue_on_step_failure do pipeline.

Valor padrão: None
path_on_datastore
str

Opcional. O caminho no armazenamento de dados a ser monitorado para blobs modificados/adicionados. Observação: path_on_datastore estará no contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, será monitorado o contêiner do armazenamento de dados. Adições/modificações feitas em uma subpasta de path_on_datastore não são monitoradas. Com suporte somente para agendamentos de armazenamento de dados.

Valor padrão: None

Atributos

continue_on_step_failure

Obter o valor da configuração continue_on_step_failure.

Retornos

Tipo Description

O valor da configuração continue_on_step_failure

data_path_parameter_name

Obter o nome do parâmetro de pipeline de caminho de dados para definir com o caminho de blob alterado.

Retornos

Tipo Description
str

O nome do parâmetro de caminho de dados.

datastore_name

Obter o nome do armazenamento de dados usado para o agendamento.

Retornos

Tipo Description
str

O nome do armazenamento de dados.

description

Obter a descrição do agendamento.

Retornos

Tipo Description
str

A descrição da agenda.

id

Obter a ID do agendamento.

Retornos

Tipo Description
str

A ID.

name

Obter o nome do agendamento.

Retornos

Tipo Description
str

O nome.

path_on_datastore

Obter o caminho no armazenamento de dados que o agendamento monitora.

Retornos

Tipo Description
str

O caminho no armazenamento de dados.

pipeline_endpoint_id

Obter a ID do ponto de extremidade do pipeline que o agendamento envia.

Retornos

Tipo Description
str

A ID.

pipeline_id

Obter a ID do pipeline que o agendamento envia.

Retornos

Tipo Description
str

A ID.

polling_interval

Obter a duração, em minutos, entre a sondagem de blobs modificados/adicionados.

Retornos

Tipo Description
int

O intervalo de sondagem.

recurrence

Obter a recorrência do agendamento.

Retornos

Tipo Description

A recorrência do agendamento.

status

Obter o status do agendamento.

Retornos

Tipo Description
str

O status do agendamento.