Partilhar via


Schedule Classe

Define um cronograma para enviar um pipeline.

Depois que um Pipeline é publicado, um Schedule pode ser usado para enviar o Pipeline em um intervalo especificado ou quando alterações em um local de armazenamento de Blob são detetadas.

Inicializar agenda.

Construtor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parâmetros

Name Description
workspace
Necessário

O objeto de espaço de trabalho ao qual esta Agenda pertencerá.

id
Necessário
str

O ID da agenda.

name
Necessário
str

O nome da Agenda.

description
Necessário
str

A descrição do horário.

pipeline_id
Necessário
str

O ID do pipeline que o cronograma enviará.

status
Necessário
str

O status da agenda, 'Ativo' ou 'Desativado'.

recurrence
Necessário

A recorrência do cronograma para o pipeline.

datastore_name
Necessário
str

O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Nota: 1) Os Datastores VNET não são suportados. 2) O tipo de autenticação para o armazenamento de dados deve ser definido como "Chave de conta".

polling_interval
Necessário
int

Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados.

data_path_parameter_name
Necessário
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

continue_on_step_failure
Necessário

Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline.

path_on_datastore
Necessário
str

Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

O provedor de agendamento.

Default value: None
workspace
Necessário

O objeto de espaço de trabalho ao qual esta Agenda pertencerá.

id
Necessário
str

O ID da agenda.

name
Necessário
str

O nome da Agenda.

description
Necessário
str

A descrição do horário.

pipeline_id
Necessário
str

O ID do pipeline que o cronograma enviará.

status
Necessário
str

O status da agenda, 'Ativo' ou 'Desativado'.

recurrence
Necessário

A recorrência do cronograma do pipeline.

datastore_name
Necessário
str

O nome do armazenamento de dados para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados.

polling_interval
Necessário
int

Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados.

data_path_parameter_name
Necessário
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

continue_on_step_failure
Necessário

Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline.

path_on_datastore
Necessário
str

Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore.

_schedule_provider
Necessário
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

O provedor de agendamento.

pipeline_endpoint_id
str

A ID do ponto de extremidade do pipeline que o agendamento enviará.

Default value: None

Observações

São suportados dois tipos de horários. O primeiro usa a recorrência de tempo para enviar um Pipeline em um determinado cronograma. O segundo monitora um AzureBlobDatastore para blobs adicionados ou modificados e envia um Pipeline quando alterações são detetadas.

Para criar uma Agenda que enviará um Pipeline em uma agenda recorrente, use o ScheduleRecurrence ao criar a Agenda.

Um ScheduleRecurrence é usado ao criar um Schedule para um Pipeline da seguinte maneira:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Este Cronograma enviará o fornecido PublishedPipeline a cada 12 horas. O Pipeline submetido será criado sob o Experimento com o nome "helloworld".

Para criar um Schedule que acionará PipelineRuns em modificações em um local de armazenamento de Blob, especifique um Datastore e informações de dados relacionadas ao criar o Schedule.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Observe que os parâmetros polling_interval e path_on_datastore são opcionais. O polling_interval especifica a frequência de pesquisa de modificações no Datastore e, por padrão, é de 5 minutos. path_on_datastore pode ser usado para especificar qual pasta no Datastore monitorar alterações. Se Nenhum, o contêiner Datastore será monitorado. Nota: adições/modificações de blob em subpastas do path_on_datastore ou do contêiner Datastore (se nenhum path_on_datastore for especificado) não são detetadas.

Além disso, se o Pipeline foi construído para usar um DataPathPipelineParameter para descrever uma entrada de etapa, use o parâmetro data_path_parameter_name ao criar um Schedule acionado por Datastore para definir a entrada para o arquivo alterado quando um PipelineRun for enviado pelo Schedule.

No exemplo a seguir, quando o Schedule aciona o PipelineRun, o valor do "input_data" PipelineParameter será definido como o arquivo que foi modificado/adicionado:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Para obter mais informações sobre horários, consulte: https://aka.ms/pl-schedule.

Métodos

create

Crie uma agenda para um pipeline.

Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições.

create_for_pipeline_endpoint

Crie uma agenda para um ponto de extremidade de pipeline.

Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições.

disable

Defina a agenda como 'Desativado' e indisponível para execução.

enable

Defina o agendamento como 'Ativo' e disponível para execução.

get

Obtenha o agendamento com o ID fornecido.

get_all

Obtenha todas as agendas no espaço de trabalho atual.

DEPRECATED: Este método está sendo preterido em favor do list método.

get_last_pipeline_run

Buscar a última execução de pipeline enviada pela agenda. Retorna Nenhum se nenhuma execução tiver sido enviada.

get_pipeline_runs

Buscar as execuções de pipeline que foram geradas a partir da programação.

get_schedules_for_pipeline_endpoint_id

Obtenha todas as agendas para a ID de ponto de extremidade de pipeline fornecida.

get_schedules_for_pipeline_id

Obtenha todas as agendas para o ID de pipeline fornecido.

list

Obtenha todas as agendas no espaço de trabalho atual.

load_yaml

Carregue e leia o arquivo YAML para obter parâmetros de agendamento.

O arquivo YAML é mais uma maneira de passar parâmetros de agenda para criar agenda.

update

Atualize o cronograma.

create

Crie uma agenda para um pipeline.

Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O objeto de espaço de trabalho ao qual esta Agenda pertencerá.

name
Necessário
str

O nome da Agenda.

pipeline_id
Necessário
str

O ID do pipeline que o cronograma enviará.

experiment_name
Necessário
str

O nome do experimento que o cronograma enviará é executado.

recurrence

A recorrência do cronograma do pipeline.

Default value: None
description
str

A descrição do horário.

Default value: None
pipeline_parameters

Um dicionário de parâmetros para atribuir novos valores {param name, param value}

Default value: None
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento do agendamento.

Default value: False
wait_timeout
int

O número de segundos a aguardar antes do tempo limite.

Default value: 3600
datastore

O Datastore para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados. Não pode usar com uma recorrência.

Default value: None
polling_interval
int

Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. A predefinição é 5 minutos. Suporte apenas para agendas DataStore.

Default value: 5
data_path_parameter_name
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Suporte apenas para agendas DataStore.

Default value: None
continue_on_step_failure

Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline.

Default value: None
path_on_datastore
str

Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

O cronograma criado.

create_for_pipeline_endpoint

Crie uma agenda para um ponto de extremidade de pipeline.

Especifique a recorrência para uma agenda baseada em tempo ou especifique um Datastore, polling_interval (opcional) e data_path_parameter_name (opcional) para criar uma agenda que monitorará o local do Datastore em busca de modificações/adições.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O objeto de espaço de trabalho ao qual esta Agenda pertencerá.

name
Necessário
str

O nome da Agenda.

pipeline_endpoint_id
Necessário
str

A ID do ponto de extremidade do pipeline que o agendamento enviará.

experiment_name
Necessário
str

O nome do experimento que o cronograma enviará é executado.

recurrence

A recorrência do cronograma do pipeline.

Default value: None
description
str

A descrição do horário.

Default value: None
pipeline_parameters

Um dicionário de parâmetros para atribuir novos valores {param name, param value}

Default value: None
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento do agendamento.

Default value: False
wait_timeout
int

O número de segundos a aguardar antes do tempo limite.

Default value: 3600
datastore

O Datastore para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados. Não pode usar com uma recorrência.

Default value: None
polling_interval
int

Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. A predefinição é 5 minutos. Suporte apenas para agendas DataStore.

Default value: 5
data_path_parameter_name
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado. Suporte apenas para agendas DataStore.

Default value: None
continue_on_step_failure

Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline.

Default value: None
path_on_datastore
str

Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

O cronograma criado.

disable

Defina a agenda como 'Desativado' e indisponível para execução.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parâmetros

Name Description
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento do agendamento.

Default value: False
wait_timeout
int

Número de segundos a aguardar antes do tempo limite.

Default value: 3600

enable

Defina o agendamento como 'Ativo' e disponível para execução.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parâmetros

Name Description
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento do agendamento.

Default value: False
wait_timeout
int

Número de segundos a aguardar antes do tempo limite.

Default value: 3600

get

Obtenha o agendamento com o ID fornecido.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O espaço de trabalho no qual a agenda foi criada.

id
Necessário
str

ID do horário.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

Objeto de agendamento

get_all

Obtenha todas as agendas no espaço de trabalho atual.

DEPRECATED: Este método está sendo preterido em favor do list método.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O espaço de trabalho.

active_only

Se verdadeiro, retorne apenas as agendas que estão ativas no momento. Só se aplica se nenhum ID de pipeline for fornecido.

Default value: True
pipeline_id
str

Se fornecido, apenas retorne agendamentos para o pipeline com a id fornecida.

Default value: None
pipeline_endpoint_id
str

Se fornecido, apenas retorne agendamentos para o ponto de extremidade do pipeline com a id fornecida.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

Uma lista de Schedule.

get_last_pipeline_run

Buscar a última execução de pipeline enviada pela agenda. Retorna Nenhum se nenhuma execução tiver sido enviada.

get_last_pipeline_run()

Devoluções

Tipo Description

O último pipeline é executado.

get_pipeline_runs

Buscar as execuções de pipeline que foram geradas a partir da programação.

get_pipeline_runs()

Devoluções

Tipo Description

Uma lista de PipelineRun.

get_schedules_for_pipeline_endpoint_id

Obtenha todas as agendas para a ID de ponto de extremidade de pipeline fornecida.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O espaço de trabalho.

pipeline_endpoint_id
Necessário
str

A ID do ponto de extremidade do pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

Uma lista de Schedule.

get_schedules_for_pipeline_id

Obtenha todas as agendas para o ID de pipeline fornecido.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O espaço de trabalho.

pipeline_id
Necessário
str

O id do pipeline.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

Uma lista de Schedule.

list

Obtenha todas as agendas no espaço de trabalho atual.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O espaço de trabalho.

active_only

Se verdadeiro, retorne apenas as agendas que estão ativas no momento. Só se aplica se nenhum ID de pipeline for fornecido.

Default value: True
pipeline_id
str

Se fornecido, apenas retorne agendamentos para o pipeline com a id fornecida.

Default value: None
pipeline_endpoint_id
str

Se fornecido, apenas retorne agendamentos para o ponto de extremidade do pipeline com a id fornecida.

Default value: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

Uma lista de Schedule.

load_yaml

Carregue e leia o arquivo YAML para obter parâmetros de agendamento.

O arquivo YAML é mais uma maneira de passar parâmetros de agenda para criar agenda.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parâmetros

Name Description
workspace
Necessário

O espaço de trabalho.

filename
Necessário
str

O nome do arquivo YAML com localização.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

O provedor de fluxo de trabalho.

Default value: None
_service_endpoint
str

O ponto de extremidade do serviço.

Default value: None

Devoluções

Tipo Description

Um dicionário de Schedule parâmetros e valores.

Observações

Dois tipos de YAML são suportados para Agendas. O primeiro lê e carrega informações de recorrência para criação de agendamento para acionar pipeline. O segundo lê e carrega informações do armazenamento de dados para agendar a criação para acionar o pipeline.

Exemplo para criar um cronograma que enviará um pipeline em uma recorrência, da seguinte maneira:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Exemplo de arquivo YAML test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Exemplo para criar uma Agenda que enviará um Pipeline em um armazenamento de dados, da seguinte maneira:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Atualize o cronograma.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parâmetros

Name Description
name
str

O novo nome da Agenda.

Default value: None
recurrence

A recorrência do novo cronograma do gasoduto.

Default value: None
description
str

A nova descrição do calendário.

Default value: None
pipeline_parameters

Um dicionário de parâmetros para atribuir novos valores {param name, param value}.

Default value: None
status
str

O novo status da agenda: 'Ativo' ou 'Desativado'.

Default value: None
wait_for_provisioning

Se deve aguardar a conclusão do provisionamento do agendamento.

Default value: False
wait_timeout
int

O número de segundos a aguardar antes do tempo limite.

Default value: 3600
datastore

O Datastore para monitorar blobs modificados/adicionados. Nota: Os armazenamentos de dados VNET não são suportados.

Default value: None
polling_interval
int

Quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados. A predefinição é 5 minutos.

Default value: None
data_path_parameter_name
str

O nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

Default value: None
continue_on_step_failure

Se a execução de outras etapas no PipelineRun enviado deve continuar se uma etapa falhar. Se fornecido, isso substituirá a configuração de continue_on_step_failure para o Pipeline.

Default value: None
path_on_datastore
str

Opcional. O caminho no armazenamento de dados para monitorar blobs modificados/adicionados. Nota: o path_on_datastore estará sob o contêiner para o armazenamento de dados, portanto, o caminho real que o agendamento monitorará será container/path_on_datastore. Se nenhum, o contêiner de armazenamento de dados é monitorado. As adições/modificações feitas em uma subpasta do path_on_datastore não são monitoradas. Suporte apenas para agendas DataStore.

Default value: None

Atributos

continue_on_step_failure

Obtenha o valor da continue_on_step_failure configuração.

Devoluções

Tipo Description

O valor da continue_on_step_failure configuração

data_path_parameter_name

Obtenha o nome do parâmetro de pipeline de caminho de dados a ser definido com o caminho de blob alterado.

Devoluções

Tipo Description
str

O nome do parâmetro de caminho de dados.

datastore_name

Obtenha o nome do Datastore usado para a agenda.

Devoluções

Tipo Description
str

O nome do armazenamento de dados.

description

Obtenha a descrição do horário.

Devoluções

Tipo Description
str

A descrição do horário.

id

Obtenha o ID da agenda.

Devoluções

Tipo Description
str

O ID.

name

Obtenha o nome da agenda.

Devoluções

Tipo Description
str

O nome.

path_on_datastore

Obtenha o caminho no armazenamento de dados que a agenda monitora.

Devoluções

Tipo Description
str

O caminho no armazenamento de dados.

pipeline_endpoint_id

Obtenha a ID do ponto de extremidade do pipeline que a agenda envia.

Devoluções

Tipo Description
str

O ID.

pipeline_id

Obtenha o ID do pipeline que o cronograma envia.

Devoluções

Tipo Description
str

O ID.

polling_interval

Obtenha quanto tempo, em minutos, entre a sondagem para blobs modificados/adicionados.

Devoluções

Tipo Description
int

O intervalo de votação.

recurrence

Obtenha a recorrência do cronograma.

Devoluções

Tipo Description

A recorrência do cronograma.

status

Obtenha o status da programação.

Devoluções

Tipo Description
str

O status do cronograma.