Compartir a través de


Schedule Clase

Define una programación en la que se va a enviar una canalización.

Una vez publicada una canalización, se puede usar una programación para enviar la canalización en un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.

Inicializar programación.

Herencia
builtins.object
Schedule

Constructor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parámetros

workspace
Workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

id
str
Requerido

Id. de la programación.

name
str
Requerido

Nombre de la programación.

description
str
Requerido

Descripción de la programación.

pipeline_id
str
Requerido

Id. de la canalización que enviará la programación.

status
str
Requerido

Estado de la programación, ya sea "Activa" o "Deshabilitada".

recurrence
ScheduleRecurrence
Requerido

Periodicidad de la programación para la canalización.

datastore_name
str
Requerido

Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: 1) No se admiten almacenes de datos de red virtual. 2) El tipo de autenticación del almacén de datos debe establecerse en "Clave de cuenta".

polling_interval
int
Requerido

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados.

data_path_parameter_name
str
Requerido

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

continue_on_step_failure
bool
Requerido

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
str
Requerido

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
valor predeterminado: None

Proveedor de programación.

workspace
Workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

id
str
Requerido

Id. de la programación.

name
str
Requerido

Nombre de la programación.

description
str
Requerido

Descripción de la programación.

pipeline_id
str
Requerido

Id. de la canalización que enviará la programación.

status
str
Requerido

Estado de la programación, ya sea "Activa" o "Deshabilitada".

recurrence
ScheduleRecurrence
Requerido

Periodicidad de la programación de la canalización.

datastore_name
str
Requerido

Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual.

polling_interval
int
Requerido

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados.

data_path_parameter_name
str
Requerido

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

continue_on_step_failure
bool
Requerido

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
str
Requerido

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Requerido

Proveedor de programación.

pipeline_endpoint_id
str
valor predeterminado: None

Id. del punto de conexión de la canalización que enviará la programación.

Comentarios

Se admiten dos tipos de programaciones. El primero usa la periodicidad de tiempo para enviar una canalización según una programación determinada. El segundo supervisa un elemento AzureBlobDatastore en busca de blobs agregados o modificados y envía una canalización cuando se detectan cambios.

Para crear una programación que envíe una canalización según una programación periódica, use el elemento ScheduleRecurrence al crear la programación.

ScheduleRecurrence se usa al crear una programación para una canalización, como se muestra a continuación:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Esta programación enviará la canalización PublishedPipeline proporcionada cada 12 horas. La canalización enviada se creará en el experimento con el nombre "helloworld".

Para crear una programación que desencadene ejecuciones de canalización en las modificaciones realizadas en una ubicación de Blob Storage, especifique un almacén de datos y la información de datos relacionada al crear la programación.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Tenga en cuenta que los parámetros polling_interval y path_on_datastore son opcionales. El parámetro polling_interval especifica la frecuencia con la que sondear las modificaciones en el almacén de datos y, de manera predeterminada, es de 5 minutos. El parámetro path_on_datastore se puede usar para especificar qué carpeta del almacén de datos se va a supervisar en busca de cambios. Si el valor es None, se supervisa el contenedor del almacén de datos. Nota: No se detectan adiciones o modificaciones de blobs en las subcarpetas de path_on_datastore o el contenedor del almacén de datos (si no se especifica path_on_datastore).

Además, si la canalización se construyó para usar DataPathPipelineParameter para describir una entrada de paso, use el parámetro data_path_parameter_name al crear una programación desencadenada por el almacén de datos para establecer la entrada en el archivo modificado cuando la programación envía una ejecución de canalización.

En el ejemplo siguiente, cuando la programación desencadena la ejecución de la canalización, el valor del parámetro de canalización "input_data" se establecerá en el archivo que se modificó o agregó:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Para más información sobre las programaciones, consulte: https://aka.ms/pl-schedule.

Métodos

create

Crea una programación para una canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

create_for_pipeline_endpoint

Crea una programación para un punto de conexión de canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

disable

Establece la programación en "Deshabilitada" y no disponible para ejecutarse.

enable

Establece la programación en "Activa" y disponible para ejecutarse.

get

Obtiene la programación con el id. especificado.

get_all

Obtiene todas las programaciones del área de trabajo actual.

EN DESUSO: este método está en desuso en favor del método list.

get_last_pipeline_run

Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución.

get_pipeline_runs

Captura las ejecuciones de canalización generadas a partir de la programación.

get_schedules_for_pipeline_endpoint_id

Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado.

get_schedules_for_pipeline_id

Obtiene todas las programaciones para el id. de canalización especificado.

list

Obtiene todas las programaciones del área de trabajo actual.

load_yaml

Carga y lee el archivo YAML para obtener los parámetros de la programación.

El archivo YAML es una manera más de pasar parámetros de programación para crear una programación.

update

Actualiza la programación.

create

Crea una programación para una canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

name
str
Requerido

Nombre de la programación.

pipeline_id
str
Requerido

Id. de la canalización que enviará la programación.

experiment_name
str
Requerido

Nombre del experimento en el que la programación va a enviar ejecuciones.

recurrence
ScheduleRecurrence
valor predeterminado: None

Periodicidad de la programación de la canalización.

description
str
valor predeterminado: None

Descripción de la programación.

pipeline_parameters
dict
valor predeterminado: None

Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro}

wait_for_provisioning
bool
valor predeterminado: False

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

wait_timeout
int
valor predeterminado: 3600

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

datastore
AzureBlobDatastore
valor predeterminado: None

Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad.

polling_interval
int
valor predeterminado: 5

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos.

data_path_parameter_name
str
valor predeterminado: None

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos.

continue_on_step_failure
bool
valor predeterminado: None

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
str
valor predeterminado: None

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Programación creada.

Tipo de valor devuelto

create_for_pipeline_endpoint

Crea una programación para un punto de conexión de canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

name
str
Requerido

Nombre de la programación.

pipeline_endpoint_id
str
Requerido

Id. del punto de conexión de la canalización que enviará la programación.

experiment_name
str
Requerido

Nombre del experimento en el que la programación va a enviar ejecuciones.

recurrence
ScheduleRecurrence
valor predeterminado: None

Periodicidad de la programación de la canalización.

description
str
valor predeterminado: None

Descripción de la programación.

pipeline_parameters
dict
valor predeterminado: None

Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro}

wait_for_provisioning
bool
valor predeterminado: False

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

wait_timeout
int
valor predeterminado: 3600

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

datastore
AzureBlobDatastore
valor predeterminado: None

Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad.

polling_interval
int
valor predeterminado: 5

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos.

data_path_parameter_name
str
valor predeterminado: None

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos.

continue_on_step_failure
bool
valor predeterminado: None

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
str
valor predeterminado: None

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Programación creada.

Tipo de valor devuelto

disable

Establece la programación en "Deshabilitada" y no disponible para ejecutarse.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parámetros

wait_for_provisioning
bool
valor predeterminado: False

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

wait_timeout
int
valor predeterminado: 3600

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

enable

Establece la programación en "Activa" y disponible para ejecutarse.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parámetros

wait_for_provisioning
bool
valor predeterminado: False

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

wait_timeout
int
valor predeterminado: 3600

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

get

Obtiene la programación con el id. especificado.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Área de trabajo en la que se creó la programación.

id
str
Requerido

Id. de la programación.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Objeto de programación

Tipo de valor devuelto

get_all

Obtiene todas las programaciones del área de trabajo actual.

EN DESUSO: este método está en desuso en favor del método list.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Área de trabajo.

active_only
bool
valor predeterminado: True

Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización.

pipeline_id
str
valor predeterminado: None

Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado.

pipeline_endpoint_id
str
valor predeterminado: None

Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Lista de elementos Schedule.

Tipo de valor devuelto

get_last_pipeline_run

Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución.

get_last_pipeline_run()

Devoluciones

Última ejecución de la canalización.

Tipo de valor devuelto

get_pipeline_runs

Captura las ejecuciones de canalización generadas a partir de la programación.

get_pipeline_runs()

Devoluciones

Lista de elementos PipelineRun.

Tipo de valor devuelto

get_schedules_for_pipeline_endpoint_id

Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Área de trabajo.

pipeline_endpoint_id
str
Requerido

Identificador de punto de conexión de canalización.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Lista de elementos Schedule.

Tipo de valor devuelto

get_schedules_for_pipeline_id

Obtiene todas las programaciones para el id. de canalización especificado.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Área de trabajo.

pipeline_id
str
Requerido

Id. de canalización.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Lista de elementos Schedule.

Tipo de valor devuelto

list

Obtiene todas las programaciones del área de trabajo actual.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Área de trabajo.

active_only
bool
valor predeterminado: True

Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización.

pipeline_id
str
valor predeterminado: None

Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado.

pipeline_endpoint_id
str
valor predeterminado: None

Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Lista de elementos Schedule.

Tipo de valor devuelto

load_yaml

Carga y lee el archivo YAML para obtener los parámetros de la programación.

El archivo YAML es una manera más de pasar parámetros de programación para crear una programación.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parámetros

workspace
Workspace
Requerido

Área de trabajo.

filename
str
Requerido

Nombre de archivo YAML con ubicación.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
valor predeterminado: None

El proveedor de flujo de trabajo.

_service_endpoint
str
valor predeterminado: None

Extremo del servicio.

Devoluciones

Diccionario de parámetros y valores de Schedule.

Tipo de valor devuelto

Comentarios

Se admiten dos tipos de archivos YAML para las programaciones. El primero lee y carga la información de periodicidad de la creación de la programación para desencadenar la canalización. El segundo lee y carga la información del almacén de datos de la creación de la programación para desencadenar la canalización.

Ejemplo para crear una programación que envíe una canalización con una periodicidad, como se muestra a continuación:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Ejemplo de archivo YAML test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Ejemplo para crear una programación que envíe una canalización con un almacén de datos, como se muestra a continuación:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Actualiza la programación.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parámetros

name
str
valor predeterminado: None

Nuevo nombre de la programación.

recurrence
ScheduleRecurrence
valor predeterminado: None

Periodicidad de la nueva programación de la canalización.

description
str
valor predeterminado: None

Nueva descripción de la programación.

pipeline_parameters
dict
valor predeterminado: None

Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, nombre de valor}.

status
str
valor predeterminado: None

Nuevo estado de la programación, "Activa" o "Deshabilitada".

wait_for_provisioning
bool
valor predeterminado: False

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

wait_timeout
int
valor predeterminado: 3600

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

datastore
AzureBlobDatastore
valor predeterminado: None

Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual.

polling_interval
int
valor predeterminado: None

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos.

data_path_parameter_name
str
valor predeterminado: None

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

continue_on_step_failure
bool
valor predeterminado: None

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
str
valor predeterminado: None

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

Atributos

continue_on_step_failure

Obtiene el valor de la opción continue_on_step_failure.

Devoluciones

Valor de la opción continue_on_step_failure

Tipo de valor devuelto

data_path_parameter_name

Obtiene el nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

Devoluciones

Nombre del parámetro de ruta de acceso de datos.

Tipo de valor devuelto

str

datastore_name

Obtiene el nombre del almacén de datos utilizado para la programación.

Devoluciones

Nombre del almacén de datos.

Tipo de valor devuelto

str

description

Obtiene la descripción de la programación.

Devoluciones

Descripción de la programación.

Tipo de valor devuelto

str

id

Obtiene el id. de la programación.

Devoluciones

Identificador.

Tipo de valor devuelto

str

name

Obtiene el nombre de la programación.

Devoluciones

Nombre.

Tipo de valor devuelto

str

path_on_datastore

Obtiene la ruta de acceso en el almacén de datos que supervisa la programación.

Devoluciones

Ruta de acceso en el almacén de datos.

Tipo de valor devuelto

str

pipeline_endpoint_id

Obtiene el identificador del punto de conexión de la canalización que envía la programación.

Devoluciones

Identificador.

Tipo de valor devuelto

str

pipeline_id

Obtiene el id. de la canalización que envía la programación.

Devoluciones

Identificador.

Tipo de valor devuelto

str

polling_interval

Obtiene la cantidad de tiempo, en minutos, entre el sondeo de los blobs modificados o agregados.

Devoluciones

Intervalo de sondeo.

Tipo de valor devuelto

int

recurrence

Obtiene la periodicidad de la programación.

Devoluciones

Periodicidad de la programación.

Tipo de valor devuelto

status

Obtiene el estado de la programación.

Devoluciones

Estado de la programación.

Tipo de valor devuelto

str