Share via


Schedule Clase

Define una programación en la que se va a enviar una canalización.

Una vez publicada una canalización, se puede usar una programación para enviar la canalización en un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.

Inicializar programación.

Herencia
builtins.object
Schedule

Constructor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parámetros

Nombre Description
workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

id
Requerido
str

Id. de la programación.

name
Requerido
str

Nombre de la programación.

description
Requerido
str

Descripción de la programación.

pipeline_id
Requerido
str

Id. de la canalización que enviará la programación.

status
Requerido
str

Estado de la programación, ya sea "Activa" o "Deshabilitada".

recurrence
Requerido

Periodicidad de la programación para la canalización.

datastore_name
Requerido
str

Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: 1) No se admiten almacenes de datos de red virtual. 2) El tipo de autenticación del almacén de datos debe establecerse en "Clave de cuenta".

polling_interval
Requerido
int

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados.

data_path_parameter_name
Requerido
str

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

continue_on_step_failure
Requerido

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
Requerido
str

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Proveedor de programación.

valor predeterminado: None
workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

id
Requerido
str

Id. de la programación.

name
Requerido
str

Nombre de la programación.

description
Requerido
str

Descripción de la programación.

pipeline_id
Requerido
str

Id. de la canalización que enviará la programación.

status
Requerido
str

Estado de la programación, ya sea "Activa" o "Deshabilitada".

recurrence
Requerido

Periodicidad de la programación de la canalización.

datastore_name
Requerido
str

Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual.

polling_interval
Requerido
int

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados.

data_path_parameter_name
Requerido
str

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

continue_on_step_failure
Requerido

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

path_on_datastore
Requerido
str

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

_schedule_provider
Requerido
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>

Proveedor de programación.

pipeline_endpoint_id
str

Id. del punto de conexión de la canalización que enviará la programación.

valor predeterminado: None

Comentarios

Se admiten dos tipos de programaciones. El primero usa la periodicidad de tiempo para enviar una canalización según una programación determinada. El segundo supervisa un elemento AzureBlobDatastore en busca de blobs agregados o modificados y envía una canalización cuando se detectan cambios.

Para crear una programación que envíe una canalización según una programación periódica, use el elemento ScheduleRecurrence al crear la programación.

ScheduleRecurrence se usa al crear una programación para una canalización, como se muestra a continuación:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Esta programación enviará la canalización PublishedPipeline proporcionada cada 12 horas. La canalización enviada se creará en el experimento con el nombre "helloworld".

Para crear una programación que desencadene ejecuciones de canalización en las modificaciones realizadas en una ubicación de Blob Storage, especifique un almacén de datos y la información de datos relacionada al crear la programación.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Tenga en cuenta que los parámetros polling_interval y path_on_datastore son opcionales. El parámetro polling_interval especifica la frecuencia con la que sondear las modificaciones en el almacén de datos y, de manera predeterminada, es de 5 minutos. El parámetro path_on_datastore se puede usar para especificar qué carpeta del almacén de datos se va a supervisar en busca de cambios. Si el valor es None, se supervisa el contenedor del almacén de datos. Nota: No se detectan adiciones o modificaciones de blobs en las subcarpetas de path_on_datastore o el contenedor del almacén de datos (si no se especifica path_on_datastore).

Además, si la canalización se construyó para usar DataPathPipelineParameter para describir una entrada de paso, use el parámetro data_path_parameter_name al crear una programación desencadenada por el almacén de datos para establecer la entrada en el archivo modificado cuando la programación envía una ejecución de canalización.

En el ejemplo siguiente, cuando la programación desencadena la ejecución de la canalización, el valor del parámetro de canalización "input_data" se establecerá en el archivo que se modificó o agregó:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Para más información sobre las programaciones, consulte: https://aka.ms/pl-schedule.

Métodos

create

Crea una programación para una canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

create_for_pipeline_endpoint

Crea una programación para un punto de conexión de canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

disable

Establece la programación en "Deshabilitada" y no disponible para ejecutarse.

enable

Establece la programación en "Activa" y disponible para ejecutarse.

get

Obtiene la programación con el id. especificado.

get_all

Obtiene todas las programaciones del área de trabajo actual.

EN DESUSO: este método está en desuso en favor del método list.

get_last_pipeline_run

Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución.

get_pipeline_runs

Captura las ejecuciones de canalización generadas a partir de la programación.

get_schedules_for_pipeline_endpoint_id

Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado.

get_schedules_for_pipeline_id

Obtiene todas las programaciones para el id. de canalización especificado.

list

Obtiene todas las programaciones del área de trabajo actual.

load_yaml

Carga y lee el archivo YAML para obtener los parámetros de la programación.

El archivo YAML es una manera más de pasar parámetros de programación para crear una programación.

update

Actualiza la programación.

create

Crea una programación para una canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

name
Requerido
str

Nombre de la programación.

pipeline_id
Requerido
str

Id. de la canalización que enviará la programación.

experiment_name
Requerido
str

Nombre del experimento en el que la programación va a enviar ejecuciones.

recurrence

Periodicidad de la programación de la canalización.

valor predeterminado: None
description
str

Descripción de la programación.

valor predeterminado: None
pipeline_parameters

Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro}

valor predeterminado: None
wait_for_provisioning

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

valor predeterminado: False
wait_timeout
int

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

valor predeterminado: 3600
datastore

Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad.

valor predeterminado: None
polling_interval
int

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: 5
data_path_parameter_name
str

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: None
continue_on_step_failure

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

valor predeterminado: None
path_on_datastore
str

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Programación creada.

create_for_pipeline_endpoint

Crea una programación para un punto de conexión de canalización.

Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Objeto de área de trabajo al que pertenecerá esta programación.

name
Requerido
str

Nombre de la programación.

pipeline_endpoint_id
Requerido
str

Id. del punto de conexión de la canalización que enviará la programación.

experiment_name
Requerido
str

Nombre del experimento en el que la programación va a enviar ejecuciones.

recurrence

Periodicidad de la programación de la canalización.

valor predeterminado: None
description
str

Descripción de la programación.

valor predeterminado: None
pipeline_parameters

Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro}

valor predeterminado: None
wait_for_provisioning

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

valor predeterminado: False
wait_timeout
int

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

valor predeterminado: 3600
datastore

Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad.

valor predeterminado: None
polling_interval
int

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: 5
data_path_parameter_name
str

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: None
continue_on_step_failure

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

valor predeterminado: None
path_on_datastore
str

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Programación creada.

disable

Establece la programación en "Deshabilitada" y no disponible para ejecutarse.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parámetros

Nombre Description
wait_for_provisioning

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

valor predeterminado: False
wait_timeout
int

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

valor predeterminado: 3600

enable

Establece la programación en "Activa" y disponible para ejecutarse.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parámetros

Nombre Description
wait_for_provisioning

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

valor predeterminado: False
wait_timeout
int

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

valor predeterminado: 3600

get

Obtiene la programación con el id. especificado.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Área de trabajo en la que se creó la programación.

id
Requerido
str

Id. de la programación.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Objeto de programación

get_all

Obtiene todas las programaciones del área de trabajo actual.

EN DESUSO: este método está en desuso en favor del método list.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Área de trabajo.

active_only

Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización.

valor predeterminado: True
pipeline_id
str

Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado.

valor predeterminado: None
pipeline_endpoint_id
str

Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado.

valor predeterminado: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Lista de elementos Schedule.

get_last_pipeline_run

Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución.

get_last_pipeline_run()

Devoluciones

Tipo Description

Última ejecución de la canalización.

get_pipeline_runs

Captura las ejecuciones de canalización generadas a partir de la programación.

get_pipeline_runs()

Devoluciones

Tipo Description

Lista de elementos PipelineRun.

get_schedules_for_pipeline_endpoint_id

Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Área de trabajo.

pipeline_endpoint_id
Requerido
str

Identificador de punto de conexión de canalización.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Lista de elementos Schedule.

get_schedules_for_pipeline_id

Obtiene todas las programaciones para el id. de canalización especificado.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Área de trabajo.

pipeline_id
Requerido
str

Id. de canalización.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Lista de elementos Schedule.

list

Obtiene todas las programaciones del área de trabajo actual.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Área de trabajo.

active_only

Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización.

valor predeterminado: True
pipeline_id
str

Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado.

valor predeterminado: None
pipeline_endpoint_id
str

Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado.

valor predeterminado: None
_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Lista de elementos Schedule.

load_yaml

Carga y lee el archivo YAML para obtener los parámetros de la programación.

El archivo YAML es una manera más de pasar parámetros de programación para crear una programación.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parámetros

Nombre Description
workspace
Requerido

Área de trabajo.

filename
Requerido
str

Nombre de archivo YAML con ubicación.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>

El proveedor de flujo de trabajo.

valor predeterminado: None
_service_endpoint
str

Extremo del servicio.

valor predeterminado: None

Devoluciones

Tipo Description

Diccionario de parámetros y valores de Schedule.

Comentarios

Se admiten dos tipos de archivos YAML para las programaciones. El primero lee y carga la información de periodicidad de la creación de la programación para desencadenar la canalización. El segundo lee y carga la información del almacén de datos de la creación de la programación para desencadenar la canalización.

Ejemplo para crear una programación que envíe una canalización con una periodicidad, como se muestra a continuación:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Ejemplo de archivo YAML test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Ejemplo para crear una programación que envíe una canalización con un almacén de datos, como se muestra a continuación:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Actualiza la programación.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parámetros

Nombre Description
name
str

Nuevo nombre de la programación.

valor predeterminado: None
recurrence

Periodicidad de la nueva programación de la canalización.

valor predeterminado: None
description
str

Nueva descripción de la programación.

valor predeterminado: None
pipeline_parameters

Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, nombre de valor}.

valor predeterminado: None
status
str

Nuevo estado de la programación, "Activa" o "Deshabilitada".

valor predeterminado: None
wait_for_provisioning

Indica si se va a esperar a que se complete el aprovisionamiento de la programación.

valor predeterminado: False
wait_timeout
int

El número de segundos que se va a esperar antes de que se agote el tiempo de espera.

valor predeterminado: 3600
datastore

Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual.

valor predeterminado: None
polling_interval
int

La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos.

valor predeterminado: None
data_path_parameter_name
str

El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

valor predeterminado: None
continue_on_step_failure

Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.

valor predeterminado: None
path_on_datastore
str

Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.

valor predeterminado: None

Atributos

continue_on_step_failure

Obtiene el valor de la opción continue_on_step_failure.

Devoluciones

Tipo Description

Valor de la opción continue_on_step_failure

data_path_parameter_name

Obtiene el nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.

Devoluciones

Tipo Description
str

Nombre del parámetro de ruta de acceso de datos.

datastore_name

Obtiene el nombre del almacén de datos utilizado para la programación.

Devoluciones

Tipo Description
str

Nombre del almacén de datos.

description

Obtiene la descripción de la programación.

Devoluciones

Tipo Description
str

Descripción de la programación.

id

Obtiene el id. de la programación.

Devoluciones

Tipo Description
str

Identificador.

name

Obtiene el nombre de la programación.

Devoluciones

Tipo Description
str

Nombre.

path_on_datastore

Obtiene la ruta de acceso en el almacén de datos que supervisa la programación.

Devoluciones

Tipo Description
str

Ruta de acceso en el almacén de datos.

pipeline_endpoint_id

Obtiene el identificador del punto de conexión de la canalización que envía la programación.

Devoluciones

Tipo Description
str

Identificador.

pipeline_id

Obtiene el id. de la canalización que envía la programación.

Devoluciones

Tipo Description
str

Identificador.

polling_interval

Obtiene la cantidad de tiempo, en minutos, entre el sondeo de los blobs modificados o agregados.

Devoluciones

Tipo Description
int

Intervalo de sondeo.

recurrence

Obtiene la periodicidad de la programación.

Devoluciones

Tipo Description

Periodicidad de la programación.

status

Obtiene el estado de la programación.

Devoluciones

Tipo Description
str

Estado de la programación.