Schedule Clase
Define una programación en la que se va a enviar una canalización.
Una vez publicada una canalización, se puede usar una programación para enviar la canalización en un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.
Inicializar programación.
- Herencia
-
builtins.objectSchedule
Constructor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Objeto de área de trabajo al que pertenecerá esta programación. |
id
Requerido
|
Id. de la programación. |
name
Requerido
|
Nombre de la programación. |
description
Requerido
|
Descripción de la programación. |
pipeline_id
Requerido
|
Id. de la canalización que enviará la programación. |
status
Requerido
|
Estado de la programación, ya sea "Activa" o "Deshabilitada". |
recurrence
Requerido
|
Periodicidad de la programación para la canalización. |
datastore_name
Requerido
|
Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: 1) No se admiten almacenes de datos de red virtual. 2) El tipo de autenticación del almacén de datos debe establecerse en "Clave de cuenta". |
polling_interval
Requerido
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. |
data_path_parameter_name
Requerido
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. |
continue_on_step_failure
Requerido
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización. |
path_on_datastore
Requerido
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos. |
_schedule_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Proveedor de programación. Valor predeterminado: None
|
workspace
Requerido
|
Objeto de área de trabajo al que pertenecerá esta programación. |
id
Requerido
|
Id. de la programación. |
name
Requerido
|
Nombre de la programación. |
description
Requerido
|
Descripción de la programación. |
pipeline_id
Requerido
|
Id. de la canalización que enviará la programación. |
status
Requerido
|
Estado de la programación, ya sea "Activa" o "Deshabilitada". |
recurrence
Requerido
|
Periodicidad de la programación de la canalización. |
datastore_name
Requerido
|
Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. |
polling_interval
Requerido
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. |
data_path_parameter_name
Requerido
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. |
continue_on_step_failure
Requerido
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización. |
path_on_datastore
Requerido
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos. |
_schedule_provider
Requerido
|
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Proveedor de programación. |
pipeline_endpoint_id
|
Id. del punto de conexión de la canalización que enviará la programación. Valor predeterminado: None
|
Comentarios
Se admiten dos tipos de programaciones. El primero usa la periodicidad de tiempo para enviar una canalización según una programación determinada. El segundo supervisa un elemento AzureBlobDatastore en busca de blobs agregados o modificados y envía una canalización cuando se detectan cambios.
Para crear una programación que envíe una canalización según una programación periódica, use el elemento ScheduleRecurrence al crear la programación.
ScheduleRecurrence se usa al crear una programación para una canalización, como se muestra a continuación:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Esta programación enviará la canalización PublishedPipeline proporcionada cada 12 horas. La canalización enviada se creará en el experimento con el nombre "helloworld".
Para crear una programación que desencadene ejecuciones de canalización en las modificaciones realizadas en una ubicación de Blob Storage, especifique un almacén de datos y la información de datos relacionada al crear la programación.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Tenga en cuenta que los parámetros polling_interval y path_on_datastore son opcionales. El parámetro polling_interval especifica la frecuencia con la que sondear las modificaciones en el almacén de datos y, de manera predeterminada, es de 5 minutos. El parámetro path_on_datastore se puede usar para especificar qué carpeta del almacén de datos se va a supervisar en busca de cambios. Si el valor es None, se supervisa el contenedor del almacén de datos. Nota: No se detectan adiciones o modificaciones de blobs en las subcarpetas de path_on_datastore o el contenedor del almacén de datos (si no se especifica path_on_datastore).
Además, si la canalización se construyó para usar DataPathPipelineParameter para describir una entrada de paso, use el parámetro data_path_parameter_name al crear una programación desencadenada por el almacén de datos para establecer la entrada en el archivo modificado cuando la programación envía una ejecución de canalización.
En el ejemplo siguiente, cuando la programación desencadena la ejecución de la canalización, el valor del parámetro de canalización "input_data" se establecerá en el archivo que se modificó o agregó:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Para más información sobre las programaciones, consulte: https://aka.ms/pl-schedule.
Métodos
create |
Crea una programación para una canalización. Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones. |
create_for_pipeline_endpoint |
Crea una programación para un punto de conexión de canalización. Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones. |
disable |
Establece la programación en "Deshabilitada" y no disponible para ejecutarse. |
enable |
Establece la programación en "Activa" y disponible para ejecutarse. |
get |
Obtiene la programación con el id. especificado. |
get_all |
Obtiene todas las programaciones del área de trabajo actual. EN DESUSO: este método está en desuso en favor del método list. |
get_last_pipeline_run |
Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución. |
get_pipeline_runs |
Captura las ejecuciones de canalización generadas a partir de la programación. |
get_schedules_for_pipeline_endpoint_id |
Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado. |
get_schedules_for_pipeline_id |
Obtiene todas las programaciones para el id. de canalización especificado. |
list |
Obtiene todas las programaciones del área de trabajo actual. |
load_yaml |
Carga y lee el archivo YAML para obtener los parámetros de la programación. El archivo YAML es una manera más de pasar parámetros de programación para crear una programación. |
update |
Actualiza la programación. |
create
Crea una programación para una canalización.
Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Objeto de área de trabajo al que pertenecerá esta programación. |
name
Requerido
|
Nombre de la programación. |
pipeline_id
Requerido
|
Id. de la canalización que enviará la programación. |
experiment_name
Requerido
|
Nombre del experimento en el que la programación va a enviar ejecuciones. |
recurrence
|
Periodicidad de la programación de la canalización. Valor predeterminado: None
|
description
|
Descripción de la programación. Valor predeterminado: None
|
pipeline_parameters
|
Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro} Valor predeterminado: None
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
datastore
|
Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad. Valor predeterminado: None
|
polling_interval
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: 5
|
data_path_parameter_name
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
continue_on_step_failure
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización. Valor predeterminado: None
|
path_on_datastore
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Programación creada. |
create_for_pipeline_endpoint
Crea una programación para un punto de conexión de canalización.
Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Objeto de área de trabajo al que pertenecerá esta programación. |
name
Requerido
|
Nombre de la programación. |
pipeline_endpoint_id
Requerido
|
Id. del punto de conexión de la canalización que enviará la programación. |
experiment_name
Requerido
|
Nombre del experimento en el que la programación va a enviar ejecuciones. |
recurrence
|
Periodicidad de la programación de la canalización. Valor predeterminado: None
|
description
|
Descripción de la programación. Valor predeterminado: None
|
pipeline_parameters
|
Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro} Valor predeterminado: None
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
datastore
|
Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad. Valor predeterminado: None
|
polling_interval
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: 5
|
data_path_parameter_name
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
continue_on_step_failure
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización. Valor predeterminado: None
|
path_on_datastore
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Programación creada. |
disable
Establece la programación en "Deshabilitada" y no disponible para ejecutarse.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parámetros
Nombre | Description |
---|---|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
enable
Establece la programación en "Activa" y disponible para ejecutarse.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parámetros
Nombre | Description |
---|---|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
get
Obtiene la programación con el id. especificado.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo en la que se creó la programación. |
id
Requerido
|
Id. de la programación. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Objeto de programación |
get_all
Obtiene todas las programaciones del área de trabajo actual.
EN DESUSO: este método está en desuso en favor del método list.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo. |
active_only
|
Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización. Valor predeterminado: True
|
pipeline_id
|
Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado. Valor predeterminado: None
|
pipeline_endpoint_id
|
Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado. Valor predeterminado: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Lista de elementos Schedule. |
get_last_pipeline_run
Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución.
get_last_pipeline_run()
Devoluciones
Tipo | Description |
---|---|
Última ejecución de la canalización. |
get_pipeline_runs
Captura las ejecuciones de canalización generadas a partir de la programación.
get_pipeline_runs()
Devoluciones
Tipo | Description |
---|---|
Lista de elementos PipelineRun. |
get_schedules_for_pipeline_endpoint_id
Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo. |
pipeline_endpoint_id
Requerido
|
Identificador de punto de conexión de canalización. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Lista de elementos Schedule. |
get_schedules_for_pipeline_id
Obtiene todas las programaciones para el id. de canalización especificado.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo. |
pipeline_id
Requerido
|
Id. de canalización. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Lista de elementos Schedule. |
list
Obtiene todas las programaciones del área de trabajo actual.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo. |
active_only
|
Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización. Valor predeterminado: True
|
pipeline_id
|
Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado. Valor predeterminado: None
|
pipeline_endpoint_id
|
Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado. Valor predeterminado: None
|
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Lista de elementos Schedule. |
load_yaml
Carga y lee el archivo YAML para obtener los parámetros de la programación.
El archivo YAML es una manera más de pasar parámetros de programación para crear una programación.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Área de trabajo. |
filename
Requerido
|
Nombre de archivo YAML con ubicación. |
_workflow_provider
|
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo. Valor predeterminado: None
|
_service_endpoint
|
Extremo del servicio. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Diccionario de parámetros y valores de Schedule. |
Comentarios
Se admiten dos tipos de archivos YAML para las programaciones. El primero lee y carga la información de periodicidad de la creación de la programación para desencadenar la canalización. El segundo lee y carga la información del almacén de datos de la creación de la programación para desencadenar la canalización.
Ejemplo para crear una programación que envíe una canalización con una periodicidad, como se muestra a continuación:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Ejemplo de archivo YAML test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Ejemplo para crear una programación que envíe una canalización con un almacén de datos, como se muestra a continuación:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Actualiza la programación.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parámetros
Nombre | Description |
---|---|
name
|
Nuevo nombre de la programación. Valor predeterminado: None
|
recurrence
|
Periodicidad de la nueva programación de la canalización. Valor predeterminado: None
|
description
|
Nueva descripción de la programación. Valor predeterminado: None
|
pipeline_parameters
|
Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, nombre de valor}. Valor predeterminado: None
|
status
|
Nuevo estado de la programación, "Activa" o "Deshabilitada". Valor predeterminado: None
|
wait_for_provisioning
|
Indica si se va a esperar a que se complete el aprovisionamiento de la programación. Valor predeterminado: False
|
wait_timeout
|
El número de segundos que se va a esperar antes de que se agote el tiempo de espera. Valor predeterminado: 3600
|
datastore
|
Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. Valor predeterminado: None
|
polling_interval
|
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Valor predeterminado: None
|
data_path_parameter_name
|
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Valor predeterminado: None
|
continue_on_step_failure
|
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización. Valor predeterminado: None
|
path_on_datastore
|
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos. Valor predeterminado: None
|
Atributos
continue_on_step_failure
Obtiene el valor de la opción continue_on_step_failure
.
Devoluciones
Tipo | Description |
---|---|
Valor de la opción |
data_path_parameter_name
Obtiene el nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.
Devoluciones
Tipo | Description |
---|---|
Nombre del parámetro de ruta de acceso de datos. |
datastore_name
Obtiene el nombre del almacén de datos utilizado para la programación.
Devoluciones
Tipo | Description |
---|---|
Nombre del almacén de datos. |
description
Obtiene la descripción de la programación.
Devoluciones
Tipo | Description |
---|---|
Descripción de la programación. |
id
name
path_on_datastore
Obtiene la ruta de acceso en el almacén de datos que supervisa la programación.
Devoluciones
Tipo | Description |
---|---|
Ruta de acceso en el almacén de datos. |
pipeline_endpoint_id
Obtiene el identificador del punto de conexión de la canalización que envía la programación.
Devoluciones
Tipo | Description |
---|---|
Identificador. |
pipeline_id
Obtiene el id. de la canalización que envía la programación.
Devoluciones
Tipo | Description |
---|---|
Identificador. |
polling_interval
Obtiene la cantidad de tiempo, en minutos, entre el sondeo de los blobs modificados o agregados.
Devoluciones
Tipo | Description |
---|---|
Intervalo de sondeo. |
recurrence
Obtiene la periodicidad de la programación.
Devoluciones
Tipo | Description |
---|---|
Periodicidad de la programación. |