Schedule Clase
Define una programación en la que se va a enviar una canalización.
Una vez publicada una canalización, se puede usar una programación para enviar la canalización en un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.
Inicializar programación.
- Herencia
-
builtins.objectSchedule
Constructor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parámetros
- datastore_name
- str
Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: 1) No se admiten almacenes de datos de red virtual. 2) El tipo de autenticación del almacén de datos debe establecerse en "Clave de cuenta".
- polling_interval
- int
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados.
- data_path_parameter_name
- str
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.
- continue_on_step_failure
- bool
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.
- path_on_datastore
- str
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Proveedor de programación.
- datastore_name
- str
Nombre del almacén de datos que va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual.
- polling_interval
- int
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados.
- data_path_parameter_name
- str
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.
- continue_on_step_failure
- bool
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.
- path_on_datastore
- str
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Proveedor de programación.
- pipeline_endpoint_id
- str
Id. del punto de conexión de la canalización que enviará la programación.
Comentarios
Se admiten dos tipos de programaciones. El primero usa la periodicidad de tiempo para enviar una canalización según una programación determinada. El segundo supervisa un elemento AzureBlobDatastore en busca de blobs agregados o modificados y envía una canalización cuando se detectan cambios.
Para crear una programación que envíe una canalización según una programación periódica, use el elemento ScheduleRecurrence al crear la programación.
ScheduleRecurrence se usa al crear una programación para una canalización, como se muestra a continuación:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Esta programación enviará la canalización PublishedPipeline proporcionada cada 12 horas. La canalización enviada se creará en el experimento con el nombre "helloworld".
Para crear una programación que desencadene ejecuciones de canalización en las modificaciones realizadas en una ubicación de Blob Storage, especifique un almacén de datos y la información de datos relacionada al crear la programación.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Tenga en cuenta que los parámetros polling_interval y path_on_datastore son opcionales. El parámetro polling_interval especifica la frecuencia con la que sondear las modificaciones en el almacén de datos y, de manera predeterminada, es de 5 minutos. El parámetro path_on_datastore se puede usar para especificar qué carpeta del almacén de datos se va a supervisar en busca de cambios. Si el valor es None, se supervisa el contenedor del almacén de datos. Nota: No se detectan adiciones o modificaciones de blobs en las subcarpetas de path_on_datastore o el contenedor del almacén de datos (si no se especifica path_on_datastore).
Además, si la canalización se construyó para usar DataPathPipelineParameter para describir una entrada de paso, use el parámetro data_path_parameter_name al crear una programación desencadenada por el almacén de datos para establecer la entrada en el archivo modificado cuando la programación envía una ejecución de canalización.
En el ejemplo siguiente, cuando la programación desencadena la ejecución de la canalización, el valor del parámetro de canalización "input_data" se establecerá en el archivo que se modificó o agregó:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Para más información sobre las programaciones, consulte: https://aka.ms/pl-schedule.
Métodos
create |
Crea una programación para una canalización. Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones. |
create_for_pipeline_endpoint |
Crea una programación para un punto de conexión de canalización. Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones. |
disable |
Establece la programación en "Deshabilitada" y no disponible para ejecutarse. |
enable |
Establece la programación en "Activa" y disponible para ejecutarse. |
get |
Obtiene la programación con el id. especificado. |
get_all |
Obtiene todas las programaciones del área de trabajo actual. EN DESUSO: este método está en desuso en favor del método list. |
get_last_pipeline_run |
Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución. |
get_pipeline_runs |
Captura las ejecuciones de canalización generadas a partir de la programación. |
get_schedules_for_pipeline_endpoint_id |
Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado. |
get_schedules_for_pipeline_id |
Obtiene todas las programaciones para el id. de canalización especificado. |
list |
Obtiene todas las programaciones del área de trabajo actual. |
load_yaml |
Carga y lee el archivo YAML para obtener los parámetros de la programación. El archivo YAML es una manera más de pasar parámetros de programación para crear una programación. |
update |
Actualiza la programación. |
create
Crea una programación para una canalización.
Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
- experiment_name
- str
Nombre del experimento en el que la programación va a enviar ejecuciones.
- recurrence
- ScheduleRecurrence
Periodicidad de la programación de la canalización.
- pipeline_parameters
- dict
Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro}
- wait_for_provisioning
- bool
Indica si se va a esperar a que se complete el aprovisionamiento de la programación.
- wait_timeout
- int
El número de segundos que se va a esperar antes de que se agote el tiempo de espera.
- datastore
- AzureBlobDatastore
Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad.
- polling_interval
- int
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos.
- data_path_parameter_name
- str
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos.
- continue_on_step_failure
- bool
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.
- path_on_datastore
- str
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Programación creada.
Tipo de valor devuelto
create_for_pipeline_endpoint
Crea una programación para un punto de conexión de canalización.
Especifica la periodicidad de una programación basada en el tiempo o especifica un almacén de datos, un elemento polling_interval (opcional) y un elemento data_path_parameter_name (opcional) para crear una programación que supervise la ubicación del almacén de datos en busca de modificaciones o adiciones.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
- pipeline_endpoint_id
- str
Id. del punto de conexión de la canalización que enviará la programación.
- experiment_name
- str
Nombre del experimento en el que la programación va a enviar ejecuciones.
- recurrence
- ScheduleRecurrence
Periodicidad de la programación de la canalización.
- pipeline_parameters
- dict
Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, valor de parámetro}
- wait_for_provisioning
- bool
Indica si se va a esperar a que se complete el aprovisionamiento de la programación.
- wait_timeout
- int
El número de segundos que se va a esperar antes de que se agote el tiempo de espera.
- datastore
- AzureBlobDatastore
Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual. No se puede usar con una periodicidad.
- polling_interval
- int
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos. Solo se admite para las programaciones del almacén de datos.
- data_path_parameter_name
- str
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado. Solo se admite para las programaciones del almacén de datos.
- continue_on_step_failure
- bool
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.
- path_on_datastore
- str
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Programación creada.
Tipo de valor devuelto
disable
Establece la programación en "Deshabilitada" y no disponible para ejecutarse.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parámetros
- wait_for_provisioning
- bool
Indica si se va a esperar a que se complete el aprovisionamiento de la programación.
- wait_timeout
- int
El número de segundos que se va a esperar antes de que se agote el tiempo de espera.
enable
Establece la programación en "Activa" y disponible para ejecutarse.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parámetros
- wait_for_provisioning
- bool
Indica si se va a esperar a que se complete el aprovisionamiento de la programación.
- wait_timeout
- int
El número de segundos que se va a esperar antes de que se agote el tiempo de espera.
get
Obtiene la programación con el id. especificado.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parámetros
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Objeto de programación
Tipo de valor devuelto
get_all
Obtiene todas las programaciones del área de trabajo actual.
EN DESUSO: este método está en desuso en favor del método list.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
- active_only
- bool
Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización.
- pipeline_id
- str
Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado.
- pipeline_endpoint_id
- str
Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Lista de elementos Schedule.
Tipo de valor devuelto
get_last_pipeline_run
Captura la última ejecución de canalización enviada por la programación. Devuelve None si no se ha enviado ninguna ejecución.
get_last_pipeline_run()
Devoluciones
Última ejecución de la canalización.
Tipo de valor devuelto
get_pipeline_runs
Captura las ejecuciones de canalización generadas a partir de la programación.
get_pipeline_runs()
Devoluciones
Lista de elementos PipelineRun.
Tipo de valor devuelto
get_schedules_for_pipeline_endpoint_id
Obtiene todas las programaciones para el id. de punto de conexión de canalización especificado.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parámetros
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Lista de elementos Schedule.
Tipo de valor devuelto
get_schedules_for_pipeline_id
Obtiene todas las programaciones para el id. de canalización especificado.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parámetros
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Lista de elementos Schedule.
Tipo de valor devuelto
list
Obtiene todas las programaciones del área de trabajo actual.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parámetros
- active_only
- bool
Si es true, solo devuelve las programaciones que están activas actualmente. Solo se aplica si no se proporciona ningún id. de canalización.
- pipeline_id
- str
Si se proporciona, solo devuelve programaciones para la canalización con el identificador especificado.
- pipeline_endpoint_id
- str
Si se proporciona, solo devuelve programaciones para el punto de conexión de canalización con el id. especificado.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Lista de elementos Schedule.
Tipo de valor devuelto
load_yaml
Carga y lee el archivo YAML para obtener los parámetros de la programación.
El archivo YAML es una manera más de pasar parámetros de programación para crear una programación.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parámetros
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
El proveedor de flujo de trabajo.
Devoluciones
Diccionario de parámetros y valores de Schedule.
Tipo de valor devuelto
Comentarios
Se admiten dos tipos de archivos YAML para las programaciones. El primero lee y carga la información de periodicidad de la creación de la programación para desencadenar la canalización. El segundo lee y carga la información del almacén de datos de la creación de la programación para desencadenar la canalización.
Ejemplo para crear una programación que envíe una canalización con una periodicidad, como se muestra a continuación:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Ejemplo de archivo YAML test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Ejemplo para crear una programación que envíe una canalización con un almacén de datos, como se muestra a continuación:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Actualiza la programación.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parámetros
- recurrence
- ScheduleRecurrence
Periodicidad de la nueva programación de la canalización.
- pipeline_parameters
- dict
Diccionario de parámetros para asignar nuevos valores {nombre de parámetro, nombre de valor}.
- wait_for_provisioning
- bool
Indica si se va a esperar a que se complete el aprovisionamiento de la programación.
- wait_timeout
- int
El número de segundos que se va a esperar antes de que se agote el tiempo de espera.
- datastore
- AzureBlobDatastore
Almacén de datos que se va a supervisar para los blobs modificados o agregados. Nota: No se admiten almacenes de datos de red virtual.
- polling_interval
- int
La cantidad de tiempo, en minutos, entre el sondeo de blobs modificados o agregados. El valor predeterminado es 5 minutos.
- data_path_parameter_name
- str
El nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.
- continue_on_step_failure
- bool
Indica si se continúa la ejecución del resto de pasos en el elemento PipelineRun enviado si se produce un error en un paso. Si se proporciona, invalidará la configuración continue_on_step_failure para la canalización.
- path_on_datastore
- str
Opcional. La ruta de acceso del almacén de datos que se supervisará en los blobs modificados o agregados. Nota: El elemento path_on_datastore estará en el contenedor del almacén de datos, por lo que la ruta de acceso real que la programación va a supervisar será container/path_on_datastore. Si no hay ninguna, se supervisa el contenedor del almacén de datos. Las adiciones o modificaciones realizadas en una subcarpeta de path_on_datastore no se supervisan. Solo se admite para las programaciones del almacén de datos.
Atributos
continue_on_step_failure
Obtiene el valor de la opción continue_on_step_failure
.
Devoluciones
Valor de la opción continue_on_step_failure
Tipo de valor devuelto
data_path_parameter_name
Obtiene el nombre del parámetro de canalización de la ruta de acceso de datos que se va a establecer con la ruta de acceso del blob modificado.
Devoluciones
Nombre del parámetro de ruta de acceso de datos.
Tipo de valor devuelto
datastore_name
Obtiene el nombre del almacén de datos utilizado para la programación.
Devoluciones
Nombre del almacén de datos.
Tipo de valor devuelto
description
Obtiene la descripción de la programación.
Devoluciones
Descripción de la programación.
Tipo de valor devuelto
id
name
path_on_datastore
Obtiene la ruta de acceso en el almacén de datos que supervisa la programación.
Devoluciones
Ruta de acceso en el almacén de datos.
Tipo de valor devuelto
pipeline_endpoint_id
Obtiene el identificador del punto de conexión de la canalización que envía la programación.
Devoluciones
Identificador.
Tipo de valor devuelto
pipeline_id
Obtiene el id. de la canalización que envía la programación.
Devoluciones
Identificador.
Tipo de valor devuelto
polling_interval
Obtiene la cantidad de tiempo, en minutos, entre el sondeo de los blobs modificados o agregados.
Devoluciones
Intervalo de sondeo.
Tipo de valor devuelto
recurrence
Obtiene la periodicidad de la programación.
Devoluciones
Periodicidad de la programación.
Tipo de valor devuelto
status
Obtiene el estado de la programación.
Devoluciones
Estado de la programación.
Tipo de valor devuelto
Comentarios
https://aka.ms/ContentUserFeedback.
Próximamente: A lo largo de 2024 iremos eliminando gradualmente GitHub Issues como mecanismo de comentarios sobre el contenido y lo sustituiremos por un nuevo sistema de comentarios. Para más información, vea:Enviar y ver comentarios de