Share via


core Paquete

Contiene la funcionalidad básica para las canalizaciones de Azure Machine Learning, que son flujos de trabajo de aprendizaje automático configurables.

Las canalizaciones de Azure Machine Learning permiten crear flujos de trabajo de aprendizaje automático reutilizables que se pueden usar como plantilla para los escenarios de aprendizaje automático. Este paquete contiene la funcionalidad básica para trabajar con canalizaciones de Azure ML y normalmente se usa junto con las clases del paquete steps.

Una canalización de aprendizaje automático se representa mediante una colección de objetos PipelineStep que se pueden secuenciar y paralelizar, o crear con dependencias explícitas entre pasos. Los pasos de canalización se usan para definir un objeto Pipeline que representa el flujo de trabajo que se va a ejecutar. Puede crear y trabajar con canalizaciones en una instancia de Jupyter Notebook o cualquier otro IDE con el SDK de Azure ML instalado.

Las canalizaciones de Azure ML le permiten centrarse en el aprendizaje automático en lugar de en la infraestructura. Para empezar a crear una canalización, consulte https://aka.ms/pl-first-pipeline.

Para obtener más información sobre las ventajas de la canalización de Machine Learning y cómo está relacionada con otras canalizaciones que ofrece Azure, consulte ¿Qué son las canalizaciones de ML en Azure Machine Learning Service?

Módulos

builder

Define clases para crear una canalización de Azure Machine Learning.

Un grafo de canalización se compone de pasos de canalización (PipelineStep), datos de canalización opcionales (PipelineData) que se generan o se consumen en cada paso y una secuencia de ejecución de pasos opcional (StepSequence).

graph

Define clases para crear grafos de canalización de Azure Machine Learning.

Los grafos de canalización de Azure ML se crean para objetos Pipeline, cuando usa los objetos PipelineStep (y clases derivadas), PipelineData y PipelineData. En los casos de uso típicos, no tendrá que usar directamente las clases de este módulo.

Un grafo de ejecución de canalización consta de nodos de módulo que representan unidades básicas, como un origen de datos o un paso. Los nodos pueden tener puertos de entrada y puertos de salida, así como parámetros asociados. Los bordes definen relaciones entre dos puertos de nodo de un grafo.

module

Contiene clases para crear y administrar unidades de cálculo reutilizables de una canalización de Azure Machine Learning.

Los módulos permiten crear unidades de cálculo en Pipeline, que pueden tener entradas, salidas y depender de parámetros y una configuración de entorno para funcionar. Un módulo puede tener versiones y usarse en diferentes canalizaciones de Azure Machine Learning, a diferencia de PipelineStep (y las clases derivadas), que se usan en una canalización.

Los módulos están diseñados para reutilizarse en varias canalizaciones y pueden evolucionar para adaptar una lógica de cálculo específica para diferentes casos de uso. Un paso de una canalización se puede usar en iteraciones rápidas para mejorar un algoritmo y, una vez que se logra el objetivo, el algoritmo normalmente se publica como un módulo para habilitar la reutilización.

module_step_base

Contiene funcionalidad para agregar un paso a una canalización mediante una versión de Module.

pipeline

Define la clase para crear flujos de trabajo de Azure Machine Learning reutilizables.

pipeline_draft

Define clases para administrar canalizaciones mutables.

pipeline_endpoint

Define clases para administrar canalizaciones, incluido el control de versiones y los puntos de conexión.

pipeline_output_dataset

Contiene funcionalidad para promover una salida intermedia a un conjunto de datos de Azure Machine Learning.

Los datos intermedios (salida) de una canalización de forma predeterminada no se convertirán en un conjunto de datos de Azure Machine Learning. Para promover datos intermedios a un conjunto de datos de Azure Machine Learning, llame al método as_dataset en la clase PipelineData para que devuelva un objeto PipelineOutputFileDataset. A partir de un objeto PipelineOutputFileDataset, puede crear un objeto PipelineOutputTabularDataset.

run

Define clases para las canalizaciones enviadas, incluidas las clases para comprobar el estado y recuperar los detalles de ejecución.

schedule

Define clases para programar envíos de canalizaciones de Azure Machine Learning.

Clases

InputPortBinding

Define un enlace desde un origen a una entrada de un paso de la canalización.

InputPortBinding se puede usar como entrada para un paso. El origen puede ser PipelineData, PortDataReference, DataReference, PipelineDataset o OutputPortBinding.

InputPortBinding es útil para especificar el nombre de la entrada del paso, si debe ser diferente del nombre del objeto de enlace (es decir, para evitar nombres de entrada y salida duplicados o porque el script del paso necesita una entrada para tener un nombre determinado). También se puede usar para especificar el valor de bind_mode para las entradas PythonScriptStep.

Inicialice InputPortBinding.

Module

Representa una unidad de cálculo utilizada en una canalización de Azure Machine Learning.

Un módulo es una colección de archivos que se ejecutarán en un destino de proceso y una descripción de una interfaz. La colección de archivos puede ser script, binarios o cualquier otro archivo necesario para ejecutarse en el destino de proceso. La interfaz del módulo describe las entradas, salidas y definiciones de parámetros. No los enlaza a valores o datos específicos. Un módulo tiene una instantánea asociada, que captura la colección de archivos definidos para el módulo.

Inicializar módulo.

ModuleVersion

Representa la unidad de cálculo real dentro de Module.

No debe usar esta clase directamente. En su lugar, use uno de los métodos de publicación de la clase Module.

Inicializar ModuleVersion.

ModuleVersionDescriptor

Define la versión y el identificador de ModuleVersion.

Initialize ModuleVersionDescriptor.

OutputPortBinding

Define una salida con nombre de un paso de canalización.

OutputPortBinding se puede usar para especificar el tipo de datos que se producirá mediante un paso y cómo se producirán los datos. Se puede usar con InputPortBinding para especificar que la salida del paso sea una entrada necesaria de otro paso.

Inicialice OutputPortBinding.

Pipeline

Representa una colección de pasos que se pueden ejecutar como un flujo de trabajo de Azure Machine Learning reutilizable.

Use una canalización para crear y administrar los flujos de trabajo que unen las distintas fases del aprendizaje automático. Cada fase del aprendizaje automático, como la preparación de datos y el entrenamiento del modelo, puede constar de uno o varios pasos de una canalización.

Para obtener información general sobre por qué y cuándo usar canalizaciones, consulte https://aka.ms/pl-concept.

Para obtener información general sobre cómo construir una canalización, consulte https://aka.ms/pl-first-pipeline.

Inicializar canalización.

PipelineData

Representa datos intermedios de una canalización de Azure Machine Learning.

Los datos usados en la canalización se pueden generar en un paso y consumir en otro paso proporcionando un objeto PipelineData como salida de un paso y entrada de uno o varios pasos posteriores.

Nota: Si usa los datos de canalización, debe asegurarse de que existe el directorio usado.

Un ejemplo de Python para asegurarse de que el directorio existía, supongamos que tiene un puerto de salida denominado output_folder en un paso de canalización; debe escribir algunos datos en la ruta de acceso relativa de esta carpeta.


   import os
   os.makedirs(args.output_folder, exist_ok=True)
   f = open(args.output_folder + '/relative_path/file_name', 'w+')

PipelineData usa el elemento DataReference subyacente, que ya no es el enfoque recomendado para el acceso y la entrega de datos. Use OutputFileDatasetConfig en su lugar; puede encontrar el ejemplo aquí: Canalización mediante OutputFileDatasetConfig.

Inicializar PipelineData.

PipelineDataset

Actúa como adaptador para el conjunto de datos y la canalización.

Nota

Esta clase está en desuso. Para aprender a usar el conjunto de datos con la canalización, consulte https://aka.ms/pipeline-with-dataset.

Es una clase interna. No debe crear esta clase directamente, sino llamar a los métodos de instancia as_* en las clases Dataset o OutputDatasetConfig.

Actúe como adaptador para el conjunto de datos y la canalización.

Es una clase interna. No debe crear esta clase directamente, sino llamar a los métodos de instancia as_* en las clases Dataset o OutputDatasetConfig.

PipelineDraft

Representa una canalización mutable que se puede usar para enviar ejecuciones y crear canalizaciones publicadas.

Use PipelineDrafts para iterar en canalizaciones. Los elementos PipelineDrafts se pueden crear desde cero, otro PipelineDraft o canalizaciones existentes: Pipeline, PublishedPipeline o PipelineRun.

Inicializar PipelineDraft.

PipelineEndpoint

Representa un flujo de trabajo Pipeline que se puede desencadenar desde una dirección URL de punto de conexión única.

PipelineEndpoints se puede usar para crear nuevas versiones de PublishedPipeline mientras se mantiene el mismo punto de conexión. Los objetos PipelineEndpoints se denominan de forma única dentro de un área de trabajo.

Con el atributo de punto de conexión de un objeto PipelineEndpoint, puede desencadenar nuevas ejecuciones de canalización desde aplicaciones externas con llamadas REST. Para más información sobre cómo autenticarse al llamar a puntos de conexión REST, consulte https://aka.ms/pl-restep-auth.

Para obtener más información sobre cómo crear y ejecutar canalizaciones de aprendizaje automático, consulte https://aka.ms/pl-first-pipeline.

Inicializar PipelineEndpoint.

PipelineParameter

Define un parámetro de una ejecución de canalización.

Use PipelineParameters para construir canalizaciones versátiles que se pueden volver a enviar posteriormente con distintos valores de parámetros.

Inicializar parámetros de canalización.

PipelineRun

Representa una ejecución de una Pipeline.

Esta clase se puede usar para administrar, comprobar el estado y recuperar los detalles de ejecución una vez enviada una ejecución de canalización. Use get_steps para recuperar los objetos StepRun que creó la ejecución de canalización. Otros usos incluyen recuperar el objeto Graph asociado a la ejecución de canalización, capturar el estado de esta y esperar a que se complete la ejecución.

Inicialice una ejecución de canalización.

PipelineStep

Representa un paso de ejecución en una canalización de Azure Machine Learning.

Las canalizaciones de ML se construyen a partir de varios pasos de canalización, que son unidades de cálculo diferentes en la canalización. Cada paso se puede ejecutar de forma independiente y usar recursos de proceso aislados. Normalmente, cada paso tiene sus propias entradas, salidas y parámetros con nombre.

La clase PipelineStep es la clase base de la que heredan otras clases de paso integradas diseñadas para escenarios comunes, como PythonScriptStep, DataTransferStep y HyperDriveStep.

Para obtener información general sobre cómo se relacionan Pipelines y PipelineSteps, consulte ¿Qué son las canalizaciones de ML?.

Inicializar PipelineStep.

PortDataReference

Modela los datos asociados a una salida de un elemento StepRun completado.

Se puede usar un objeto PortDataReference para descargar los datos de salida que StepRun generó. También se puede usar como entrada de un paso en una futura canalización.

Inicialice PortDataReference.

PublishedPipeline

Representa una canalización que se va a enviar sin el código Python que la construyó.

Además, se puede usar PublishedPipeline para volver a enviar una Pipeline con valores PipelineParameter y entradas diferentes.

Inicializar PublishedPipeline.

:p aram endpoint La dirección URL del punto de conexión REST para enviar ejecuciones de canalización para esta canalización. :type endpoint: str :p aram total_run_steps: el número de pasos de esta canalización :type total_run_steps: int :p aram workspace: el área de trabajo de la canalización publicada. :type workspace: azureml.core.Workspace :p aram continue_on_step_failure: Si desea continuar con la ejecución de otros pasos en PipelineRun

Si se produce un error en un paso, el valor predeterminado es false.

Schedule

Define una programación en la que se va a enviar una canalización.

Una vez publicada una canalización, se puede usar una programación para enviar la canalización en un intervalo especificado o cuando se detectan cambios en una ubicación de Blob Storage.

Inicializar programación.

ScheduleRecurrence

Define la frecuencia, el intervalo y la hora de inicio de una Schedule de canalización.

ScheduleRecurrence también permite especificar la zona horaria y las horas, minutos o días de la semana para la periodicidad.

Inicialice una periodicidad de programación.

También permite especificar la zona horaria y las horas o minutos o días de semana para la periodicidad.

StepRun

Ejecución de un paso en una clase Pipeline.

Esta clase se puede usar para administrar, comprobar el estado y recuperar los detalles de ejecución una vez que se envía la ejecución de canalización primaria y la canalización ha enviado la ejecución del paso.

Inicialice un stepRun.

StepRunOutput

Representa una salida creada por StepRun en una canalización.

StepRunOutput se puede usar para acceder a PortDataReference que el paso creó.

Inicializar StepRunOutput.

StepSequence

Representa una lista de pasos de una Pipeline y el orden en el que se ejecutarán.

Use StepSequence al inicializar una canalización para crear un flujo de trabajo que contenga los pasos para ejecutarse en un orden específico.

Inicializar StepSequence.

TrainingOutput

Define una salida especializada de determinados PipelineSteps para su uso en una canalización.

TrainingOutput permite que un modelo o métrica de aprendizaje automático automatizado esté disponible como salida paso a paso para que lo consuma otro paso de una canalización de Azure Machine Learning. Se puede usar con las propiedades AutoMLStep o HyperDriveStep.

Inicializar TrainingOutput.

param model_file: el archivo de modelo específico que se va a incluir en la salida. Solo para HyperDriveStep.

Enumeraciones

TimeZone

Enumera las zonas horarias válidas para una Schedule de periodicidad.