Share via


Clasificación de AutoML

En este artículo se describe un componente del diseñador de Azure Machine Learning.

Use este componente para crear un modelo de Machine Learning basado en la clasificación de AutoML.

Cómo se configura

Este componente crea un modelo de clasificación en datos tabulares.

Este modelo requiere un conjunto de datos de entrenamiento. Los conjuntos de datos de validación y prueba son opcionales.

AutoML crea una serie de canalizaciones en paralelo que prueban distintos algoritmos y parámetros para el modelo. El servicio recorre en iteración los algoritmos de ML que corresponden con las selecciones de características, de forma que cada iteración genera un modelo con una puntuación de entrenamiento. Puede elegir la métrica para la que desea que se optimice el modelo. Cuanto mayor sea la puntuación de la métrica elegida, mejor se ajustará el modelo a los datos. Puede definir un criterio de salida para el experimento. Los criterios de salida se modelarán con la puntuación de entrenamiento específica que quiera que busque AutoML. El experimento se detendrá una vez que logre los criterios de salida definidos. A continuación, este componente generará el mejor modelo que se haya generado al final de la ejecución para el conjunto de datos.

  1. Agregue el componente Clasificación de AutoML a su canalización.

  2. Especifique la columna de destino que quiera que el modelo tenga como salida

  3. Para classification (clasificación), también puede habilitar el aprendizaje profundo.

Si el aprendizaje profundo está habilitado, la validación se limita a train_validation split.

  1. (Opcional) Ver el apartado sobre la adición de configuraciones: opciones de configuración adicionales que puede usar para controlar mejor el trabajo de entrenamiento. De lo contrario, los valores predeterminados se aplican en función de la selección y los datos del experimento.

    Configuraciones adicionales Descripción
    Métrica principal Métrica principal usada para puntuar el modelo. Más información sobre las métricas del modelo.
    Depuración del modelo mediante el panel de inteligencia artificial responsable Generar un panel de IA responsable para realizar una evaluación holística y depuración del mejor modelo recomendado. Esto incluye información como explicaciones del modelo, explorador de equidad y rendimiento, explorador de datos y análisis de errores del modelo. Obtenga más información sobre cómo puede generar un panel de inteligencia artificial responsable.
    Blocked algorithms (Algoritmos bloqueados) Seleccione los algoritmos que desea excluir del trabajo de entrenamiento.

    La opción para permitir los algoritmos solo está disponible para los experimentos de SDK.
    Consulte los algoritmos admitidos para cada tipo de tarea.
    Criterios de exclusión Cuando se cumple alguno de estos criterios, se detiene el trabajo de entrenamiento.
    Tiempo de trabajo de entrenamiento (horas) : cantidad de tiempo para permitir que el trabajo de entrenamiento se ejecute.
    Umbral de puntuación de métrica: puntuación mínima de métrica para todas las canalizaciones. Esto garantiza que si tiene una métrica objetivo definida que desee alcanzar, no dedicará más tiempo en el trabajo de entrenamiento que el necesario.
    Simultaneidad Número máximo de iteraciones simultáneas: número máximo de canalizaciones (iteraciones) para probar en el trabajo de entrenamiento. El trabajo no ejecutará más iteraciones que el número especificado de ellas. Más información sobre el modo en que el aprendizaje automático automatizado realiza múltiples trabajos secundarios en los clústeres.
  2. Con el formulario [Opcional] Validar y probar puede hacer lo siguiente:

    1. Especificar el tipo de validación que se usará para el trabajo de entrenamiento.

    2. Proporcionar un conjunto de datos de prueba (versión preliminar) para evaluar el modelo recomendado que el aprendizaje automático automatizado genera automáticamente al final del experimento. Cuando se proporcionan datos de prueba, se desencadena automáticamente un trabajo de prueba al final del experimento. Este trabajo de prueba solo se ejecuta en el mejor modelo recomendado por el ML automatizado.

      Importante

      La característica para proporcionar un conjunto de datos de prueba con el fin de evaluar los modelos generados está en versión preliminar. Esta funcionalidad es una característica experimental en versión preliminar y puede cambiar en cualquier momento.

      • Los datos de prueba se consideran algo independiente del entrenamiento y la validación, con el fin de no sesgar los resultados del trabajo de pruebas del modelo recomendado. Obtenga más información sobre el sesgo durante la validación del modelo.
      • Puede proporcionar su propio conjunto de datos de prueba u optar por usar un porcentaje de su conjunto de datos de entrenamiento. Los datos de prueba deben tener el formato de un objeto TabularDataset de Azure Machine Learning.
      • El esquema del conjunto de datos de prueba debe coincidir con el conjunto de datos de entrenamiento. La columna de destino es opcional, pero, si no se indica, no se calcula ninguna métrica de prueba.
      • El conjunto de datos de prueba no debe ser el mismo que el conjunto de datos de entrenamiento o de validación.

Pasos siguientes

Vea el conjunto de componentes disponibles para Azure Machine Learning.