Share via


Estimator Clase

Representa un estimador genérico para entrenar datos mediante cualquier marco proporcionado.

EN DESUSO. Use el objeto ScriptRunConfig con su propio entorno definido o un entorno seleccionado de Azure ML. Para obtener una introducción a la configuración de ejecuciones de experimentos con ScriptRunConfig, consulte Configuración y envío de ejecuciones de entrenamiento.

Esta clase está diseñada para su uso con marcos de aprendizaje automático que aún no tienen un estimador de Azure Machine Learning configurado previamente. Existen estimadores preconfigurados para Chainer, PyTorch, TensorFlow y SKLearn. Para crear un estimador que no esté preconfigurado, consulte Entrenamiento de modelos con Azure Machine Learning mediante el estimador.

La clase Estimator encapsula la información de configuración de ejecución para ayudar a simplificar las tareas de especificación de cómo se ejecuta un script. Admite la ejecución de un solo nodo, así como de varios nodos. Al ejecutar el estimador se genera un modelo en el directorio de salida especificado en el script de entrenamiento.

Inicialice el estimador.

se usa azureml.core.environment._DEFAULT_SHM_SIZE. Para más información, consulte Referencia de ejecución de Docker. :type shm_size: str :p aram resume_from: ruta de acceso de datos que contiene los archivos de punto de control o modelo desde los que reanudar el experimento. :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: el tiempo máximo permitido para la ejecución. Azure ML intentará realizar automáticamente

cancele la ejecución si tarda más de este valor.

Herencia
azureml.train.estimator._mml_base_estimator.MMLBaseEstimator
Estimator

Constructor

Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)

Parámetros

Nombre Description
source_directory
Requerido
str

Directorio local que contiene la configuración del experimento y los archivos de código necesarios para un trabajo de entrenamiento.

compute_target
Requerido

Destino de proceso en el que se realizará el entrenamiento. Puede ser un objeto o la cadena "local".

vm_size
Requerido
str

Tamaño de máquina virtual del destino de proceso que se creará para el entrenamiento. Valores admitidos: cualquier tamaño de máquina virtual de Azure.

vm_priority
Requerido
str

Prioridad de la máquina virtual del destino de proceso que se creará para el entrenamiento. Si no se especifica, se usa "dedicated" (dedicada).

Valores admitidos: "dedicated" (dedicada) y "lowpriority" (prioridad baja).

Esto solo tiene efecto cuando se especifica el parámetro vm_size en la entrada.

entry_script
Requerido
str

Ruta de acceso relativa al archivo utilizado para iniciar el entrenamiento.

script_params
Requerido

Diccionario de argumentos de la línea de comandos que se pasan al script de entrenamiento especificado en entry_script.

node_count
Requerido
int

Número de nodos del destino de proceso utilizado para el entrenamiento. Si es mayor que 1, se ejecutará un trabajo distribuido de MPI.

process_count_per_node
Requerido
int

El número de procesos (o "trabajos") que se ejecutarán en cada nodo. Si es mayor que 1, se ejecutará un trabajo distribuido de MPI. Solo se admite el destino AmlCompute para los trabajos distribuidos.

distributed_backend
Requerido
str

Back-end de comunicación para el entrenamiento distribuido.

EN DESUSO. Use el parámetro distributed_training.

Valores admitidos: "mpi". "mpi" representa MPI/Horovod.

Este parámetro es obligatorio cuando node_count o process_count_per_node> 1.

Cuando node_count == 1 y process_count_per_node == 1, no se usará ningún back-end a menos que se establezca explícitamente el back-end. Solo se admite el destino AmlCompute para el entrenamiento distribuido.

distributed_training
Requerido
Mpi

Parámetros para ejecutar un trabajo de entrenamiento distribuido.

Para ejecutar un trabajo distribuido con el back-end de MPI, use el objeto Mpi para especificar process_count_per_node.

use_gpu
Requerido

Indica si el entorno para ejecutar el experimento debe admitir GPU. Si es True, se usará en el entorno una imagen predeterminada de Docker basada en GPU. Si es False, se usará una imagen basada en CPU. Las imágenes predeterminadas de Docker (CPU o GPU) solo se usarán si el parámetro custom_docker_image no está establecido. Esta configuración solo se usa en destinos de proceso habilitados para Docker.

use_docker
Requerido

Especifica si el entorno para ejecutar el experimento debe basarse en Docker.

custom_docker_base_image
Requerido
str

El nombre de la imagen de Docker a partir de la que se va a crear la imagen que se va a usar para el entrenamiento.

EN DESUSO. Utilice el parámetro custom_docker_image.

Si no se establece, se usará una imagen predeterminada basada en CPU como imagen base.

custom_docker_image
Requerido
str

El nombre de la imagen de Docker a partir de la que se va a crear la imagen que se va a usar para el entrenamiento. Si no se establece, se usará una imagen predeterminada basada en CPU como imagen base. Solo puede especificar imágenes disponibles en repositorios de Docker públicos (Docker Hub). Para usar una imagen desde un repositorio de Docker privado, utilice el parámetro environment_definition del constructor en su lugar.

image_registry_details
Requerido

Los detalles del registro de imágenes de Docker.

user_managed
Requerido

Especifica si Azure ML reutiliza un entorno de Python existente. Si es false, se crea un entorno de Python basado en la especificación de dependencias de Conda.

conda_packages
Requerido

Lista de cadenas que representan los paquetes de Conda que se van a agregar al entorno de Python para el experimento.

pip_packages
Requerido

Lista de cadenas que representan los paquetes de pip que se van a agregar al entorno de Python para el experimento.

conda_dependencies_file_path
Requerido
str

Ruta de acceso relativa al archivo YAML de dependencias de Conda. Si se especifica, Azure ML no instalará ningún paquete relacionado con el marco.

EN DESUSO. Use el parámetro conda_dependencies_file.

Especifique conda_dependencies_file_path o conda_dependencies_file. Si se especifican ambos, se usa conda_dependencies_file.

pip_requirements_file_path
Requerido
str

La ruta de acceso relativa al archivo de texto de requisitos de pip.

EN DESUSO. Utilice el parámetro pip_requirements_file.

Este parámetro se puede especificar en combinación con el parámetro pip_packages. Especifique pip_requirements_file_path o pip_requirements_file. Si se especifican ambos, se usa pip_requirements_file.

conda_dependencies_file
Requerido
str

Ruta de acceso relativa al archivo YAML de dependencias de Conda. Si se especifica, Azure ML no instalará ningún paquete relacionado con el marco.

pip_requirements_file
Requerido
str

La ruta de acceso relativa al archivo de texto de requisitos de pip. Este parámetro se puede especificar en combinación con el parámetro pip_packages.

environment_variables
Requerido

Diccionario de nombres y valores de variables de entorno. Estas variables de entorno se establecen en el proceso donde se ejecuta el script de usuario.

environment_definition
Requerido

La definición de entorno del experimento. Incluye PythonSection, DockerSection y variables de entorno. Cualquier opción del entorno que no se exponga directamente mediante otros parámetros a la construcción del estimador se puede establecer mediante este parámetro. Si se especifica este parámetro, tendrá prioridad sobre otros parámetros relacionados con el entorno, como use_gpu, custom_docker_image, conda_packages o pip_packages. Se notificarán los errores sobre estas combinaciones no válidas.

inputs
Requerido

Lista de objetos DataReference o DatasetConsumptionConfig que se van a usar como entrada.

source_directory_data_store
Requerido

Almacén de datos de respaldo para el recurso compartido de proyecto.

shm_size
Requerido
str

Tamaño del bloque de memoria compartida del contenedor Docker. Si no se establece, se usa el valor de azureml.core.environment._DEFAULT_SHM_SIZE predeterminado. Para más información, consulte Referencia de ejecución de Docker.

resume_from
Requerido

Ruta de acceso de datos que contiene el punto de control o los archivos del modelo desde los que se va a reanudar el experimento.

max_run_duration_seconds
Requerido
int

Tiempo máximo permitido para la ejecución. Azure ML intentará cancelar automáticamente la ejecución si tarda más que este valor.

source_directory
Requerido
str

Directorio local que contiene la configuración del experimento y los archivos de código necesarios para un trabajo de entrenamiento.

compute_target
Requerido

Destino de proceso en el que se realizará el entrenamiento. Puede ser un objeto o la cadena "local".

vm_size
Requerido
str

Tamaño de máquina virtual del destino de proceso que se creará para el entrenamiento. Valores admitidos: cualquier tamaño de máquina virtual de Azure.

vm_priority
Requerido
str

Prioridad de la máquina virtual del destino de proceso que se creará para el entrenamiento. Si no se especifica, se usa "dedicated" (dedicada).

Valores admitidos: "dedicated" (dedicada) y "lowpriority" (prioridad baja).

Esto solo tiene efecto cuando se especifica el parámetro vm_size en la entrada.

entry_script
Requerido
str

Ruta de acceso relativa al archivo utilizado para iniciar el entrenamiento.

script_params
Requerido

Diccionario de argumentos de la línea de comandos que se pasan al script de entrenamiento especificado en entry_script.

node_count
Requerido
int

Número de nodos del destino de proceso utilizado para el entrenamiento. Si es mayor que 1, se ejecutará un trabajo distribuido de MPI. Solo se admite el destino AmlCompute para los trabajos distribuidos.

process_count_per_node
Requerido
int

número de procesos por nodo. Si es mayor que 1, se ejecutará un trabajo distribuido de MPI. Solo se admite el destino AmlCompute para los trabajos distribuidos.

distributed_backend
Requerido
str

Back-end de comunicación para el entrenamiento distribuido.

EN DESUSO. Use el parámetro distributed_training.

Valores admitidos: "mpi". "mpi" representa MPI/Horovod.

Este parámetro es obligatorio cuando node_count o process_count_per_node> 1.

Cuando node_count == 1 y process_count_per_node == 1, no se usará ningún back-end a menos que se establezca explícitamente el back-end. Solo se admite el destino AmlCompute para el entrenamiento distribuido.

distributed_training
Requerido
Mpi

Parámetros para ejecutar un trabajo de entrenamiento distribuido.

Para ejecutar un trabajo distribuido con el back-end de MPI, use el objeto Mpi para especificar process_count_per_node.

use_gpu
Requerido

Especifica si el entorno que va a ejecutar el experimento debe admitir GPU. Si es True, se usará en el entorno una imagen predeterminada de Docker basada en GPU. Si es False, se usará una imagen basada en CPU. Las imágenes predeterminadas de Docker (CPU o GPU) solo se usarán si el parámetro custom_docker_image no está establecido. Esta configuración solo se usa en destinos de proceso habilitados para Docker.

use_docker
Requerido

Especifica si el entorno para ejecutar el experimento debe basarse en Docker.

custom_docker_base_image
Requerido
str

El nombre de la imagen de Docker a partir de la que se va a crear la imagen que se va a usar para el entrenamiento.

EN DESUSO. Utilice el parámetro custom_docker_image.

Si no se establece, se usará una imagen predeterminada basada en CPU como imagen base.

custom_docker_image
Requerido
str

El nombre de la imagen de Docker a partir de la que se va a crear la imagen que se va a usar para el entrenamiento. Si no se establece, se usará una imagen predeterminada basada en CPU como imagen base. Solo puede especificar imágenes disponibles en repositorios de Docker públicos (Docker Hub). Para usar una imagen desde un repositorio de Docker privado, utilice el parámetro environment_definition del constructor en su lugar.

image_registry_details
Requerido

Los detalles del registro de imágenes de Docker.

user_managed
Requerido

Especifica si Azure ML reutiliza un entorno de Python existente. Si es false, se crea un entorno de Python basado en la especificación de dependencias de Conda.

conda_packages
Requerido

Lista de cadenas que representan los paquetes de Conda que se van a agregar al entorno de Python para el experimento.

pip_packages
Requerido

Lista de cadenas que representan los paquetes de pip que se van a agregar al entorno de Python para el experimento.

conda_dependencies_file_path
Requerido

Ruta de acceso relativa al archivo YAML de dependencias de Conda. Si se especifica, Azure ML no instalará ningún paquete relacionado con el marco.

EN DESUSO. Use el parámetro conda_dependencies_file.

Especifique conda_dependencies_file_path o conda_dependencies_file. Si se especifican ambos, se usa conda_dependencies_file.

pip_requirements_file_path
Requerido

La ruta de acceso relativa al archivo de texto de requisitos de pip.

EN DESUSO. Use el parámetro pip_requirements_file.

Se puede proporcionar en combinación con el parámetro pip_packages. Especifique pip_requirements_file_path o pip_requirements_file. Si se especifican ambos, se usa pip_requirements_file.

pip_requirements_file
Requerido
str

La ruta de acceso relativa al archivo de texto de requisitos de pip. Se puede proporcionar en combinación con el parámetro pip_packages.

environment_variables
Requerido

Diccionario de nombres y valores de variables de entorno. Estas variables de entorno se establecen en el proceso donde se ejecuta el script de usuario.

environment_definition
Requerido

La definición de entorno del experimento. Incluye PythonSection, DockerSection y variables de entorno. Cualquier opción del entorno que no se exponga directamente mediante otros parámetros a la construcción del estimador se puede establecer mediante este parámetro. Si se especifica este parámetro, tendrá prioridad sobre otros parámetros relacionados con el entorno, como use_gpu, custom_docker_image, conda_packages o pip_packages. Se notificarán los errores sobre estas combinaciones no válidas.

inputs
Requerido

Lista de objetos DataReference o DatasetConsumptionConfig que se van a usar como entrada.

source_directory_data_store
Requerido

Almacén de datos de respaldo para el recurso compartido de proyecto.

shm_size
Requerido

Tamaño del bloque de memoria compartida del contenedor Docker. Si no se establece, el valor predeterminado

_disable_validation
Requerido

Deshabilite la validación del script antes de ejecutar el envío. El valor predeterminado es True.

_show_lint_warnings
Requerido

Mostrar advertencias de linting de script. El valor predeterminado es False.

_show_package_warnings
Requerido

Mostrar advertencias de validación de paquetes. El valor predeterminado es False.