Partager via


Estimator Classe

Représente un estimateur générique pour entraîner des données à l’aide d’une infrastructure fournie.

OBSOLESCENT. Utilisez l’objet ScriptRunConfig avec votre propre environnement défini ou un environnement organisé Azure ML. Pour une introduction à la configuration des exécutions d’expérience avec ScriptRunConfig, consultez Configurer et envoyer des exécutions d’entraînement.

Cette classe est conçue pour être utilisée avec des frameworks Machine Learning qui n’ont pas encore d’estimateur préconfiguré Azure Machine Learning. Les estimateurs préconfigurés existent pour Chainer, PyTorch, TensorFlowet SKLearn. Pour créer un estimateur qui n’est pas préconfiguré, consultez Entraîner des modèles avec Azure Machine Learning à l’aide de l’estimateur.

La classe Estimateor encapsule les informations de configuration d’exécution pour simplifier les tâches de spécification d’un script. Il prend en charge l’exécution à nœud unique ainsi que l’exécution à plusieurs nœuds. L’exécution de l’estimateur produit un modèle dans le répertoire de sortie spécifié dans votre script d’entraînement.

Initialisez l’estimateur.

azureml.core.environment._DEFAULT_SHM_SIZE est utilisé. Pour plus d’informations, consultez Informations de référence sur l’exécution de Docker. :type shm_size : str :p aram resume_from : chemin de données contenant le point de contrôle ou les fichiers de modèle à partir desquels reprendre l’expérience. :type resume_from : azureml.datapath.DataPath :p aram max_run_duration_seconds : durée maximale autorisée pour l’exécution. Azure ML tente automatiquement

annule l’exécution si elle prend plus de temps que cette valeur.

Constructeur

Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)

Paramètres

Nom Description
source_directory
Obligatoire
str

Répertoire local contenant la configuration de l’expérience et les fichiers de code nécessaires pour un travail d’apprentissage.

compute_target
Obligatoire

Cible de calcul où l’entraînement se produira. Il peut s’agir d’un objet ou de la chaîne « local ».

vm_size
Obligatoire
str

Taille de machine virtuelle de la cible de calcul qui sera créée pour l’entraînement. Valeurs prises en charge : n’importe quelle taille de machine virtuelle Azure.

vm_priority
Obligatoire
str

Priorité de machine virtuelle de la cible de calcul qui sera créée pour l’entraînement. S’il n’est pas spécifié, « dédié » est utilisé.

Valeurs prises en charge : « dédié » et « lowpriority ».

Cela prend effet uniquement lorsque le vm_size paramètre est spécifié dans l’entrée.

entry_script
Obligatoire
str

Chemin relatif du fichier utilisé pour démarrer l’entraînement.

script_params
Obligatoire

Dictionnaire d’arguments de ligne de commande à passer au script d’entraînement spécifié dans entry_script.

node_count
Obligatoire
int

Nombre de nœuds dans la cible de calcul utilisée pour l’entraînement. Si la valeur est supérieure à 1, une tâche distribuée MPI est exécutée.

process_count_per_node
Obligatoire
int

Nombre de processus (ou « workers ») à exécuter sur chaque nœud. Si la valeur est supérieure à 1, une tâche distribuée MPI est exécutée. Seule la AmlCompute cible est prise en charge pour les travaux distribués.

distributed_backend
Obligatoire
str

Back-end de communication pour l’entraînement distribué.

OBSOLESCENT. Utilise le paramètre distributed_training.

Valeurs prises en charge : « mpi ». 'mpi' représente MPI/Horovod.

Ce paramètre est requis quand node_count ou process_count_per_node> 1.

Quand node_count == 1 et process_count_per_node == 1, aucun back-end n’est utilisé, sauf si le back-end est défini explicitement. Seule la cible est prise en charge pour l’entraînement AmlCompute distribué.

distributed_training
Obligatoire
Mpi

Paramètres pour l’exécution d’un travail d’entraînement distribué.

Pour exécuter un travail distribué avec le back-end MPI, utilisez Mpi l’objet pour spécifier process_count_per_node.

use_gpu
Obligatoire

Indique si l’environnement à exécuter l’expérience doit prendre en charge les GPU. Si la valeur est true, une image Docker par défaut basée sur GPU est utilisée dans l’environnement. Si la valeur est false, une image basée sur le processeur est utilisée. Les images Docker par défaut (PROCESSEUR ou GPU) ne seront utilisées que si le custom_docker_image paramètre n’est pas défini. Ce paramètre est utilisé uniquement dans les cibles de calcul avec Docker.

use_docker
Obligatoire

Spécifie si l’environnement à exécuter l’expérience doit être basé sur Docker.

custom_docker_base_image
Obligatoire
str

Nom de l’image Docker à partir de laquelle l’image à utiliser pour l’entraînement sera générée.

OBSOLESCENT. Utilise le paramètre custom_docker_image.

Si elle n’est pas définie, une image basée sur le processeur par défaut est utilisée comme image de base.

custom_docker_image
Obligatoire
str

Nom de l’image Docker à partir de laquelle l’image à utiliser pour l’entraînement sera générée. Si elle n’est pas définie, une image basée sur le processeur par défaut est utilisée comme image de base. Spécifiez uniquement les images disponibles dans les référentiels Docker publics (Docker Hub). Pour utiliser une image à partir d’un dépôt Docker privé, utilisez le paramètre du environment_definition constructeur à la place.

image_registry_details
Obligatoire

Détails du registre d’images Docker.

user_managed
Obligatoire

Spécifie si Azure ML réutilise un environnement Python existant. Si la valeur est false, un environnement Python est créé en fonction de la spécification des dépendances conda.

conda_packages
Obligatoire

Liste de chaînes représentant des packages conda à ajouter à l’environnement Python pour l’expérience.

pip_packages
Obligatoire

Liste de chaînes représentant des packages pip à ajouter à l’environnement Python pour l’expérience.

conda_dependencies_file_path
Obligatoire
str

Chemin d’accès relatif au fichier yaml des dépendances conda. S’il est spécifié, Azure ML n’installe aucun package lié à l’infrastructure.

OBSOLESCENT. Utilisez le conda_dependencies_file paramenteur.

Spécifiez conda_dependencies_file_path ou conda_dependencies_file. Si les deux sont spécifiés, conda_dependencies_file est utilisé.

pip_requirements_file_path
Obligatoire
str

Chemin d’accès relatif au fichier texte de configuration requise pip.

OBSOLESCENT. Utilise le paramètre pip_requirements_file.

Ce paramètre peut être spécifié en combinaison avec le pip_packages paramètre. Spécifiez pip_requirements_file_path ou pip_requirements_file. Si les deux sont spécifiés, pip_requirements_file est utilisé.

conda_dependencies_file
Obligatoire
str

Chemin d’accès relatif au fichier yaml des dépendances conda. S’il est spécifié, Azure ML n’installe aucun package lié à l’infrastructure.

pip_requirements_file
Obligatoire
str

Chemin d’accès relatif au fichier texte de configuration requise pip. Ce paramètre peut être spécifié en combinaison avec le pip_packages paramètre.

environment_variables
Obligatoire

Dictionnaire de noms et de valeurs des variables d’environnement. Ces variables d’environnement sont définies sur le processus où le script utilisateur est en cours d’exécution.

environment_definition
Obligatoire

Définition de l’environnement de l’expérience. Il inclut pythonSection, DockerSection et variables d’environnement. Toute option d’environnement non directement exposée via d’autres paramètres à la construction estimateur peut être définie à l’aide de ce paramètre. Si ce paramètre est spécifié, il est prioritaire sur d’autres paramètres liés à l’environnement tels que use_gpu, , custom_docker_imageconda_packagesou pip_packages. Les erreurs sont signalées sur des combinaisons non valides.

inputs
Obligatoire

Liste d’objets DataReference à DatasetConsumptionConfig utiliser comme entrée.

source_directory_data_store
Obligatoire

Magasin de données de stockage pour le partage de projet.

shm_size
Obligatoire
str

Taille du bloc de mémoire partagée du conteneur Docker. S’il n’est pas défini, la azureml.core.environment._DEFAULT_SHM_SIZE par défaut est utilisée. Pour plus d’informations, consultez Informations de référence sur l’exécution de Docker.

resume_from
Obligatoire

Chemin d’accès aux données contenant les fichiers de point de contrôle ou de modèle à partir desquels reprendre l’expérience.

max_run_duration_seconds
Obligatoire
int

Durée maximale autorisée pour l’exécution. Azure ML tente d’annuler automatiquement l’exécution si elle prend plus de temps que cette valeur.

source_directory
Obligatoire
str

Répertoire local contenant la configuration de l’expérience et les fichiers de code nécessaires pour un travail d’apprentissage.

compute_target
Obligatoire

Cible de calcul où l’entraînement se produira. Il peut s’agir d’un objet ou de la chaîne « local ».

vm_size
Obligatoire
str

Taille de machine virtuelle de la cible de calcul qui sera créée pour l’entraînement. Valeurs prises en charge : n’importe quelle taille de machine virtuelle Azure.

vm_priority
Obligatoire
str

Priorité de machine virtuelle de la cible de calcul qui sera créée pour l’entraînement. S’il n’est pas spécifié, « dédié » est utilisé.

Valeurs prises en charge : « dédié » et « lowpriority ».

Cela prend effet uniquement lorsque le vm_size paramètre est spécifié dans l’entrée.

entry_script
Obligatoire
str

Chemin relatif du fichier utilisé pour démarrer l’entraînement.

script_params
Obligatoire

Dictionnaire d’arguments de ligne de commande à passer au script d’entraînement spécifié dans entry_script.

node_count
Obligatoire
int

Nombre de nœuds dans la cible de calcul utilisée pour l’entraînement. Si la valeur est supérieure à 1, une tâche distribuée MPI est exécutée. Seule la AmlCompute cible est prise en charge pour les travaux distribués.

process_count_per_node
Obligatoire
int

Nombre de processus par nœud. Si la valeur est supérieure à 1, une tâche distribuée MPI est exécutée. Seule la AmlCompute cible est prise en charge pour les travaux distribués.

distributed_backend
Obligatoire
str

Back-end de communication pour l’entraînement distribué.

OBSOLESCENT. Utilise le paramètre distributed_training.

Valeurs prises en charge : « mpi ». 'mpi' représente MPI/Horovod.

Ce paramètre est requis quand node_count ou process_count_per_node> 1.

Quand node_count == 1 et process_count_per_node == 1, aucun back-end n’est utilisé, sauf si le back-end est défini explicitement. Seule la cible est prise en charge pour l’entraînement AmlCompute distribué.

distributed_training
Obligatoire
Mpi

Paramètres pour l’exécution d’un travail d’entraînement distribué.

Pour exécuter un travail distribué avec le back-end MPI, utilisez Mpi l’objet pour spécifier process_count_per_node.

use_gpu
Obligatoire

Spécifie si l’environnement à exécuter l’expérience doit prendre en charge les GPU. Si la valeur est true, une image Docker par défaut basée sur GPU est utilisée dans l’environnement. Si la valeur est false, une image basée sur le processeur est utilisée. Les images Docker par défaut (PROCESSEUR ou GPU) ne seront utilisées que si le custom_docker_image paramètre n’est pas défini. Ce paramètre est utilisé uniquement dans les cibles de calcul avec Docker.

use_docker
Obligatoire

Spécifie si l’environnement à exécuter l’expérience doit être basé sur Docker.

custom_docker_base_image
Obligatoire
str

Nom de l’image Docker à partir de laquelle l’image à utiliser pour l’entraînement sera générée.

OBSOLESCENT. Utilise le paramètre custom_docker_image.

Si elle n’est pas définie, une image basée sur le processeur par défaut est utilisée comme image de base.

custom_docker_image
Obligatoire
str

Nom de l’image Docker à partir de laquelle l’image à utiliser pour l’entraînement sera générée. Si elle n’est pas définie, une image basée sur le processeur par défaut est utilisée comme image de base. Spécifiez uniquement les images disponibles dans les référentiels Docker publics (Docker Hub). Pour utiliser une image à partir d’un dépôt Docker privé, utilisez le paramètre du environment_definition constructeur à la place.

image_registry_details
Obligatoire

Détails du registre d’images Docker.

user_managed
Obligatoire

Spécifie si Azure ML réutilise un environnement Python existant. Si la valeur est false, un environnement Python est créé en fonction de la spécification des dépendances conda.

conda_packages
Obligatoire

Liste de chaînes représentant des packages conda à ajouter à l’environnement Python pour l’expérience.

pip_packages
Obligatoire

Liste de chaînes représentant des packages pip à ajouter à l’environnement Python pour l’expérience.

conda_dependencies_file_path
Obligatoire

Chemin d’accès relatif au fichier yaml des dépendances conda. S’il est spécifié, Azure ML n’installe aucun package lié à l’infrastructure.

OBSOLESCENT. Utilisez le conda_dependencies_file paramenteur.

Spécifiez conda_dependencies_file_path ou conda_dependencies_file. Si les deux sont spécifiés, conda_dependencies_file est utilisé.

pip_requirements_file_path
Obligatoire

Chemin d’accès relatif au fichier texte de configuration requise pip.

OBSOLESCENT. Utilise le paramètre pip_requirements_file.

Cela peut être fourni en combinaison avec le pip_packages paramètre. Spécifiez pip_requirements_file_path ou pip_requirements_file. Si les deux sont spécifiés, pip_requirements_file est utilisé.

pip_requirements_file
Obligatoire
str

Chemin d’accès relatif au fichier texte de configuration requise pip. Cela peut être fourni en combinaison avec le pip_packages paramètre.

environment_variables
Obligatoire

Dictionnaire de noms et de valeurs des variables d’environnement. Ces variables d’environnement sont définies sur le processus où le script utilisateur est en cours d’exécution.

environment_definition
Obligatoire

Définition de l’environnement de l’expérience. Il inclut pythonSection, DockerSection et variables d’environnement. Toute option d’environnement non directement exposée via d’autres paramètres à la construction estimateur peut être définie à l’aide de ce paramètre. Si ce paramètre est spécifié, il est prioritaire sur d’autres paramètres liés à l’environnement tels que use_gpu, , custom_docker_imageconda_packagesou pip_packages. Les erreurs sont signalées sur des combinaisons non valides.

inputs
Obligatoire

Liste d’objets DataReference à DatasetConsumptionConfig utiliser comme entrée.

source_directory_data_store
Obligatoire

Magasin de données de stockage pour le partage de projet.

shm_size
Obligatoire

Taille du bloc de mémoire partagée du conteneur Docker. S’il n’est pas défini, la valeur par défaut

_disable_validation
Obligatoire

Désactivez la validation du script avant l’exécution de la soumission. La valeur par défaut est True.

_show_lint_warnings
Obligatoire

Afficher les avertissements de linting de script. La valeur par défaut est False.

_show_package_warnings
Obligatoire

Afficher les avertissements de validation de package. La valeur par défaut est False.