Compartilhar via


Estimator Classe

Representa um avaliador genérico para treinar dados usando qualquer estrutura fornecida.

PRETERIDO. Use o objeto ScriptRunConfig com um ambiente definido por você ou um ambiente com curadoria do Azure ML. Para ver uma introdução à configuração de execuções de experimento com ScriptRunConfig, confira Configurar e enviar as execuções de treinamento.

Essa classe foi projetada para uso com estruturas de machine learning que ainda não têm um avaliador do Azure Machine Learning pré-configurado. Avaliadores pré-configurados existem para Chainer, PyTorch, TensorFlow e SKLearn. Para criar um avaliador que não esteja pré-configurado, confira Treinar modelos com o Azure Machine Learning usando o avaliador.

A classe Estimator encapsula informações de configuração de execução para ajudar a simplificar as tarefas de especificar como um script é executado. Ele dá suporte a execução de apenas um nó, bem como de vários nós. A execução do avaliador produz um modelo no diretório de saída especificado no script de treinamento.

Inicialize o avaliador.

azureml.core.environment._DEFAULT_SHM_SIZE é usado. Para obter mais informações, consulte Referência de execução do Docker. :type shm_size: str :p aram resume_from: o caminho de dados que contém o ponto de verificação ou os arquivos de modelo dos quais retomar o experimento. :type resume_from: azureml.data.datapath.DataPath :p aram max_run_duration_seconds: o tempo máximo permitido para a execução. O Azure ML tentará automaticamente

cancele a execução se demorar mais do que esse valor.

Herança
azureml.train.estimator._mml_base_estimator.MMLBaseEstimator
Estimator

Construtor

Estimator(source_directory, *, compute_target=None, vm_size=None, vm_priority=None, entry_script=None, script_params=None, node_count=1, process_count_per_node=1, distributed_backend=None, distributed_training=None, use_gpu=False, use_docker=True, custom_docker_base_image=None, custom_docker_image=None, image_registry_details=None, user_managed=False, conda_packages=None, pip_packages=None, conda_dependencies_file_path=None, pip_requirements_file_path=None, conda_dependencies_file=None, pip_requirements_file=None, environment_variables=None, environment_definition=None, inputs=None, source_directory_data_store=None, shm_size=None, resume_from=None, max_run_duration_seconds=None, _disable_validation=True, _show_lint_warnings=False, _show_package_warnings=False)

Parâmetros

Nome Description
source_directory
Obrigatório
str

Um diretório local que contém a configuração do experimento e os arquivos de código necessários para um trabalho de treinamento.

compute_target
Obrigatório

O destino de computação onde o treinamento ocorrerá. Pode ser um objeto ou a cadeia de caracteres "local".

vm_size
Obrigatório
str

O tamanho da VM do destino de computação que será criado para o treinamento. Valores com suporte: qualquer tamanho de VM do Azure.

vm_priority
Obrigatório
str

A prioridade da VM do destino de computação que será criada para o treinamento. Se não for especificada, será usada a 'dedicada'.

Valores com suporte: 'dedicada' e 'de baixa prioridade'.

Isso tem efeito somente quando o parâmetro vm_size é especificado na entrada.

entry_script
Obrigatório
str

O caminho relativo para o arquivo usado para iniciar o treinamento.

script_params
Obrigatório

Um dicionário de argumentos de linha de comando para passar para o script de treinamento especificado em entry_script.

node_count
Obrigatório
int

O número de nós no destino de computação usado para treinamento. Se for maior que 1, um trabalho distribuído de MPI executará.

process_count_per_node
Obrigatório
int

O número de processos (ou "trabalhos") a serem executados em cada nó. Se for maior que 1, um trabalho distribuído de MPI executará. Apenas o destino AmlCompute tem suporte para trabalhos distribuídos.

distributed_backend
Obrigatório
str

O back-end de comunicação para treinamento distribuído.

PRETERIDO. Use o parâmetro distributed_training.

Valores com suporte: “mpi”. 'mpi' representa MPI/Horovod.

Esse parâmetro será necessário quando node_count ou process_count_per_node> 1.

Quando node_count == 1 e process_count_per_node == 1, nenhum back-end será usado, a menos que o back-end seja definido explicitamente. Apenas o destino AmlCompute tem suporte para treinamento distribuído.

distributed_training
Obrigatório
Mpi

Parâmetros para executar um trabalho de treinamento distribuído.

Para executar um trabalho distribuído com o back-end do MPI, use o objeto Mpi para especificar process_count_per_node.

use_gpu
Obrigatório

Indica se o ambiente para executar o experimento deve dar suporte a GPUs. Se true, uma imagem do Docker padrão baseada em GPU será usada no ambiente. Se false, uma imagem baseada em CPU será usada. As imagens do Docker (CPU ou GPU) padrão serão usadas somente se o parâmetro custom_docker_image não estiver definido. Essa configuração é usada apenas em destinos de computação habilitados para Docker.

use_docker
Obrigatório

Especifica se o ambiente para executar o experimento deve ser baseado em Docker.

custom_docker_base_image
Obrigatório
str

O nome da imagem do Docker a partir da qual a imagem a ser usada para treinamento será criada.

PRETERIDO. Use o parâmetro custom_docker_image.

Se não for definido, uma imagem padrão baseada em CPU será usada como imagem base.

custom_docker_image
Obrigatório
str

O nome da imagem do Docker a partir da qual a imagem a ser usada para treinamento será criada. Se não for definido, uma imagem padrão baseada em CPU será usada como imagem base. Especifique apenas as imagens disponíveis nos repositórios públicos do Docker (Docker Hub). Para usar uma imagem de um repositório privado do docker, use o parâmetro environment_definition do construtor em vez disso.

image_registry_details
Obrigatório

Os detalhes do registro de imagem do Docker.

user_managed
Obrigatório

Especifica se o Azure ML reutiliza um ambiente do Python existente. Se for false, um ambiente do Python será criado com base na especificação de dependências de conda.

conda_packages
Obrigatório

Uma lista de cadeia de caracteres representando pacotes conda a serem adicionados ao ambiente do Python para o experimento.

pip_packages
Obrigatório

Uma lista de cadeia de caracteres representando pacotes de pip a serem adicionados ao ambiente do Python para o experimento.

conda_dependencies_file_path
Obrigatório
str

O caminho relativo para o arquivo yaml de dependências conda. Se especificado, o Azure ML não instalará pacotes relacionados à estrutura.

PRETERIDO. Usar o parâmetro conda_dependencies_file.

Especifique conda_dependencies_file_path ou conda_dependencies_file. Se ambos forem especificados, conda_dependencies_file será usado.

pip_requirements_file_path
Obrigatório
str

O caminho relativo para o arquivo de texto de requisitos de pip.

PRETERIDO. Use o parâmetro pip_requirements_file.

Esse parâmetro pode ser especificado em combinação com o parâmetro pip_packages. Especifique pip_requirements_file_path ou pip_requirements_file. Se ambos forem especificados, pip_requirements_file será usado.

conda_dependencies_file
Obrigatório
str

O caminho relativo para o arquivo yaml de dependências conda. Se especificado, o Azure ML não instalará pacotes relacionados à estrutura.

pip_requirements_file
Obrigatório
str

O caminho relativo para o arquivo de texto de requisitos de pip. Esse parâmetro pode ser especificado em combinação com o parâmetro pip_packages.

environment_variables
Obrigatório

Um dicionário de valores e nomes de variáveis de ambiente. Essas variáveis de ambiente são definidas no processo em que o script do usuário está sendo executado.

environment_definition
Obrigatório

A definição de ambiente para o experimento. Inclui PythonSection, DockerSection e variáveis de ambiente. Qualquer opção de ambiente não exposta diretamente por meio de outros parâmetros à construção do Avaliador poderá ser definida usando esse parâmetro. Se esse parâmetro for especificado, ele terá precedência sobre outros parâmetros relacionados ao ambiente como use_gpu, custom_docker_image, conda_packages ou pip_packages. Erros serão relatados em combinações inválidas.

inputs
Obrigatório

Uma lista de objetos DataReference ou DatasetConsumptionConfig para usar como entrada.

source_directory_data_store
Obrigatório

O armazenamento de dados de apoio para o compartilhamento do projeto.

shm_size
Obrigatório
str

O tamanho do bloco de memória compartilhada do contêiner do Docker. Se não for definido, será usado o padrão azureml.core.environment._DEFAULT_SHM_SIZE. Para obter mais informações, consulte Referência de execução do Docker.

resume_from
Obrigatório

O caminho de dados que contém o ponto de verificação ou os arquivos de modelo dos quais retomar o experimento.

max_run_duration_seconds
Obrigatório
int

O tempo máximo permitido para a execução. O Azure ML tentará cancelar automaticamente a execução se demorar mais do que esse valor.

source_directory
Obrigatório
str

Um diretório local que contém a configuração do experimento e os arquivos de código necessários para um trabalho de treinamento.

compute_target
Obrigatório

O destino de computação onde o treinamento ocorrerá. Pode ser um objeto ou a cadeia de caracteres "local".

vm_size
Obrigatório
str

O tamanho da VM do destino de computação que será criado para o treinamento. Valores com suporte: qualquer tamanho de VM do Azure.

vm_priority
Obrigatório
str

A prioridade da VM do destino de computação que será criada para o treinamento. Se não for especificada, será usada a 'dedicada'.

Valores com suporte: 'dedicada' e 'de baixa prioridade'.

Isso tem efeito somente quando o parâmetro vm_size é especificado na entrada.

entry_script
Obrigatório
str

O caminho relativo para o arquivo usado para iniciar o treinamento.

script_params
Obrigatório

Um dicionário de argumentos de linha de comando para passar para o script de treinamento especificado em entry_script.

node_count
Obrigatório
int

O número de nós no destino de computação usado para treinamento. Se for maior que 1, um trabalho distribuído de MPI será executado. Apenas o destino AmlCompute tem suporte para trabalhos distribuídos.

process_count_per_node
Obrigatório
int

O número de processos por nó. Se for maior que 1, um trabalho distribuído de MPI será executado. Apenas o destino AmlCompute tem suporte para trabalhos distribuídos.

distributed_backend
Obrigatório
str

O back-end de comunicação para treinamento distribuído.

PRETERIDO. Use o parâmetro distributed_training.

Valores com suporte: “mpi”. 'mpi' representa MPI/Horovod.

Esse parâmetro será necessário quando node_count ou process_count_per_node> 1.

Quando node_count == 1 e process_count_per_node == 1, nenhum back-end será usado, a menos que o back-end seja definido explicitamente. Apenas o destino AmlCompute tem suporte para treinamento distribuído.

distributed_training
Obrigatório
Mpi

Parâmetros para executar um trabalho de treinamento distribuído.

Para executar um trabalho distribuído com o back-end do MPI, use o objeto Mpi para especificar process_count_per_node.

use_gpu
Obrigatório

Especifica se o ambiente para executar o experimento deve dar suporte a GPUs. Se true, uma imagem do Docker padrão baseada em GPU será usada no ambiente. Se false, uma imagem baseada em CPU será usada. As imagens do Docker (CPU ou GPU) padrão serão usadas somente se o parâmetro custom_docker_image não estiver definido. Essa configuração é usada apenas em destinos de computação habilitados para Docker.

use_docker
Obrigatório

Especifica se o ambiente para executar o experimento deve ser baseado em Docker.

custom_docker_base_image
Obrigatório
str

O nome da imagem do Docker a partir da qual a imagem a ser usada para treinamento será criada.

PRETERIDO. Use o parâmetro custom_docker_image.

Se não for definido, uma imagem padrão baseada em CPU será usada como imagem base.

custom_docker_image
Obrigatório
str

O nome da imagem do Docker a partir da qual a imagem a ser usada para treinamento será criada. Se não for definido, uma imagem padrão baseada em CPU será usada como imagem base. Especifique apenas as imagens disponíveis nos repositórios públicos do Docker (Docker Hub). Para usar uma imagem de um repositório privado do docker, use o parâmetro environment_definition do construtor em vez disso.

image_registry_details
Obrigatório

Os detalhes do registro de imagem do Docker.

user_managed
Obrigatório

Especifica se o Azure ML reutiliza um ambiente do Python existente. Se for false, um ambiente do Python será criado com base na especificação de dependências de conda.

conda_packages
Obrigatório

Uma lista de cadeia de caracteres representando pacotes conda a serem adicionados ao ambiente do Python para o experimento.

pip_packages
Obrigatório

Uma lista de cadeia de caracteres representando pacotes de pip a serem adicionados ao ambiente do Python para o experimento.

conda_dependencies_file_path
Obrigatório

O caminho relativo para o arquivo yaml de dependências conda. Se especificado, o Azure ML não instalará pacotes relacionados à estrutura.

PRETERIDO. Usar o parâmetro conda_dependencies_file.

Especifique conda_dependencies_file_path ou conda_dependencies_file. Se ambos forem especificados, conda_dependencies_file será usado.

pip_requirements_file_path
Obrigatório

O caminho relativo para o arquivo de texto de requisitos de pip.

PRETERIDO. Use o parâmetro pip_requirements_file.

Isso pode ser fornecido em combinação com o parâmetro pip_packages. Especifique pip_requirements_file_path ou pip_requirements_file. Se ambos forem especificados, pip_requirements_file será usado.

pip_requirements_file
Obrigatório
str

O caminho relativo para o arquivo de texto de requisitos de pip. Isso pode ser fornecido em combinação com o parâmetro pip_packages.

environment_variables
Obrigatório

Um dicionário de valores e nomes de variáveis de ambiente. Essas variáveis de ambiente são definidas no processo em que o script do usuário está sendo executado.

environment_definition
Obrigatório

A definição de ambiente para o experimento. Inclui PythonSection, DockerSection e variáveis de ambiente. Qualquer opção de ambiente não exposta diretamente por meio de outros parâmetros à construção do Avaliador poderá ser definida usando esse parâmetro. Se esse parâmetro for especificado, ele terá precedência sobre outros parâmetros relacionados ao ambiente como use_gpu, custom_docker_image, conda_packages ou pip_packages. Erros serão relatados em combinações inválidas.

inputs
Obrigatório

Uma lista de objetos DataReference ou DatasetConsumptionConfig para usar como entrada.

source_directory_data_store
Obrigatório

O armazenamento de dados de apoio para o compartilhamento do projeto.

shm_size
Obrigatório

O tamanho do bloco de memória compartilhada do contêiner do Docker. Se não estiver definido, o padrão

_disable_validation
Obrigatório

Desabilite a validação de script antes de executar o envio. O padrão é True.

_show_lint_warnings
Obrigatório

Mostrar avisos de linting de script. O padrão é False.

_show_package_warnings
Obrigatório

Mostrar avisos de validação de pacote. O padrão é False.