InferenceConfig Classe
Construtor
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Parâmetros
Nome | Description |
---|---|
entry_script
Obrigatório
|
O caminho para um arquivo local que contém o código a ser executado para a imagem. |
runtime
|
O runtime a ser usado para a imagem. Os runtimes atuais com suporte são 'spark-py' e 'python'. Valor padrão: None
|
conda_file
|
O caminho para um arquivo local que contém uma definição de ambiente conda a ser usada para a imagem. Valor padrão: None
|
extra_docker_file_steps
|
O caminho para um arquivo local que contém etapas adicionais do Docker a serem executadas ao configurar a imagem. Valor padrão: None
|
source_directory
|
O caminho para a pasta que contém todos os arquivos para criar a imagem. Valor padrão: None
|
enable_gpu
|
Indica se o suporte à GPU deve ser habilitado na imagem. A imagem de GPU deve ser usada nos Serviços do Microsoft Azure, como Instâncias de Contêiner do Azure, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Serviço de Kubernetes do Azure. Usa False como padrão. Valor padrão: None
|
description
|
Uma descrição para fornecer essa imagem. Valor padrão: None
|
base_image
|
Uma imagem personalizada a ser usada como imagem base. Se nenhuma imagem base for fornecida, a imagem base será usada com base em determinado parâmetro de runtime. Valor padrão: None
|
base_image_registry
|
O registro de imagem que contém a imagem base. Valor padrão: None
|
cuda_version
|
A versão do CUDA a ser instalada para imagens que precisam de suporte para GPU. A imagem de GPU deve ser usada nos Serviços do Microsoft Azure, como Instâncias de Contêiner do Azure, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Serviço de Kubernetes do Azure. As versões com suporte são 9.0, 9.1 e 10.0.
Se Valor padrão: None
|
environment
|
Um objeto de ambiente a ser usado para a implantação. O ambiente não precisa ser registrado. Forneça esse parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem Valor padrão: None
|
entry_script
Obrigatório
|
O caminho para um arquivo local que contém o código a ser executado para a imagem. |
runtime
Obrigatório
|
O runtime a ser usado para a imagem. Os runtimes atuais com suporte são 'spark-py' e 'python'. |
conda_file
Obrigatório
|
O caminho para um arquivo local que contém uma definição de ambiente conda a ser usada para a imagem. |
extra_docker_file_steps
Obrigatório
|
O caminho para um arquivo local que contém etapas adicionais do Docker a serem executadas ao configurar a imagem. |
source_directory
Obrigatório
|
O caminho para a pasta que contém todos os arquivos para criar a imagem. |
enable_gpu
Obrigatório
|
Indica se o suporte à GPU deve ser habilitado na imagem. A imagem de GPU deve ser usada nos Serviços do Microsoft Azure, como Instâncias de Contêiner do Azure, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Serviço de Kubernetes do Azure. Usa False como padrão. |
description
Obrigatório
|
Uma descrição para fornecer essa imagem. |
base_image
Obrigatório
|
Uma imagem personalizada a ser usada como imagem base. Se nenhuma imagem base for fornecida, a imagem base será usada com base em determinado parâmetro de runtime. |
base_image_registry
Obrigatório
|
O registro de imagem que contém a imagem base. |
cuda_version
Obrigatório
|
A versão do CUDA a ser instalada para imagens que precisam de suporte para GPU. A imagem de GPU deve ser usada nos Serviços do Microsoft Azure, como Instâncias de Contêiner do Azure, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Serviço de Kubernetes do Azure. As versões com suporte são 9.0, 9.1 e 10.0.
Se |
environment
Obrigatório
|
Um objeto de ambiente a ser usado para a implantação. O ambiente não precisa ser registrado. Forneça esse parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem |
Comentários
O exemplo a seguir mostra como criar um objeto InferenceConfig e usá-lo para implantar um modelo.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variáveis
Nome | Description |
---|---|
entry_script
|
O caminho para um arquivo local que contém o código a ser executado para a imagem. |
runtime
|
O runtime a ser usado para a imagem. Os runtimes atuais com suporte são 'spark-py' e 'python'. |
conda_file
|
O caminho para um arquivo local que contém uma definição de ambiente conda a ser usada para a imagem. |
extra_docker_file_steps
|
O caminho para um arquivo local que contém etapas adicionais do Docker a serem executadas ao configurar a imagem. |
source_directory
|
O caminho para a pasta que contém todos os arquivos para criar a imagem. |
enable_gpu
|
Indica se o suporte à GPU deve ser habilitado na imagem. A imagem de GPU deve ser usada nos Serviços do Microsoft Azure, como Instâncias de Contêiner do Azure, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Serviço de Kubernetes do Azure. |
azureml.core.model.InferenceConfig.description
|
Uma descrição para fornecer essa imagem. |
base_image
|
Uma imagem personalizada a ser usada como imagem base. Se nenhuma imagem base for fornecida, a imagem base será usada com base em determinado parâmetro de runtime. |
base_image_registry
|
O registro de imagem que contém a imagem base. |
cuda_version
|
A versão do CUDA a ser instalada para imagens que precisam de suporte para GPU. A imagem de GPU deve ser usada nos Serviços do Microsoft Azure, como Instâncias de Contêiner do Azure, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Serviço de Kubernetes do Azure. As versões com suporte são 9.0, 9.1 e 10.0.
Se |
azureml.core.model.InferenceConfig.environment
|
Um objeto de ambiente a ser usado para a implantação. O ambiente não precisa ser registrado. Forneça esse parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem |
Métodos
build_create_payload |
Crie o conteúdo de criação para a imagem de contêiner. |
build_profile_payload |
Crie o conteúdo de criação de perfil para o pacote De modelo. |
validate_configuration |
Verifique se os valores de configuração especificados são válidos. Gera um WebserviceException caso de falha na validação. |
validation_script_content |
Verifique se a sintaxe do script de pontuação é válida com ast.parse. Gera um UserErrorException caso de falha na validação. |
build_create_payload
Crie o conteúdo de criação para a imagem de contêiner.
build_create_payload(workspace, name, model_ids)
Parâmetros
Nome | Description |
---|---|
workspace
Obrigatório
|
O objeto de workspace no qual criar a imagem. |
name
Obrigatório
|
O nome da imagem. |
model_ids
Obrigatório
|
Uma lista de IDs de modelo a serem empacotadas na imagem. |
Retornos
Tipo | Description |
---|---|
O conteúdo da criação da imagem do contêiner. |
Exceções
Tipo | Description |
---|---|
build_profile_payload
Crie o conteúdo de criação de perfil para o pacote De modelo.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Parâmetros
Nome | Description |
---|---|
profile_name
Obrigatório
|
O nome da execução de criação de perfil. |
input_data
|
Os dados de entrada para criação de perfil. Valor padrão: None
|
workspace
|
Um objeto workspace no qual o perfil do modelo será criado. Valor padrão: None
|
models
|
Uma lista de objetos de modelo. Pode ser uma lista vazia. Valor padrão: None
|
dataset_id
|
ID associada ao conjunto de dados que contém dados de entrada para a execução de criação de perfil. Valor padrão: None
|
container_resource_requirements
|
requisitos de recurso de contêiner para a maior instância para a qual o modelo deve ser implantado Valor padrão: None
|
description
|
Descrição a ser associada à execução de criação de perfil. Valor padrão: None
|
Retornos
Tipo | Description |
---|---|
Conteúdo do perfil do modelo |
Exceções
Tipo | Description |
---|---|
validate_configuration
Verifique se os valores de configuração especificados são válidos.
Gera um WebserviceException caso de falha na validação.
validate_configuration()
Exceções
Tipo | Description |
---|---|
validation_script_content
Verifique se a sintaxe do script de pontuação é válida com ast.parse.
Gera um UserErrorException caso de falha na validação.
validation_script_content()
Exceções
Tipo | Description |
---|---|