InferenceConfig Classe
- Herança
-
builtins.objectInferenceConfig
Construtor
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Parâmetros
- entry_script
- str
O caminho para um ficheiro local que contém o código a executar para a imagem.
- runtime
- str
O runtime a utilizar para a imagem. Os runtimes suportados atuais são "spark-py" e "python".
- conda_file
- str
O caminho para um ficheiro local que contém uma definição de ambiente conda a utilizar para a imagem.
- extra_docker_file_steps
- str
O caminho para um ficheiro local que contém passos adicionais do Docker a executar ao configurar a imagem.
- source_directory
- str
O caminho para a pasta que contém todos os ficheiros para criar a imagem.
- enable_gpu
- bool
Indica se pretende ativar o suporte de GPU na imagem. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. A predefinição é Falso.
- base_image
- str
Uma imagem personalizada a ser utilizada como imagem de base. Se não for dada nenhuma imagem de base, a imagem de base será utilizada com base num determinado parâmetro de runtime.
- base_image_registry
- ContainerRegistry
O registo de imagens que contém a imagem de base.
- cuda_version
- str
A Versão do CUDA a instalar para imagens que precisam de suporte de GPU. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. As versões suportadas são 9.0, 9.1 e 10.0.
Se enable_gpu
estiver definido, esta predefinição é "9.1".
- environment
- Environment
Um objeto de ambiente a utilizar para a implementação. O ambiente não tem de ser registado.
Forneça este parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem entry_script
, source_directory
e description
.
- entry_script
- str
O caminho para um ficheiro local que contém o código a executar para a imagem.
- runtime
- str
O runtime a utilizar para a imagem. Os runtimes suportados atuais são "spark-py" e "python".
- conda_file
- str
O caminho para um ficheiro local que contém uma definição de ambiente conda a utilizar para a imagem.
- extra_docker_file_steps
- str
O caminho para um ficheiro local que contém passos adicionais do Docker a executar ao configurar a imagem.
- source_directory
- str
O caminho para a pasta que contém todos os ficheiros para criar a imagem.
- enable_gpu
- bool
Indica se pretende ativar o suporte de GPU na imagem. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. A predefinição é Falso.
- base_image
- str
Uma imagem personalizada a ser utilizada como imagem de base. Se não for dada nenhuma imagem de base, a imagem de base será utilizada com base num determinado parâmetro de runtime.
- cuda_version
- str
A Versão do CUDA a instalar para imagens que precisam de suporte de GPU. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. As versões suportadas são 9.0, 9.1 e 10.0.
Se enable_gpu
estiver definido, esta predefinição é "9.1".
- environment
- Environment
Um objeto de ambiente a utilizar para a implementação. O ambiente não tem de ser registado.
Forneça este parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem entry_script
, source_directory
e description
.
Observações
O exemplo seguinte mostra como criar um objeto InferenceConfig e utilizá-lo para implementar um modelo.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variáveis
- entry_script
- str
O caminho para um ficheiro local que contém o código a executar para a imagem.
- runtime
- str
O runtime a utilizar para a imagem. Os runtimes suportados atuais são "spark-py" e "python".
- conda_file
- str
O caminho para um ficheiro local que contém uma definição de ambiente conda a utilizar para a imagem.
- extra_docker_file_steps
- str
O caminho para um ficheiro local que contém passos adicionais do Docker a executar ao configurar a imagem.
- source_directory
- str
O caminho para a pasta que contém todos os ficheiros para criar a imagem.
- enable_gpu
- bool
Indica se pretende ativar o suporte de GPU na imagem. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service.
- azureml.core.model.InferenceConfig.description
Uma descrição para dar esta imagem.
- base_image
- str
Uma imagem personalizada a ser utilizada como imagem de base. Se não for dada nenhuma imagem de base, a imagem de base será utilizada com base num determinado parâmetro de runtime.
- base_image_registry
- ContainerRegistry
O registo de imagens que contém a imagem de base.
- cuda_version
- str
A versão do CUDA a instalar para imagens que precisam de suporte de GPU. A imagem de GPU tem de ser utilizada nos Serviços do Microsoft Azure, como Azure Container Instances, Computação do Azure Machine Learning, Máquinas Virtuais do Azure e Azure Kubernetes Service. As versões suportadas são 9.0, 9.1 e 10.0.
Se enable_gpu
estiver definido, esta predefinição é "9.1".
- azureml.core.model.InferenceConfig.environment
Um objeto de ambiente a utilizar para a implementação. O ambiente não tem de ser registado.
Forneça este parâmetro ou os outros parâmetros, mas não ambos. Os parâmetros individuais NÃO servirão como uma substituição para o objeto de ambiente. As exceções incluem entry_script
, source_directory
e description
.
Métodos
build_create_payload |
Crie o payload de criação para a imagem contentor. |
build_profile_payload |
Crie o payload de criação de perfis para o pacote Modelo. |
validate_configuration |
Verifique se os valores de configuração especificados são válidos. Gera uma WebserviceException falha na validação if. |
validation_script_content |
Verifique se a sintaxe do script de classificação é válida com ast.parse. Gera uma UserErrorException falha na validação if. |
build_create_payload
Crie o payload de criação para a imagem contentor.
build_create_payload(workspace, name, model_ids)
Parâmetros
Devoluções
O payload de criação da imagem de contentor.
Tipo de retorno
Exceções
build_profile_payload
Crie o payload de criação de perfis para o pacote Modelo.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Parâmetros
- workspace
- Workspace
Um objeto de Área de Trabalho no qual criar o perfil do modelo.
Uma lista de objetos de modelo. Pode ser uma lista vazia.
- dataset_id
- str
ID associado ao conjunto de dados que contém dados de entrada para a execução de criação de perfis.
- container_resource_requirements
- ContainerResourceRequirements
requisitos de recursos de contentor para a maior instância na qual o modelo vai ser implementado
Devoluções
Payload do perfil de modelo
Tipo de retorno
Exceções
validate_configuration
Verifique se os valores de configuração especificados são válidos.
Gera uma WebserviceException falha na validação if.
validate_configuration()
Exceções
validation_script_content
Verifique se a sintaxe do script de classificação é válida com ast.parse.
Gera uma UserErrorException falha na validação if.
validation_script_content()
Exceções
Comentários
https://aka.ms/ContentUserFeedback.
Brevemente: Ao longo de 2024, vamos descontinuar progressivamente o GitHub Issues como mecanismo de feedback para conteúdos e substituí-lo por um novo sistema de feedback. Para obter mais informações, veja:Submeter e ver comentários