InferenceConfig Clase
- Herencia
-
builtins.objectInferenceConfig
Constructor
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Parámetros
Nombre | Description |
---|---|
entry_script
Requerido
|
Ruta de acceso al archivo local que contiene el código que se ejecuta para la imagen. |
runtime
|
Runtime que se usará para la imagen. Los runtimes admitidos actualmente son "spark-py" y "python". Valor predeterminado: None
|
conda_file
|
Ruta de acceso a un archivo local que contiene una definición de entorno de conda que se usará para la imagen. Valor predeterminado: None
|
extra_docker_file_steps
|
Ruta de acceso a un archivo local que contiene los pasos de Docker adicionales que se deben ejecutar al configurar la imagen. Valor predeterminado: None
|
source_directory
|
Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen. Valor predeterminado: None
|
enable_gpu
|
Indica si se habilita la compatibilidad con GPU en la imagen. La imagen GPU se debe usar en servicios de Microsoft Azure como Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines y Azure Kubernetes Service. El valor predeterminado es False. Valor predeterminado: None
|
description
|
Descripción para proporcionar esta imagen. Valor predeterminado: None
|
base_image
|
una imagen personalizada que se usará como imagen base. Si no se especifica ninguna imagen base, la imagen base se usará en función del parámetro de runtime proporcionado. Valor predeterminado: None
|
base_image_registry
|
Registro de imágenes que contiene la imagen base. Valor predeterminado: None
|
cuda_version
|
Versión de CUDA que se debe instalar para las imágenes que requieren compatibilidad con GPU. La imagen GPU se debe usar en servicios de Microsoft Azure como Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines y Azure Kubernetes Service. Las versiones compatibles son 9.0, 9.1 y 10.0.
Si Valor predeterminado: None
|
environment
|
Objeto del entorno que se usará para la implementación. El entorno no tiene que registrarse. Proporcione este parámetro o los demás, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen Valor predeterminado: None
|
entry_script
Requerido
|
Ruta de acceso al archivo local que contiene el código que se ejecuta para la imagen. |
runtime
Requerido
|
Runtime que se usará para la imagen. Los runtimes admitidos actualmente son "spark-py" y "python". |
conda_file
Requerido
|
Ruta de acceso a un archivo local que contiene una definición de entorno de conda que se usará para la imagen. |
extra_docker_file_steps
Requerido
|
Ruta de acceso a un archivo local que contiene los pasos de Docker adicionales que se deben ejecutar al configurar la imagen. |
source_directory
Requerido
|
Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen. |
enable_gpu
Requerido
|
Indica si se habilita la compatibilidad con GPU en la imagen. La imagen GPU se debe usar en servicios de Microsoft Azure como Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines y Azure Kubernetes Service. El valor predeterminado es False. |
description
Requerido
|
Descripción para proporcionar esta imagen. |
base_image
Requerido
|
una imagen personalizada que se usará como imagen base. Si no se especifica ninguna imagen base, la imagen base se usará en función del parámetro de runtime proporcionado. |
base_image_registry
Requerido
|
Registro de imágenes que contiene la imagen base. |
cuda_version
Requerido
|
Versión de CUDA que se debe instalar para las imágenes que requieren compatibilidad con GPU. La imagen GPU se debe usar en servicios de Microsoft Azure como Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines y Azure Kubernetes Service. Las versiones compatibles son 9.0, 9.1 y 10.0.
Si |
environment
Requerido
|
Objeto del entorno que se usará para la implementación. El entorno no tiene que registrarse. Proporcione este parámetro o los demás, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen |
Comentarios
En el ejemplo siguiente se muestra cómo crear un objeto InferenceConfig y usarlo para implementar un modelo.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variables
Nombre | Description |
---|---|
entry_script
|
Ruta de acceso al archivo local que contiene el código que se ejecuta para la imagen. |
runtime
|
Runtime que se usará para la imagen. Los runtimes admitidos actualmente son "spark-py" y "python". |
conda_file
|
Ruta de acceso a un archivo local que contiene una definición de entorno de conda que se usará para la imagen. |
extra_docker_file_steps
|
Ruta de acceso a un archivo local que contiene los pasos de Docker adicionales que se deben ejecutar al configurar la imagen. |
source_directory
|
Ruta de acceso a la carpeta que contiene todos los archivos para crear la imagen. |
enable_gpu
|
Indica si se habilita la compatibilidad con GPU en la imagen. La imagen GPU se debe usar en servicios de Microsoft Azure como Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines y Azure Kubernetes Service. |
azureml.core.model.InferenceConfig.description
|
Descripción para proporcionar esta imagen. |
base_image
|
una imagen personalizada que se usará como imagen base. Si no se especifica ninguna imagen base, la imagen base se usará en función del parámetro de runtime proporcionado. |
base_image_registry
|
Registro de imágenes que contiene la imagen base. |
cuda_version
|
Versión de CUDA que se debe instalar para las imágenes que requieren compatibilidad con GPU. La imagen GPU se debe usar en servicios de Microsoft Azure como Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines y Azure Kubernetes Service. Las versiones compatibles son 9.0, 9.1 y 10.0.
Si |
azureml.core.model.InferenceConfig.environment
|
Objeto del entorno que se usará para la implementación. El entorno no tiene que registrarse. Proporcione este parámetro o los demás, pero no ambos. Los parámetros individuales NO servirán como invalidación para el objeto de entorno. Las excepciones incluyen |
Métodos
build_create_payload |
Cree la carga de creación de la imagen de contenedor. |
build_profile_payload |
Crea la carga de generación de perfiles del paquete del modelo. |
validate_configuration |
Comprueba que los valores de configuración especificados sean válidos. Genera una excepción WebserviceException si la validación produce un error. |
validation_script_content |
Compruebe que la sintaxis del script de puntuación es válida con ast.parse. Genera una excepción UserErrorException si la validación produce un error. |
build_create_payload
Cree la carga de creación de la imagen de contenedor.
build_create_payload(workspace, name, model_ids)
Parámetros
Nombre | Description |
---|---|
workspace
Requerido
|
Objeto de área de trabajo en el que se creará la imagen. |
name
Requerido
|
Nombre de la imagen. |
model_ids
Requerido
|
Lista de los id. del modelo que se empaquetan en la imagen. |
Devoluciones
Tipo | Description |
---|---|
Carga de creación de la imagen de contenedor. |
Excepciones
Tipo | Description |
---|---|
build_profile_payload
Crea la carga de generación de perfiles del paquete del modelo.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Parámetros
Nombre | Description |
---|---|
profile_name
Requerido
|
Nombre de la ejecución de generación de perfiles. |
input_data
|
Datos de entrada de la generación de perfiles. Valor predeterminado: None
|
workspace
|
Objeto de área de trabajo en el que se generarán los perfiles del modelo. Valor predeterminado: None
|
models
|
Lista de objetos de modelo. Puede ser una lista vacía. Valor predeterminado: None
|
dataset_id
|
Identificador asociado al conjunto de datos que contiene los datos de entrada de la ejecución de generación de perfiles. Valor predeterminado: None
|
container_resource_requirements
|
Requisitos de recursos de contenedor para la instancia más grande en la que se va a implementar el modelo. Valor predeterminado: None
|
description
|
Descripción que se va a asociar a la ejecución de generación de perfiles. Valor predeterminado: None
|
Devoluciones
Tipo | Description |
---|---|
Carga del perfil de modelo |
Excepciones
Tipo | Description |
---|---|
validate_configuration
Comprueba que los valores de configuración especificados sean válidos.
Genera una excepción WebserviceException si la validación produce un error.
validate_configuration()
Excepciones
Tipo | Description |
---|---|
validation_script_content
Compruebe que la sintaxis del script de puntuación es válida con ast.parse.
Genera una excepción UserErrorException si la validación produce un error.
validation_script_content()
Excepciones
Tipo | Description |
---|---|