InferenceConfig Klasse
Stellt Konfigurationseinstellungen für eine benutzerdefinierte Umgebung dar, die für die Bereitstellung verwendet wird.
Die Rückschlusskonfiguration ist ein Eingabeparameter für Aktionen, die mit Model-Bereitstellungen im Zusammenhang stehen.
Initialisieren Sie das Config-Objekt.
- Vererbung
-
builtins.objectInferenceConfig
Konstruktor
InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)
Parameter
Name | Beschreibung |
---|---|
entry_script
Erforderlich
|
Pfad zu einer lokalen Datei, die den Code zum Ausführen für das Image enthält. |
runtime
|
Die für das Image zu verwendende Runtime. Aktuelle unterstützte Runtimes sind „spark-py“ und „python“. Standardwert: None
|
conda_file
|
Pfad zur lokalen Datei, die eine für das Image zu verwendende Conda-Umgebungsdefinition enthält. Standardwert: None
|
extra_docker_file_steps
|
Der Pfad zu einer lokalen Datei mit zusätzlichen Docker-Schritten, die bei der Einrichtung des Images ausgeführt werden. Standardwert: None
|
source_directory
|
Der Pfad zu dem Ordner, die alle Dateien zum Erstellen des Images enthalten. Standardwert: None
|
enable_gpu
|
Gibt an, ob die GPU-Unterstützung im Image aktiviert werden soll. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Der Standardwert lautet „False“. Standardwert: None
|
description
|
Eine Beschreibung, die diesem Image zugeordnet werden soll. Standardwert: None
|
base_image
|
Ein benutzerdefiniertes Image, das als Basisimage verwendet werden soll. Wenn kein Basisimage angegeben wird, dann wird das Basisimage basierend auf dem angegebenen Laufzeitparameter verwendet. Standardwert: None
|
base_image_registry
|
Die Imageregistrierung, die das Basisimage enthält. Standardwert: None
|
cuda_version
|
Die CUDA-Version, die für Images installiert wird, die GPU-Unterstützung benötigen. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Unterstützt werden die Versionen 9.0, 9.1 und 10.0.
Wenn Standardwert: None
|
environment
|
Ein für die Bereitstellung zu verwendendes Umgebungsobjekt. Die Umgebung muss nicht registriert werden. Geben Sie entweder diesen Parameter oder die anderen Parameter an, aber nicht beide. Die einzelnen Parameter dienen NICHT als Überschreibung für das Umgebungsobjekt. Ausnahmen sind Standardwert: None
|
entry_script
Erforderlich
|
Pfad zu einer lokalen Datei, die den Code zum Ausführen für das Image enthält. |
runtime
Erforderlich
|
Die für das Image zu verwendende Runtime. Aktuelle unterstützte Runtimes sind „spark-py“ und „python“. |
conda_file
Erforderlich
|
Pfad zur lokalen Datei, die eine für das Image zu verwendende Conda-Umgebungsdefinition enthält. |
extra_docker_file_steps
Erforderlich
|
Der Pfad zu einer lokalen Datei mit zusätzlichen Docker-Schritten, die bei der Einrichtung des Images ausgeführt werden. |
source_directory
Erforderlich
|
Der Pfad zu dem Ordner, die alle Dateien zum Erstellen des Images enthalten. |
enable_gpu
Erforderlich
|
Gibt an, ob die GPU-Unterstützung im Image aktiviert werden soll. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Der Standardwert lautet „False“. |
description
Erforderlich
|
Eine Beschreibung, die diesem Image zugeordnet werden soll. |
base_image
Erforderlich
|
Ein benutzerdefiniertes Image, das als Basisimage verwendet werden soll. Wenn kein Basisimage angegeben wird, dann wird das Basisimage basierend auf dem angegebenen Laufzeitparameter verwendet. |
base_image_registry
Erforderlich
|
Die Imageregistrierung, die das Basisimage enthält. |
cuda_version
Erforderlich
|
Die CUDA-Version, die für Images installiert wird, die GPU-Unterstützung benötigen. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Unterstützt werden die Versionen 9.0, 9.1 und 10.0.
Wenn |
environment
Erforderlich
|
Ein für die Bereitstellung zu verwendendes Umgebungsobjekt. Die Umgebung muss nicht registriert werden. Geben Sie entweder diesen Parameter oder die anderen Parameter an, aber nicht beide. Die einzelnen Parameter dienen NICHT als Überschreibung für das Umgebungsobjekt. Ausnahmen sind |
Hinweise
Das folgende Beispiel zeigt, wie Sie ein InferenceConfig-Objekt erstellen und zum Bereitstellen eines Modells verwenden.
from azureml.core.model import InferenceConfig
from azureml.core.webservice import AciWebservice
service_name = 'my-custom-env-service'
inference_config = InferenceConfig(entry_script='score.py', environment=environment)
aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)
service = Model.deploy(workspace=ws,
name=service_name,
models=[model],
inference_config=inference_config,
deployment_config=aci_config,
overwrite=True)
service.wait_for_deployment(show_output=True)
Variablen
Name | Beschreibung |
---|---|
entry_script
|
Pfad zu einer lokalen Datei, die den Code zum Ausführen für das Image enthält. |
runtime
|
Die für das Image zu verwendende Runtime. Aktuelle unterstützte Runtimes sind „spark-py“ und „python“. |
conda_file
|
Pfad zur lokalen Datei, die eine für das Image zu verwendende Conda-Umgebungsdefinition enthält. |
extra_docker_file_steps
|
Der Pfad zu einer lokalen Datei mit zusätzlichen Docker-Schritten, die bei der Einrichtung des Images ausgeführt werden. |
source_directory
|
Der Pfad zu dem Ordner, die alle Dateien zum Erstellen des Images enthalten. |
enable_gpu
|
Gibt an, ob die GPU-Unterstützung im Image aktiviert werden soll. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. |
azureml.core.model.InferenceConfig.description
|
Eine Beschreibung, die diesem Image zugeordnet werden soll. |
base_image
|
Ein benutzerdefiniertes Image, das als Basisimage verwendet werden soll. Wenn kein Basisimage angegeben wird, dann wird das Basisimage basierend auf dem angegebenen Laufzeitparameter verwendet. |
base_image_registry
|
Die Imageregistrierung, die das Basisimage enthält. |
cuda_version
|
Die CUDA-Version, die für Images installiert wird, die GPU-Unterstützung benötigen. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Unterstützt werden die Versionen 9.0, 9.1 und 10.0.
Wenn |
azureml.core.model.InferenceConfig.environment
|
Ein für die Bereitstellung zu verwendendes Umgebungsobjekt. Die Umgebung muss nicht registriert werden. Geben Sie entweder diesen Parameter oder die anderen Parameter an, aber nicht beide. Die einzelnen Parameter dienen NICHT als Überschreibung für das Umgebungsobjekt. Ausnahmen sind |
Methoden
build_create_payload |
Erstellen Sie die Nutzdaten für die Erstellung für das Containerimage. |
build_profile_payload |
Erstellen Sie die Profilerstellungs-Nutzdaten für das Modellpaket. |
validate_configuration |
Überprüft, ob die angegebenen Konfigurationswerte gültig sind. Löst eine WebserviceException aus, wenn die Überprüfung zu einem Fehler führt. |
validation_script_content |
Überprüfen mit „ast.parse“, ob die Syntax des Bewertungsskripts gültig ist. Löst eine UserErrorException aus, wenn die Überprüfung zu einem Fehler führt. |
build_create_payload
Erstellen Sie die Nutzdaten für die Erstellung für das Containerimage.
build_create_payload(workspace, name, model_ids)
Parameter
Name | Beschreibung |
---|---|
workspace
Erforderlich
|
Das Arbeitsbereichsobjekt, in dem das Image erstellt werden soll. |
name
Erforderlich
|
Der Name des Bildes. |
model_ids
Erforderlich
|
Eine Liste der Modell-IDs, die in das Image gepackt werden sollen. |
Gibt zurück
Typ | Beschreibung |
---|---|
Die Nutzdaten für die Erstellung des Containerimages. |
Ausnahmen
Typ | Beschreibung |
---|---|
build_profile_payload
Erstellen Sie die Profilerstellungs-Nutzdaten für das Modellpaket.
build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)
Parameter
Name | Beschreibung |
---|---|
profile_name
Erforderlich
|
Der Name der Profilerstellungsausführung. |
input_data
|
Die Eingabedaten für die Profilerstellung. Standardwert: None
|
workspace
|
Ein Arbeitsbereichsobjekt, in dem ein Profil für das Modell erstellt werden soll. Standardwert: None
|
models
|
Eine Liste mit Modellobjekten. Die Liste kann leer sein. Standardwert: None
|
dataset_id
|
ID, die dem Dataset zugeordnet ist, das Eingabedaten für die Profilerstellung enthält. Standardwert: None
|
container_resource_requirements
|
Containerressourcenanforderungen für die größte Instanz, für die das Modell bereitgestellt werden soll Standardwert: None
|
description
|
Eine Beschreibung, die der Profilerstellungsausführung zugeordnet werden soll. Standardwert: None
|
Gibt zurück
Typ | Beschreibung |
---|---|
Nutzdaten des Modellprofils |
Ausnahmen
Typ | Beschreibung |
---|---|
validate_configuration
Überprüft, ob die angegebenen Konfigurationswerte gültig sind.
Löst eine WebserviceException aus, wenn die Überprüfung zu einem Fehler führt.
validate_configuration()
Ausnahmen
Typ | Beschreibung |
---|---|
validation_script_content
Überprüfen mit „ast.parse“, ob die Syntax des Bewertungsskripts gültig ist.
Löst eine UserErrorException aus, wenn die Überprüfung zu einem Fehler führt.
validation_script_content()
Ausnahmen
Typ | Beschreibung |
---|---|