InferenceConfig クラス

デプロイに使用されるカスタム環境の構成設定を表します。

推論構成は、Model デプロイ関連アクションの入力パラメーターです。

継承
builtins.object
InferenceConfig

コンストラクター

InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)

パラメーター

entry_script
str
必須

イメージに対して実行するコードを含むローカル ファイルのパス。

runtime
str
既定値: None

イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。

conda_file
str
既定値: None

イメージに使用する Conda 環境定義を含むローカル ファイルのパス。

extra_docker_file_steps
str
既定値: None

イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。

source_directory
str
既定値: None

イメージを作成するためのすべてのファイルを含むフォルダーのパス。

enable_gpu
bool
既定値: None

イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。

description
str
既定値: None

このイメージに付与する説明。

base_image
str
既定値: None

基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。

base_image_registry
ContainerRegistry
既定値: None

基本イメージを含むイメージ レジストリ。

cuda_version
str
既定値: None

GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。 enable_gpu が設定されている場合、これは既定では "9.1" に設定されます。

environment
Environment
既定値: None

デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。

このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_scriptsource_directorydescription があります。

注釈

次のサンプルは、InferenceConfig オブジェクトを作成し、それを使用してモデルをデプロイする方法を示しています。


   from azureml.core.model import InferenceConfig
   from azureml.core.webservice import AciWebservice


   service_name = 'my-custom-env-service'

   inference_config = InferenceConfig(entry_script='score.py', environment=environment)
   aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)

   service = Model.deploy(workspace=ws,
                          name=service_name,
                          models=[model],
                          inference_config=inference_config,
                          deployment_config=aci_config,
                          overwrite=True)
   service.wait_for_deployment(show_output=True)

完全なサンプルは、https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/deployment/deploy-to-cloud/model-register-and-deploy.ipynb から入手できます

変数

entry_script
str

イメージに対して実行するコードを含むローカル ファイルのパス。

runtime
str

イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。

conda_file
str

イメージに使用する Conda 環境定義を含むローカル ファイルのパス。

extra_docker_file_steps
str

イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。

source_directory
str

イメージを作成するためのすべてのファイルを含むフォルダーのパス。

enable_gpu
bool

イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。

azureml.core.model.InferenceConfig.description

このイメージに付与する説明。

base_image
str

基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。

base_image_registry
ContainerRegistry

基本イメージを含むイメージ レジストリ。

cuda_version
str

GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。 enable_gpu が設定されている場合、これは既定では "9.1" に設定されます。

azureml.core.model.InferenceConfig.environment

デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。

このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_scriptsource_directorydescription があります。

メソッド

build_create_payload

コンテナー イメージの作成ペイロードをビルドします。

build_profile_payload

モデル パッケージのプロファイル ペイロードをビルドします。

validate_configuration

指定された構成値が有効であることを確認します。

検証が失敗した場合、WebserviceException を発生させます。

validation_script_content

ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。

検証が失敗した場合、UserErrorException を発生させます。

build_create_payload

コンテナー イメージの作成ペイロードをビルドします。

build_create_payload(workspace, name, model_ids)

パラメーター

workspace
Workspace
必須

イメージを作成するワークスペース オブジェクト。

name
str
必須

イメージの名前。

model_ids
list[str]
必須

イメージにパッケージ化するモデル ID のリスト。

戻り値

コンテナー イメージの作成ペイロード。

の戻り値の型 :

例外

build_profile_payload

モデル パッケージのプロファイル ペイロードをビルドします。

build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)

パラメーター

profile_name
str
必須

プロファイル実行の名前。

input_data
str
既定値: None

プロファイルの入力データ。

workspace
Workspace
既定値: None

モデルをプロファイルするワークスペース オブジェクト。

models
list[Model]
既定値: None

モデル オブジェクトのリスト。 空のリストにすることができます。

dataset_id
str
既定値: None

プロファイル実行の入力データを含むデータセットに関連付けられている ID。

container_resource_requirements
ContainerResourceRequirements
既定値: None

モデルをデプロイする先の最大インスタンスのコンテナー リソース要件

description
str
既定値: None

プロファイル実行に関連付ける説明。

戻り値

モデルのプロファイル ペイロード

の戻り値の型 :

例外

validate_configuration

指定された構成値が有効であることを確認します。

検証が失敗した場合、WebserviceException を発生させます。

validate_configuration()

例外

validation_script_content

ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。

検証が失敗した場合、UserErrorException を発生させます。

validation_script_content()

例外