次の方法で共有


InferenceConfig クラス

デプロイに使用されるカスタム環境の構成設定を表します。

推論構成は、Model デプロイ関連アクションの入力パラメーターです。

config オブジェクトを初期化します。

継承
builtins.object
InferenceConfig

コンストラクター

InferenceConfig(entry_script, runtime=None, conda_file=None, extra_docker_file_steps=None, source_directory=None, enable_gpu=None, description=None, base_image=None, base_image_registry=None, cuda_version=None, environment=None)

パラメーター

名前 説明
entry_script
必須
str

イメージに対して実行するコードを含むローカル ファイルのパス。

runtime
str

イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。

規定値: None
conda_file
str

イメージに使用する Conda 環境定義を含むローカル ファイルのパス。

規定値: None
extra_docker_file_steps
str

イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。

規定値: None
source_directory
str

イメージを作成するためのすべてのファイルを含むフォルダーのパス。

規定値: None
enable_gpu

イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。

規定値: None
description
str

このイメージに付与する説明。

規定値: None
base_image
str

基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。

規定値: None
base_image_registry

基本イメージを含むイメージ レジストリ。

規定値: None
cuda_version
str

GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。 enable_gpu が設定されている場合、これは既定では "9.1" に設定されます。

規定値: None
environment

デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。

このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_scriptsource_directorydescription があります。

規定値: None
entry_script
必須
str

イメージに対して実行するコードを含むローカル ファイルのパス。

runtime
必須
str

イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。

conda_file
必須
str

イメージに使用する Conda 環境定義を含むローカル ファイルのパス。

extra_docker_file_steps
必須
str

イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。

source_directory
必須
str

イメージを作成するためのすべてのファイルを含むフォルダーのパス。

enable_gpu
必須

イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 既定値は False です。

description
必須
str

このイメージに付与する説明。

base_image
必須
str

基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。

base_image_registry
必須

基本イメージを含むイメージ レジストリ。

cuda_version
必須
str

GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。 enable_gpu が設定されている場合、これは既定では "9.1" に設定されます。

environment
必須

デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。

このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_scriptsource_directorydescription があります。

注釈

次のサンプルは、InferenceConfig オブジェクトを作成し、それを使用してモデルをデプロイする方法を示しています。


   from azureml.core.model import InferenceConfig
   from azureml.core.webservice import AciWebservice


   service_name = 'my-custom-env-service'

   inference_config = InferenceConfig(entry_script='score.py', environment=environment)
   aci_config = AciWebservice.deploy_configuration(cpu_cores=1, memory_gb=1)

   service = Model.deploy(workspace=ws,
                          name=service_name,
                          models=[model],
                          inference_config=inference_config,
                          deployment_config=aci_config,
                          overwrite=True)
   service.wait_for_deployment(show_output=True)

変数

名前 説明
entry_script
str

イメージに対して実行するコードを含むローカル ファイルのパス。

runtime
str

イメージに使用するランタイム。 現在サポートされているランタイムは "spark-py" と "python" です。

conda_file
str

イメージに使用する Conda 環境定義を含むローカル ファイルのパス。

extra_docker_file_steps
str

イメージを設定するときに実行する追加の Docker 手順を含むローカル ファイルのパス。

source_directory
str

イメージを作成するためのすべてのファイルを含むフォルダーのパス。

enable_gpu

イメージで GPU サポートを有効にするかどうかを示します。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。

azureml.core.model.InferenceConfig.description

このイメージに付与する説明。

base_image
str

基本イメージとして使用するカスタム イメージ。 基本イメージが指定されていない場合、基本イメージは、指定されたランタイム パラメーターに基づいて使用されます。

base_image_registry

基本イメージを含むイメージ レジストリ。

cuda_version
str

GPU のサポートが必要なイメージ用にインストールする CUDA のバージョン。 GPU イメージは、Azure Container Instances、Azure Machine Learning コンピューティング、Azure Virtual Machines、Azure Kubernetes Service などの Microsoft Azure サービス上で使用する必要があります。 サポートされているバージョンは 9.0、9.1、10.0 です。 enable_gpu が設定されている場合、これは既定では "9.1" に設定されます。

azureml.core.model.InferenceConfig.environment

デプロイに使用する環境オブジェクト。 この環境は登録する必要ありません。

このパラメーターか、他のパラメーターかどちらか一方を指定してください。両方を指定することはできません。 個々のパラメーターは、環境オブジェクトのオーバーライドとしては機能しません。 例外として、entry_scriptsource_directorydescription があります。

メソッド

build_create_payload

コンテナー イメージの作成ペイロードをビルドします。

build_profile_payload

モデル パッケージのプロファイル ペイロードをビルドします。

validate_configuration

指定された構成値が有効であることを確認します。

検証が失敗した場合、WebserviceException を発生させます。

validation_script_content

ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。

検証が失敗した場合、UserErrorException を発生させます。

build_create_payload

コンテナー イメージの作成ペイロードをビルドします。

build_create_payload(workspace, name, model_ids)

パラメーター

名前 説明
workspace
必須

イメージを作成するワークスペース オブジェクト。

name
必須
str

イメージの名前。

model_ids
必須

イメージにパッケージ化するモデル ID のリスト。

戻り値

説明

コンテナー イメージの作成ペイロード。

例外

説明

build_profile_payload

モデル パッケージのプロファイル ペイロードをビルドします。

build_profile_payload(profile_name, input_data=None, workspace=None, models=None, dataset_id=None, container_resource_requirements=None, description=None)

パラメーター

名前 説明
profile_name
必須
str

プロファイル実行の名前。

input_data
str

プロファイルの入力データ。

規定値: None
workspace

モデルをプロファイルするワークスペース オブジェクト。

規定値: None
models

モデル オブジェクトのリスト。 空のリストにすることができます。

規定値: None
dataset_id
str

プロファイル実行の入力データを含むデータセットに関連付けられている ID。

規定値: None
container_resource_requirements

モデルをデプロイする先の最大インスタンスのコンテナー リソース要件

規定値: None
description
str

プロファイル実行に関連付ける説明。

規定値: None

戻り値

説明

モデルのプロファイル ペイロード

例外

説明

validate_configuration

指定された構成値が有効であることを確認します。

検証が失敗した場合、WebserviceException を発生させます。

validate_configuration()

例外

説明

validation_script_content

ast.parse を使用してスコア スクリプトの構文が有効であるかを確認します。

検証が失敗した場合、UserErrorException を発生させます。

validation_script_content()

例外

説明