CLI (v1) のインストールと使用
適用対象: Azure CLI ml 拡張機能 v1
重要
この記事の Azure CLI コマンドの一部では、Azure Machine Learning 用に azure-cli-ml
、つまり v1 の拡張機能を使用しています。 v1 拡張機能のサポートは、2025 年 9 月 30 日に終了します。 その日付まで、v1 拡張機能をインストールして使用できます。
2025 年 9 月 30 日より前に、ml
(v2) 拡張機能に移行することをお勧めします。 v2 拡張機能の詳細については、Azure ML CLI 拡張機能と Python SDK v2 に関するページを参照してください。
Azure Machine Learning CLI は Azure CLI への拡張機能であり、Azure プラットフォーム向けのクロスプラット フォームのコマンド ライン インターフェイスです。 この拡張機能では、Azure Machine Learning を操作するためのコマンドが提供されます。 それにより、機械学習のアクティビティを自動化することができます。 CLI 拡張機能を使用することで可能になるアクションの例を次に示します。
実験を実行して機械学習モデルを作成します
顧客が使用できるように機械学習モデルを登録します
機械学習モデルのライフサイクルをパッケージ化、デプロイ、追跡します
CLI は、Azure Machine Learning SDK に取って代わるものではありません。 自動化に適合するために高度にパラメーター化されたタスクを処理するように最適化された補完的ツールです。
前提条件
CLI を使用するには、Azure サブスクリプションが必要です。 Azure サブスクリプションをお持ちでない場合は、開始する前に無料アカウントを作成してください。 無料版または有料版の Azure Machine Learning を今すぐお試しください。
ご使用のローカル環境からこのドキュメントの CLI コマンドを使用するには、Azure CLI が必要です。
Azure Cloud Shell を使用する場合は、ブラウザーを使用してクラウド内に存在する CLI にアクセスします。
詳細なリファレンス ドキュメント
Azure CLI の azure-cli-ml 拡張機能に関する詳細なリファレンス ドキュメントを参照してください。
Azure サブスクリプションへの CLI の接続
重要
Azure Cloud Shell を使用している場合は、このセクションを省略できます。 Cloud Shell では、Azure サブスクリプションにログインするアカウントを使用して自動的に認証が行われます。
CLI から Azure サブスクリプションを認証するには、いくつかの方法があります。 最も基本的な方法は、ブラウザーを使用して対話形式で認証することです。 対話形式で認証するには、コマンド ラインまたはターミナルを開き、次のコマンドを使用します。
az login
CLI で既定のブラウザーを開くことができる場合、開いたブラウザにサインイン ページが読み込まれます。 それ以外の場合は、ブラウザーを開き、コマンド ラインの指示に従う必要があります。 この手順では、https://aka.ms/devicelogin にアクセスして認証コードを入力する必要があります。
ヒント
サインインすると、ご使用の Azure アカウントに関連付けられているサブスクリプションの一覧が表示されます。 isDefault: true
が示されているサブスクリプション情報が、Azure CLI コマンドに対して現在アクティブになっているサブスクリプションです。 このサブスクリプションは、Azure Machine Learning ワークスペースが含まれているものと同じである必要があります。 サブスクリプション情報は、Azure portal の自分のワークスペースの概要ページで確認できます。
別のサブスクリプションを選択するには、Azure CLI コマンドを使用して az account set -s <subscription>
コマンドを実行し、切り替えるサブスクリプション名または ID を指定します。 サブスクリプションの選択の詳細については、「複数の Azure サブスクリプションの使用」を参照してください。
その他の認証方法については、「Azure CLI を使用してサインインする」を参照してください。
拡張機能をインストールする
CLI (v1) 拡張機能をインストールするには、次のようにします。
az extension add -n azure-cli-ml
拡張機能を更新する
Machine Learning CLI 拡張機能を更新するには、次のコマンドを使用します。
az extension update -n azure-cli-ml
拡張機能を削除する
CLI 拡張機能を削除するには、次のコマンドを使用します。
az extension remove -n azure-cli-ml
リソース管理
次のコマンドは、CLI を使用して、Azure Machine Learning によって使用されるリソースを管理する方法を示したものです。
リソース グループがまだない場合は、作成します。
az group create -n myresourcegroup -l westus2
Azure Machine Learning ワークスペースを作成します。
az ml workspace create -w myworkspace -g myresourcegroup
詳しくは、「az ml workspace create」をご覧ください。
ワークスペース構成をフォルダーに接続して、CLI コンテキストの認識を有効にします。
az ml folder attach -w myworkspace -g myresourcegroup
このコマンドでは、サンプルの runconfig および conda 環境ファイルを含む
.azureml
サブディレクトリを作成します。 これには、Azure Machine Learning ワークスペースとの通信に使用されるconfig.json
ファイルも含まれています。詳しくは、「az ml folder attach」をご覧ください。
Azure BLOB コンテナーをデータストアとして接続します。
az ml datastore attach-blob -n datastorename -a accountname -c containername
詳しくは、「az ml datastore attach-blob」をご覧ください。
データストアにファイルをアップロードします。
az ml datastore upload -n datastorename -p sourcepath
詳細については、az ml datastore uploadに関するページを参照してください。
AKS クラスターをコンピューティング先として接続します。
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
詳しくは、「az ml computetarget attach aks」をご覧ください。
コンピューティング クラスター
新しいマネージド コンピューティング クラスターを作成します。
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
マネージド ID を使用して、新しいマネージド コンピューティング クラスターを作成する
ユーザー割り当てマネージド ID
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
システム割り当てマネージド ID
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
既存のクラスターにマネージド ID を追加します。
ユーザー割り当てマネージド ID
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
システム割り当てマネージド ID
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
詳しくは、「az ml computetarget create amlcompute」をご覧ください。
Note
Azure Machine Learning コンピューティング クラスターは、システムによって割り当てられた 1 つの ID またはユーザーによって割り当てられた複数の ID のみをサポートします。両方同時にはサポートしません。
コンピューティング インスタンス
コンピューティング インスタンスを管理します。 次のすべての例では、コンピューティング インスタンスの名前は cpu になります
新しい computeinstance を作成します。
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
詳細については、「az ml computetarget create computeinstance」をご覧ください。
computeinstance を停止します。
az ml computetarget computeinstance stop -n cpu -v
詳細については、「az ml computetarget computeinstance stop」を参照してください。
computeinstance を開始します。
az ml computetarget computeinstance start -n cpu -v
詳細については、「az ml computetarget computeinstance start」を参照してください。
computeinstance を再起動します。
az ml computetarget computeinstance restart -n cpu -v
詳細については、「az ml computetarget computeinstance restart」を参照してください。
computeinstance を削除します。
az ml computetarget delete -n cpu -v
詳細については、az ml computetarget の computeinstance の削除に関する記事をご覧ください。
実験の実行
実験の実行を開始する。 このコマンドを使う場合は、-c パラメーターに対して runconfig ファイルの名前 (ファイル システムが表示されている場合、*.runconfig の前のテキスト) を指定します。
az ml run submit-script -c sklearn -e testexperiment train.py
ヒント
az ml folder attach
コマンドでは、2 つのサンプル runconfig ファイルを含む.azureml
サブディレクトリが作成されます。プログラムで実行構成オブジェクトを作成する Python スクリプトがある場合は、RunConfig.save() を使用してそれを runconfig ファイルとして保存できます。
完全な runconfig のスキーマについては、こちらの JSON ファイルを参照してください。 スキーマは、各オブジェクトの
description
キーを使用して自己文書化されています。 また、有効な値の列挙と、末尾にテンプレートのスニペットがあります。詳しくは、「az ml run submit-script」をご覧ください。
次のように指定して、実験の一覧を表示します。
az ml experiment list
詳しくは、「az ml experiment list」をご覧ください。
HyperDrive の実行
Azure CLI で HyperDrive を使用すると、パラメーターの調整実行を行うことができます。 まず、次の形式で HyperDrive 構成ファイルを作成します。 ハイパーパラメーターのチューニング パラメーターの詳細については、モデルのハイパーパラメーターのチューニングに関する記事を参照してください。
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
実行構成ファイルと共にこのファイルを追加します。 その後、以下を使用して HyperDrive 実行を送信します。
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
runconfig の arguments セクションと HyperDrive 構成の parameter space に注意してください。これらには、トレーニング スクリプトに渡されるコマンドライン引数が含まれています。 runconfig の値は繰り返しごとに変わりませんが、HyperDrive 構成の範囲は反復処理されます。 両方のファイルで同じ引数を指定しないでください。
データセットの管理
次のコマンドは、Azure Machine Learning でデータセットを操作する方法を示しています。
データセットを登録する:
az ml dataset register -f mydataset.json
データセットを定義する場合に使用する JSON ファイルの形式の詳細については、
az ml dataset register --show-template
を使用してください。詳細については、「az ml dataset register」を参照してください。
ワークスペース内のすべてのデータセットを一覧表示する:
az ml dataset list
詳細については、「az ml dataset list」を参照してください。
データセットの詳細を取得する:
az ml dataset show -n dataset-name
詳細については、「az ml dataset show」を参照してください。
データセットの登録を解除する:
az ml dataset unregister -n dataset-name
詳細については、「az ml dataset unregister」を参照してください。
環境の管理
次のコマンドで、お使いのワークスペース用の Azure Machine Learning 環境を作成、登録、および一覧表示する方法を示します。
環境のスキャフォールディング ファイルを作成します。
az ml environment scaffold -n myenv -d myenvdirectory
詳細については、az ml environment scaffoldに関するページを参照してください。
環境を登録します。
az ml environment register -d myenvdirectory
詳細については、az ml environment registerに関するページを参照してください。
登録されている環境を一覧表示します。
az ml environment list
詳細については、az ml environment listに関するページを参照してください。
登録されている環境をダウンロードします。
az ml environment download -n myenv -d downloaddirectory
詳細については、az ml environment downloadに関するページを参照してください。
環境構成スキーマ
az ml environment scaffold
コマンドを使用した場合、CLI でカスタム環境構成を作成するために変更および使用できるテンプレートの azureml_environment.json
ファイルが生成されます。 最上位レベルのオブジェクトは、Python SDK の Environment
クラスに緩やかにマップされます。
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
次の表は、JSON ファイルの各最上位レベルのフィールド、その種類、説明の詳細を示しています。 オブジェクトの種類が Python SDK のクラスにリンクされている場合、各 JSON フィールドと、Python クラスのパブリック変数名の間には緩い 1 対 1 の一致が存在します。 場合によっては、フィールドがクラス変数ではなく、コンストラクター引数にマップされることがあります。 たとえば、environmentVariables
フィールドは Environment
クラスの environment_variables
変数にマップされます。
JSON フィールド | Type | 説明 |
---|---|---|
name |
string |
環境の名前。 名前を Microsoft や AzureML で始めないでください。 |
version |
string |
環境のバージョン。 |
environmentVariables |
{string: string} |
環境変数の名前と値のハッシュ マップ。 |
python |
ターゲット コンピューティング リソースで使用する Python 環境とインタープリターを定義する PythonSection 。 |
|
docker |
DockerSection |
環境の仕様に合わせて構築された Docker イメージをカスタマイズするための設定を定義します。 |
spark |
SparkSection |
セクションで Spark 設定が構成されます。 これは、フレームワークが PySpark に設定されている場合にのみ使用されます。 |
databricks |
DatabricksSection |
Databricks ライブラリの依存関係を構成します。 |
inferencingStackVersion |
string |
イメージに追加される推論スタックのバージョンを指定します。 推論スタックを追加しないようにするには、このフィールドを null のままにします。 有効な値: "latest"。 |
ML パイプラインの管理
次のコマンドは、機械学習パイプラインを操作する方法を示しています。
機械学習パイプラインを作成する:
az ml pipeline create -n mypipeline -y mypipeline.yml
詳しくは、「az ml pipeline create」をご覧ください。
パイプラインの YAML ファイルについて詳しくは、「YAML で機械学習パイプラインを定義する」をご覧ください。
パイプラインの実行:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
詳しくは、「az ml run submit-pipeline」をご覧ください。
パイプラインの YAML ファイルについて詳しくは、「YAML で機械学習パイプラインを定義する」をご覧ください。
パイプラインのスケジュールを設定する:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
詳しくは、「az ml pipeline create-schedule」をご覧ください。
モデルの登録、プロファイル、デプロイ
次のコマンドは、トレーニング済みモデルを登録し、それを運用サービスとしてデプロイする方法を示したものです。
Azure Machine Learning にモデルを登録する:
az ml model register -n mymodel -p sklearn_regression_model.pkl
詳しくは、「az ml model register」をご覧ください。
省略可能 モデルをプロファイルして、デプロイに最適な CPU とメモリの値を取得します。
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
詳しくは、「az ml model profile」をご覧ください。
モデルを AKS にデプロイします。
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
推論構成ファイル スキーマの詳細については、「推論構成スキーマ」を参照してください。
デプロイ構成ファイル スキーマの詳細については、「デプロイ構成スキーマ」を参照してください。
詳しくは、「az ml model deploy」をご覧ください。
推論構成スキーマ
inferenceconfig.json
ドキュメント内のエントリは、InferenceConfig クラスのパラメーターにマップされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。
JSON エンティティ | メソッド パラメーター | 説明 |
---|---|---|
entryScript |
entry_script |
イメージに対して実行するコードを含むローカル ファイルのパス。 |
sourceDirectory |
source_directory |
省略可能。 イメージを作成するためのすべてのファイルを含むフォルダーへのパス。パスにより、このフォルダーまたはサブ フォルダー内の任意のファイルへのアクセスが簡単になります。 ローカル コンピューターから Webservice の依存関係として、フォルダー全体をアップロードできます。 注: entry_script、conda_file、および extra_docker_file_steps パスは、source_directory パスへの相対パスです。 |
environment |
environment |
省略可能。 Azure Machine Learning 環境。 |
Azure Machine Learning 環境の完全な仕様を、推論構成ファイルに含めることができます。 この環境がワークスペースに存在しない場合は、Azure Machine Learning によって作成されます。 それ以外の場合は、必要に応じて Azure Machine Learning によって環境が更新されます。 次の JSON は例です。
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
また、分離された CLI パラメーターで既存の Azure Machine Learning 環境を使用し、推論構成ファイルから "環境" キーを削除することもできます。 環境名には -e を使用し、環境のバージョンには --ev を使用します。 --ev を指定しない場合は、最新バージョンが使用されます。 推論構成ファイルの例を次に示します。
{
"entryScript": "score.py",
"sourceDirectory": null
}
次のコマンドは、前述の推論構成ファイル (myInferenceConfig.json という名前) を使用してモデルをデプロイする方法を示しています。
また、既存の Azure Machine Learning 環境 (AzureML-Minimal という名前) の最新バージョンも使用します。
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
デプロイ構成スキーマ
ローカル デプロイ構成スキーマ
deploymentconfig.json
ドキュメントのエントリは、LocalWebservice.deploy_configuration のパラメーターにマッピングされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。
JSON エンティティ | メソッド パラメーター | 説明 |
---|---|---|
computeType |
NA | コンピューティング ターゲット。 ローカル ターゲットの場合、値は local である必要があります。 |
port |
port |
サービスの HTTP エンドポイントを公開するローカル ポート。 |
この JSON は、CLI で使用するデプロイ構成の例です。
{
"computeType": "local",
"port": 32267
}
この JSON を deploymentconfig.json
という名前のファイルとして保存します。
Azure コンテナー インスタンス デプロイ構成スキーマ
deploymentconfig.json
ドキュメントのエントリは、AciWebservice.deploy_configuration のパラメーターにマップされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。
JSON エンティティ | メソッド パラメーター | 説明 |
---|---|---|
computeType |
NA | コンピューティング ターゲット。 ACI の場合、値は ACI である必要があります。 |
containerResourceRequirements |
NA | CPU およびメモリ エンティティのコンテナー。 |
cpu |
cpu_cores |
割り当てる CPU コアの数。 既定値、0.1 |
memoryInGB |
memory_gb |
この Web サービスに割り当てるメモリの量 (GB 単位)。 既定値、0.5 |
location |
location |
この Web サービスのデプロイ先となる Azure リージョン。 指定されていない場合、ワークスペースの場所が使用されます。 利用できるリージョンの詳細はこちらをご覧ください: ACI リージョン |
authEnabled |
auth_enabled |
この Web サービスに対して認証を有効にするかどうか。 既定値は False です |
sslEnabled |
ssl_enabled |
この Web サービスに対して SSL を有効にするかどうか。 既定値は False です。 |
appInsightsEnabled |
enable_app_insights |
この Web サービスに対して AppInsights を有効にするかどうか。 既定値は False です |
sslCertificate |
ssl_cert_pem_file |
SSL が有効な場合、証明書ファイルが必要です |
sslKey |
ssl_key_pem_file |
SSL が有効な場合、キー ファイルが必要です |
cname |
ssl_cname |
SSL が有効な場合の cname |
dnsNameLabel |
dns_name_label |
スコアリング エンドポイントの dns 名ラベル。 指定されていない場合、一意の dns 名ラベルがスコアリング エンドポイントに対して生成されます。 |
次の JSON は、CLI で使用するデプロイ構成の例です。
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Azure Kubernetes Service デプロイ構成スキーマ
deploymentconfig.json
ドキュメントのエントリは、AksWebservice.deploy_configuration のパラメーターにマップされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。
JSON エンティティ | メソッド パラメーター | 説明 |
---|---|---|
computeType |
NA | コンピューティング ターゲット。 AKS の場合、値は aks である必要があります。 |
autoScaler |
NA | 自動スケーリングの構成要素が含まれます。 自動スケーラー テーブルを参照してください。 |
autoscaleEnabled |
autoscale_enabled |
Web サービスの自動スケールを有効にするかどうか。 numReplicas = 0 の場合、True 。それ以外の場合、False 。 |
minReplicas |
autoscale_min_replicas |
この Web サービスを自動スケールするときに使用するコンテナーの最小数。 既定値、1 。 |
maxReplicas |
autoscale_max_replicas |
この Web サービスを自動スケールするときに使用するコンテナーの最大数。 既定値、10 。 |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
自動スケーラーがこの Web サービスのスケーリングを試行する頻度。 既定値、1 。 |
targetUtilization |
autoscale_target_utilization |
オートスケーラーがこの web サービスに対してメンテナンスを試行する目標使用率 (最大 100%)。 既定値、70 。 |
dataCollection |
NA | データ収集の構成要素が含まれます。 |
storageEnabled |
collect_model_data |
Web サービスに対してモデル データ収集を有効にするかどうか。 既定値、False 。 |
authEnabled |
auth_enabled |
Web サービスに対してキー認証を有効にするかどうかを指定します。 tokenAuthEnabled と authEnabled の両方を True にすることはできません。 既定値、True 。 |
tokenAuthEnabled |
token_auth_enabled |
Web サービスに対してトークン認証を有効にするかどうかを指定します。 tokenAuthEnabled と authEnabled の両方を True にすることはできません。 既定値、False 。 |
containerResourceRequirements |
NA | CPU およびメモリ エンティティのコンテナー。 |
cpu |
cpu_cores |
この Web サービスに割り当てる CPU コアの数。 既定値、0.1 |
memoryInGB |
memory_gb |
この Web サービスに割り当てるメモリの量 (GB 単位)。 既定値、0.5 |
appInsightsEnabled |
enable_app_insights |
Web サービスに対して Application Insights ログ記録を有効にするかどうか。 既定値、False 。 |
scoringTimeoutMs |
scoring_timeout_ms |
Web サービス呼び出しのスコア付けに適用するタイムアウト。 既定値、60000 。 |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
この Web サービスのノードあたり最大同時要求数。 既定値、1 。 |
maxQueueWaitMs |
max_request_wait_time |
要求がキューに留まる最大時間 (ミリ秒単位)。この時間を過ぎると、503 エラーが返されます。 既定値、500 。 |
numReplicas |
num_replicas |
この Web サービスに割り当てるコンテナーの数。 既定値はありません。 このパラメーターが設定されていない場合、自動スケーラーは既定で有効になります。 |
keys |
NA | キーの構成要素が含まれます。 |
primaryKey |
primary_key |
この Web サービスに使用するプライマリ認証キー |
secondaryKey |
secondary_key |
この Web サービスに使用するセカンダリ認証キー |
gpuCores |
gpu_cores |
この Web サービスに割り当てる GPU コア (コンテナーごとのレプリカ) の数。 既定値は 1 です。 整数のみがサポートされます。 |
livenessProbeRequirements |
NA | liveness probe 要件の構成要素が含まれます。 |
periodSeconds |
period_seconds |
liveness probe を実行する頻度 (秒単位)。 既定値は 10 秒です。 最大値は 1 です。 |
initialDelaySeconds |
initial_delay_seconds |
コンテナーの起動後、liveness probe が開始するまでの秒数。 既定値は 310 です |
timeoutSeconds |
timeout_seconds |
liveness probe がタイムアウトするまでの秒数既定値は 2 秒です。 最小値は 1 です |
successThreshold |
success_threshold |
失敗後、liveness probe が成功と見なされるための最小連続成功数。 既定値は 1 です。 最大値は 1 です。 |
failureThreshold |
failure_threshold |
Pod が起動し、liveness probe が失敗したとき、Kubernetes では、failureThreshold 回数だけ試し、それからあきらめます。 既定値は 3 です。 最大値は 1 です。 |
namespace |
namespace |
Web サービスのデプロイ先となる Kubernetes 名前空間。 最大 63 個の小文字の英数字 ('a'-'z'、'0'-'9') とハイフン ('-') 文字。 先頭と末尾の文字をハイフンにすることはできません。 |
次の JSON は、CLI で使用するデプロイ構成の例です。
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}