CLI をインストールして使用する (v1)

適用対象:Azure CLI ML 拡張機能 v1

重要

この記事の Azure CLI コマンドの一部では、Azure Machine Learning 用に azure-cli-ml、つまり v1 の拡張機能を使用しています。 v1 拡張機能のサポートは、2025 年 9 月 30 日に終了します。 その日付まで、v1 拡張機能をインストールして使用できます。

2025 年 9 月 30 日より前に、ml (v2) 拡張機能に移行することをお勧めします。 v2 拡張機能の詳細については、Azure ML CLI 拡張機能と Python SDK v2 に関するページを参照してください。

Azure Machine Learning CLI は Azure CLI への拡張機能であり、Azure プラットフォーム向けのクロスプラット フォームのコマンド ライン インターフェイスです。 この拡張機能では、Azure Machine Learning を操作するためのコマンドが提供されます。 それにより、機械学習のアクティビティを自動化することができます。 CLI 拡張機能を使用することで可能になるアクションの例を次に示します。

  • 実験を実行して機械学習モデルを作成します

  • 顧客が使用できるように機械学習モデルを登録します

  • 機械学習モデルのライフサイクルをパッケージ化、デプロイ、追跡します

CLI は、Azure Machine Learning SDK に取って代わるものではありません。 自動化に適合するために高度にパラメーター化されたタスクを処理するように最適化された補完的ツールです。

前提条件

  • CLI を使用するには、Azure サブスクリプションが必要です。 Azure サブスクリプションをお持ちでない場合は、開始する前に無料アカウントを作成してください。 無料版または有料版の Azure Machine Learning を今すぐお試しください。

  • ご使用のローカル環境からこのドキュメントの CLI コマンドを使用するには、Azure CLI が必要です。

    Azure Cloud Shell を使用する場合は、ブラウザーを使用してクラウド内に存在する CLI にアクセスします。

詳細なリファレンス ドキュメント

Azure CLI の azure-cli-ml 拡張機能に関する詳細なリファレンス ドキュメントを参照してください。

Azure サブスクリプションへの CLI の接続

重要

Azure Cloud Shell を使用している場合は、このセクションを省略できます。 Cloud Shell では、Azure サブスクリプションにログインするアカウントを使用して自動的に認証が行われます。

CLI から Azure サブスクリプションを認証するには、いくつかの方法があります。 最も基本的な方法は、ブラウザーを使用して対話形式で認証することです。 対話形式で認証するには、コマンド ラインまたはターミナルを開き、次のコマンドを使用します。

az login

CLI で既定のブラウザーを開くことができる場合、開いたブラウザにサインイン ページが読み込まれます。 それ以外の場合は、ブラウザーを開き、コマンド ラインの指示に従う必要があります。 この手順では、https://aka.ms/devicelogin にアクセスして認証コードを入力する必要があります。

ヒント

ログインすると、ご使用のアカウントに関連付けられているサブスクリプションの一覧が表示されます。 isDefault: true が示されているサブスクリプション情報が、Azure CLI コマンドに対して現在アクティブになっているサブスクリプションです。 このサブスクリプションは、Azure Machine Learning ワークスペースが含まれているものと同じである必要があります。 Azure portal で自分のワークスペースの概要ページに移動することで、サブスクリプション ID を確認できます。

別のサブスクリプションを選択するには、az account set -s <subscription name or ID> コマンドを使用して、切り替えるサブスクリプション名または ID を指定します。 サブスクリプションの選択の詳細については、「複数の Azure サブスクリプションの使用」を参照してください。

その他の認証方法については、「Azure CLI を使用してサインインする」を参照してください。

拡張機能をインストールする

CLI (v1) 拡張機能をインストールするには、次のようにします。

az extension add -n azure-cli-ml

拡張機能を更新する

Machine Learning CLI 拡張機能を更新するには、次のコマンドを使用します。

az extension update -n azure-cli-ml

拡張機能を削除する

CLI 拡張機能を削除するには、次のコマンドを使用します。

az extension remove -n azure-cli-ml

リソース管理

次のコマンドは、CLI を使用して、Azure Machine Learning によって使用されるリソースを管理する方法を示したものです。

  • リソース グループがまだない場合は、作成します。

    az group create -n myresourcegroup -l westus2
    
  • Azure Machine Learning ワークスペースを作成します。

    az ml workspace create -w myworkspace -g myresourcegroup
    

    詳しくは、「az ml workspace create」をご覧ください。

  • ワークスペース構成をフォルダーに接続して、CLI コンテキストの認識を有効にします。

    az ml folder attach -w myworkspace -g myresourcegroup
    

    このコマンドでは、サンプルの runconfig および conda 環境ファイルを含む .azureml サブディレクトリを作成します。 これには、Azure Machine Learning ワークスペースとの通信に使用される config.json ファイルも含まれています。

    詳しくは、「az ml folder attach」をご覧ください。

  • Azure BLOB コンテナーをデータストアとして接続します。

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    詳しくは、「az ml datastore attach-blob」をご覧ください。

  • データストアにファイルをアップロードします。

    az ml datastore upload  -n datastorename -p sourcepath
    

    詳細については、az ml datastore uploadに関するページを参照してください。

  • AKS クラスターをコンピューティング先として接続します。

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    詳しくは、「az ml computetarget attach aks」をご覧ください。

コンピューティング クラスター

  • 新しいマネージド コンピューティング クラスターを作成します。

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • マネージド ID を使用して、新しいマネージド コンピューティング クラスターを作成する

    • ユーザー割り当てマネージド ID

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • システム割り当てマネージド ID

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • 既存のクラスターにマネージド ID を追加します。

    • ユーザー割り当てマネージド ID

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • システム割り当てマネージド ID

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

詳しくは、「az ml computetarget create amlcompute」をご覧ください。

Note

Azure Machine Learning コンピューティング クラスターは、システムによって割り当てられた 1 つの ID またはユーザーによって割り当てられた複数の ID のみをサポートします。両方同時にはサポートしません。

コンピューティング インスタンス

コンピューティング インスタンスを管理します。 次のすべての例では、コンピューティング インスタンスの名前は cpu になります

実験の実行

  • 実験の実行を開始する。 このコマンドを使う場合は、-c パラメーターに対して runconfig ファイルの名前 (ファイル システムが表示されている場合、*.runconfig の前のテキスト) を指定します。

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    ヒント

    az ml folder attach コマンドでは、2 つのサンプル runconfig ファイルを含む .azureml サブディレクトリが作成されます。

    プログラムで実行構成オブジェクトを作成する Python スクリプトがある場合は、RunConfig.save() を使用してそれを runconfig ファイルとして保存できます。

    完全な runconfig のスキーマについては、こちらの JSON ファイルを参照してください。 スキーマは、各オブジェクトの description キーを使用して自己文書化されています。 また、有効な値の列挙と、末尾にテンプレートのスニペットがあります。

    詳しくは、「az ml run submit-script」をご覧ください。

  • 次のように指定して、実験の一覧を表示します。

    az ml experiment list
    

    詳しくは、「az ml experiment list」をご覧ください。

HyperDrive の実行

Azure CLI で HyperDrive を使用すると、パラメーターの調整実行を行うことができます。 まず、次の形式で HyperDrive 構成ファイルを作成します。 ハイパーパラメーターのチューニング パラメーターの詳細については、モデルのハイパーパラメーターのチューニングに関する記事を参照してください。

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

実行構成ファイルと共にこのファイルを追加します。 その後、以下を使用して HyperDrive 実行を送信します。

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

runconfig の arguments セクションと HyperDrive 構成の parameter space に注意してください。これらには、トレーニング スクリプトに渡されるコマンドライン引数が含まれています。 runconfig の値は繰り返しごとに変わりませんが、HyperDrive 構成の範囲は反復処理されます。 両方のファイルで同じ引数を指定しないでください。

データセットの管理

次のコマンドは、Azure Machine Learning でデータセットを操作する方法を示しています。

  • データセットを登録する:

    az ml dataset register -f mydataset.json
    

    データセットを定義する場合に使用する JSON ファイルの形式の詳細については、az ml dataset register --show-template を使用してください。

    詳細については、「az ml dataset register」を参照してください。

  • ワークスペース内のすべてのデータセットを一覧表示する:

    az ml dataset list
    

    詳細については、「az ml dataset list」を参照してください。

  • データセットの詳細を取得する:

    az ml dataset show -n dataset-name
    

    詳細については、「az ml dataset show」を参照してください。

  • データセットの登録を解除する:

    az ml dataset unregister -n dataset-name
    

    詳細については、「az ml dataset unregister」を参照してください。

環境の管理

次のコマンドで、お使いのワークスペース用の Azure Machine Learning 環境を作成、登録、および一覧表示する方法を示します。

  • 環境のスキャフォールディング ファイルを作成します。

    az ml environment scaffold -n myenv -d myenvdirectory
    

    詳細については、az ml environment scaffoldに関するページを参照してください。

  • 環境を登録します。

    az ml environment register -d myenvdirectory
    

    詳細については、az ml environment registerに関するページを参照してください。

  • 登録されている環境を一覧表示します。

    az ml environment list
    

    詳細については、az ml environment listに関するページを参照してください。

  • 登録されている環境をダウンロードします。

    az ml environment download -n myenv -d downloaddirectory
    

    詳細については、az ml environment downloadに関するページを参照してください。

環境構成スキーマ

az ml environment scaffold コマンドを使用した場合、CLI でカスタム環境構成を作成するために変更および使用できるテンプレートの azureml_environment.json ファイルが生成されます。 最上位レベルのオブジェクトは、Python SDK の Environment クラスに緩やかにマップされます。

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

次の表は、JSON ファイルの各最上位レベルのフィールド、その種類、説明の詳細を示しています。 オブジェクトの種類が Python SDK のクラスにリンクされている場合、各 JSON フィールドと、Python クラスのパブリック変数名の間には緩い 1 対 1 の一致が存在します。 場合によっては、フィールドがクラス変数ではなく、コンストラクター引数にマップされることがあります。 たとえば、environmentVariables フィールドは Environment クラスの environment_variables 変数にマップされます。

JSON フィールド Type 説明
name string 環境の名前。 名前を MicrosoftAzureML で始めないでください。
version string 環境のバージョン。
environmentVariables {string: string} 環境変数の名前と値のハッシュ マップ。
python ターゲット コンピューティング リソースで使用する Python 環境とインタープリターを定義する PythonSection
docker DockerSection 環境の仕様に合わせて構築された Docker イメージをカスタマイズするための設定を定義します。
spark SparkSection セクションで Spark 設定が構成されます。 これは、フレームワークが PySpark に設定されている場合にのみ使用されます。
databricks DatabricksSection Databricks ライブラリの依存関係を構成します。
inferencingStackVersion string イメージに追加される推論スタックのバージョンを指定します。 推論スタックを追加しないようにするには、このフィールドを null のままにします。 有効な値: "latest"。

ML パイプラインの管理

次のコマンドは、機械学習パイプラインを操作する方法を示しています。

モデルの登録、プロファイル、デプロイ

次のコマンドは、トレーニング済みモデルを登録し、それを運用サービスとしてデプロイする方法を示したものです。

  • Azure Machine Learning にモデルを登録する:

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    詳しくは、「az ml model register」をご覧ください。

  • 省略可能 モデルをプロファイルして、デプロイに最適な CPU とメモリの値を取得します。

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    詳しくは、「az ml model profile」をご覧ください。

  • モデルを AKS にデプロイします。

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    推論構成ファイル スキーマの詳細については、「推論構成スキーマ」を参照してください。

    デプロイ構成ファイル スキーマの詳細については、「デプロイ構成スキーマ」を参照してください。

    詳しくは、「az ml model deploy」をご覧ください。

推論構成スキーマ

inferenceconfig.json ドキュメント内のエントリは、InferenceConfig クラスのパラメーターにマップされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。

JSON エンティティ メソッド パラメーター 説明
entryScript entry_script イメージに対して実行するコードを含むローカル ファイルのパス。
sourceDirectory source_directory 省略可能。 イメージを作成するためのすべてのファイルを含むフォルダーへのパス。パスにより、このフォルダーまたはサブ フォルダー内の任意のファイルへのアクセスが簡単になります。 ローカル コンピューターから Webservice の依存関係として、フォルダー全体をアップロードできます。 注: entry_script、conda_file、および extra_docker_file_steps パスは、source_directory パスへの相対パスです。
environment environment 省略可能。 Azure Machine Learning 環境

Azure Machine Learning 環境の完全な仕様を、推論構成ファイルに含めることができます。 この環境がワークスペースに存在しない場合は、Azure Machine Learning によって作成されます。 それ以外の場合は、必要に応じて Azure Machine Learning によって環境が更新されます。 次の JSON は例です。

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

また、分離された CLI パラメーターで既存の Azure Machine Learning 環境を使用し、推論構成ファイルから "環境" キーを削除することもできます。 環境名には -e を使用し、環境のバージョンには --ev を使用します。 --ev を指定しない場合は、最新バージョンが使用されます。 推論構成ファイルの例を次に示します。

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

次のコマンドは、前述の推論構成ファイル (myInferenceConfig.json という名前) を使用してモデルをデプロイする方法を示しています。

また、既存の Azure Machine Learning 環境 (AzureML-Minimal という名前) の最新バージョンも使用します。

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

デプロイ構成スキーマ

ローカル デプロイ構成スキーマ

deploymentconfig.json ドキュメントのエントリは、LocalWebservice.deploy_configuration のパラメーターにマッピングされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。

JSON エンティティ メソッド パラメーター 説明
computeType NA コンピューティング ターゲット。 ローカル ターゲットの場合、値は local である必要があります。
port port サービスの HTTP エンドポイントを公開するローカル ポート。

この JSON は、CLI で使用するデプロイ構成の例です。

{
    "computeType": "local",
    "port": 32267
}

この JSON を deploymentconfig.json という名前のファイルとして保存します。

Azure コンテナー インスタンス デプロイ構成スキーマ

deploymentconfig.json ドキュメントのエントリは、AciWebservice.deploy_configuration のパラメーターにマップされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。

JSON エンティティ メソッド パラメーター 説明
computeType NA コンピューティング ターゲット。 ACI の場合、値は ACI である必要があります。
containerResourceRequirements NA CPU およびメモリ エンティティのコンテナー。
  cpu cpu_cores 割り当てる CPU コアの数。 既定値、0.1
  memoryInGB memory_gb この Web サービスに割り当てるメモリの量 (GB 単位)。 既定値、0.5
location location この Web サービスのデプロイ先となる Azure リージョン。 指定されていない場合、ワークスペースの場所が使用されます。 利用できるリージョンの詳細はこちらをご覧ください: ACI リージョン
authEnabled auth_enabled この Web サービスに対して認証を有効にするかどうか。 既定値は False です
sslEnabled ssl_enabled この Web サービスに対して SSL を有効にするかどうか。 既定値は False です。
appInsightsEnabled enable_app_insights この Web サービスに対して AppInsights を有効にするかどうか。 既定値は False です
sslCertificate ssl_cert_pem_file SSL が有効な場合、証明書ファイルが必要です
sslKey ssl_key_pem_file SSL が有効な場合、キー ファイルが必要です
cname ssl_cname SSL が有効な場合の cname
dnsNameLabel dns_name_label スコアリング エンドポイントの dns 名ラベル。 指定されていない場合、一意の dns 名ラベルがスコアリング エンドポイントに対して生成されます。

次の JSON は、CLI で使用するデプロイ構成の例です。

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Azure Kubernetes Service デプロイ構成スキーマ

deploymentconfig.json ドキュメントのエントリは、AksWebservice.deploy_configuration のパラメーターにマップされます。 次の表は、JSON ドキュメントのエントリとメソッド用パラメーターの間のマッピングについてまとめたものです。

JSON エンティティ メソッド パラメーター 説明
computeType NA コンピューティング ターゲット。 AKS の場合、値は aks である必要があります。
autoScaler NA 自動スケーリングの構成要素が含まれます。 自動スケーラー テーブルを参照してください。
  autoscaleEnabled autoscale_enabled Web サービスの自動スケールを有効にするかどうか。 numReplicas = 0 の場合、True。それ以外の場合、False
  minReplicas autoscale_min_replicas この Web サービスを自動スケールするときに使用するコンテナーの最小数。 既定値、1
  maxReplicas autoscale_max_replicas この Web サービスを自動スケールするときに使用するコンテナーの最大数。 既定値、10
  refreshPeriodInSeconds autoscale_refresh_seconds 自動スケーラーがこの Web サービスのスケーリングを試行する頻度。 既定値、1
  targetUtilization autoscale_target_utilization オートスケーラーがこの web サービスに対してメンテナンスを試行する目標使用率 (最大 100%)。 既定値、70
dataCollection NA データ収集の構成要素が含まれます。
  storageEnabled collect_model_data Web サービスに対してモデル データ収集を有効にするかどうか。 既定値、False
authEnabled auth_enabled Web サービスに対してキー認証を有効にするかどうかを指定します。 tokenAuthEnabledauthEnabled の両方を True にすることはできません。 既定値、True
tokenAuthEnabled token_auth_enabled Web サービスに対してトークン認証を有効にするかどうかを指定します。 tokenAuthEnabledauthEnabled の両方を True にすることはできません。 既定値、False
containerResourceRequirements NA CPU およびメモリ エンティティのコンテナー。
  cpu cpu_cores この Web サービスに割り当てる CPU コアの数。 既定値、0.1
  memoryInGB memory_gb この Web サービスに割り当てるメモリの量 (GB 単位)。 既定値、0.5
appInsightsEnabled enable_app_insights Web サービスに対して Application Insights ログ記録を有効にするかどうか。 既定値、False
scoringTimeoutMs scoring_timeout_ms Web サービス呼び出しのスコア付けに適用するタイムアウト。 既定値、60000
maxConcurrentRequestsPerContainer replica_max_concurrent_requests この Web サービスのノードあたり最大同時要求数。 既定値、1
maxQueueWaitMs max_request_wait_time 要求がキューに留まる最大時間 (ミリ秒単位)。この時間を過ぎると、503 エラーが返されます。 既定値、500
numReplicas num_replicas この Web サービスに割り当てるコンテナーの数。 既定値はありません。 このパラメーターが設定されていない場合、自動スケーラーは既定で有効になります。
keys NA キーの構成要素が含まれます。
  primaryKey primary_key この Web サービスに使用するプライマリ認証キー
  secondaryKey secondary_key この Web サービスに使用するセカンダリ認証キー
gpuCores gpu_cores この Web サービスに割り当てる GPU コア (コンテナーごとのレプリカ) の数。 既定値は 1 です。 整数のみがサポートされます。
livenessProbeRequirements NA liveness probe 要件の構成要素が含まれます。
  periodSeconds period_seconds liveness probe を実行する頻度 (秒単位)。 既定値は 10 秒です。 最大値は 1 です。
  initialDelaySeconds initial_delay_seconds コンテナーの起動後、liveness probe が開始するまでの秒数。 既定値は 310 です
  timeoutSeconds timeout_seconds liveness probe がタイムアウトするまでの秒数既定値は 2 秒です。 最小値は 1 です
  successThreshold success_threshold 失敗後、liveness probe が成功と見なされるための最小連続成功数。 既定値は 1 です。 最大値は 1 です。
  failureThreshold failure_threshold Pod が起動し、liveness probe が失敗したとき、Kubernetes では、failureThreshold 回数だけ試し、それからあきらめます。 既定値は 3 です。 最大値は 1 です。
namespace namespace Web サービスのデプロイ先となる Kubernetes 名前空間。 最大 63 個の小文字の英数字 ('a'-'z'、'0'-'9') とハイフン ('-') 文字。 先頭と末尾の文字をハイフンにすることはできません。

次の JSON は、CLI で使用するデプロイ構成の例です。

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

次のステップ