CLI 설치 및 사용(v1)

적용 대상:Azure CLI ml 확장 v1

Important

이 문서의 일부 Azure CLI 명령에서는 azure-cli-ml 또는 v1(Azure Machine Learning용 확장)을 사용합니다. v1 확장에 대한 지원은 2025년 9월 30일에 종료됩니다. v1 확장은 이 날짜까지 설치하고 사용할 수 있습니다.

2025년 9월 30일 이전에 ml 또는 v2 확장으로 전환하는 것이 좋습니다. v2 확장에 대한 자세한 내용은 Azure ML CLI 확장 및 Python SDK v2를 참조하세요.

Azure Machine Learning CLI는 Azure 플랫폼용 플랫폼 간 명령줄 인터페이스인 Azure CLI에 대한 확장입니다. 이 확장은 Azure Machine Learning을 사용하기 위한 명령을 제공합니다. 이를 통해 기계 학습 활동을 자동화할 수 있습니다. 다음 목록에서는 CLI 확장을 사용하여 수행할 수 있는 몇 가지 예제 작업을 제공합니다.

  • 실험을 실행하여 기계 학습 모델 만들기

  • 고객 사용을 위한 기계 학습 모델 등록

  • 기계 학습 모델 패키징, 배포 및 수명 주기 추적

CLI는 Azure Machine Learning SDK를 대체하는 것이 아닙니다. 자동화에 적합한 매개 변수가 많은 작업을 처리하는 데 최적화된 보완 도구입니다.

필수 조건

  • CLI를 사용하려면 Azure 구독이 있어야 합니다. Azure 구독이 아직 없는 경우 시작하기 전에 체험 계정을 만듭니다. 현재 무료 또는 유료 버전의 Azure Machine Learning을 사용해 보세요.

  • 로컬 환경에서 이 문서의 CLI 명령을 사용하려면 Azure CLI필요합니다.

    Azure Cloud Shell을 사용하는 경우 CLI는 브라우저를 통해 액세스하고 클라우드에 있습니다.

전체 참조 문서

Azure CLIazure-cli-ml 확장에 대한 전체 참조 문서를 찾습니다.

Azure 구독에 CLI 연결

Important

Azure Cloud Shell을 사용하는 경우 이 섹션을 건너뛸 수 있습니다. Cloud Shell은 Azure 구독에 로그인하는 계정을 사용하여 사용자를 자동으로 인증합니다.

CLI에서 Azure 구독에 인증할 수 있는 여러 가지 방법이 있습니다. 가장 기본적인 방법은 브라우저를 사용하여 대화형으로 인증하는 것입니다. 대화형으로 인증하려면 명령줄 또는 터미널을 열고 다음 명령을 사용합니다.

az login

CLI가 기본 브라우저를 열 수 있는 경우 이렇게 하고 로그인 페이지를 로드합니다. 그렇지 않으면 브라우저를 열고 명령줄의 지침을 따라야 합니다. 지침에 따라 https://aka.ms/devicelogin으로 이동하고 인증 코드를 입력합니다.

로그인하면 Azure 계정에 연결된 구독 목록이 나타납니다. 구독 정보는 isDefault: true 현재 Azure CLI 명령에 대해 활성화된 구독입니다. 이 구독은 Azure Machine Learning 작업 영역을 포함하는 구독과 동일해야 합니다. 작업 영역의 개요 페이지를 방문하여 Azure Portal에서 구독 ID를 찾을 수 있습니다.

다른 구독을 az account set -s <subscription name or ID> 선택하려면 명령을 사용하고 전환할 구독 이름 또는 ID를 지정합니다. 구독 선택에 대한 자세한 내용은 여러 Azure 구독 사용을 참조 하세요.

인증하는 다른 방법은 Azure CLI로 로그인을 참조하세요.

확장 설치

CLI(v1) 확장을 설치하려면:

az extension add -n azure-cli-ml

확장 업데이트

Machine Learning CLI 확장을 업데이트하려면 다음 명령을 사용합니다.

az extension update -n azure-cli-ml

확장 제거

CLI 확장을 제거하려면 다음 명령을 사용합니다.

az extension remove -n azure-cli-ml

리소스 관리

다음 명령은 CLI를 사용하여 Azure Machine Learning에서 사용하는 리소스를 관리하는 방법을 보여 줍니다.

  • 아직 없는 경우 리소스 그룹을 만듭니다.

    az group create -n myresourcegroup -l westus2
    
  • Azure Machine Learning 작업 영역을 만듭니다.

    az ml workspace create -w myworkspace -g myresourcegroup
    

    자세한 내용은 az ml workspace create를 참조 하세요.

  • CLI 컨텍스트 인식을 사용하도록 폴더에 작업 영역 구성을 연결합니다.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    이 명령은 예제 runconfig 및 conda 환경 파일을 포함하는 .azureml 하위 디렉터리를 만듭니다. 또한 Azure Machine Learning 작업 영역과 통신하는 데 사용되는 파일이 포함되어 config.json 있습니다.

    자세한 내용은 az ml folder attach를 참조 하세요.

  • Azure Blob 컨테이너를 데이터 저장소로 연결합니다.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    자세한 내용은 az ml datastore attach-blob을 참조하세요.

  • 데이터 저장소에 파일을 업로드합니다.

    az ml datastore upload  -n datastorename -p sourcepath
    

    자세한 내용은 az ml datastore upload를 참조하세요.

  • AKS 클러스터를 컴퓨팅 대상으로 연결합니다.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    자세한 내용은 az ml computetarget attach aks를 참조 하세요.

컴퓨팅 클러스터

  • 새 관리형 컴퓨팅 클러스터를 만듭니다.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • 관리 ID를 사용하여 새 관리형 컴퓨팅 클러스터 만들기

    • 사용자 할당 관리 ID

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • 시스템 할당 관리 ID

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • 기존 클러스터에 관리 ID를 추가합니다.

    • 사용자 할당 관리 ID

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • 시스템 할당 관리 ID

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

자세한 내용은 az ml computetarget create amlcompute를 참조 하세요.

참고 항목

Azure Machine Learning 컴퓨팅 클러스터는 동시에 하나의 시스템 할당 ID 또는 여러 사용자 할당 ID지원합니다.

컴퓨팅 인스턴스

컴퓨팅 인스턴스를 관리합니다. 아래의 모든 예제에서 컴퓨팅 인스턴스의 이름은 cpu입니다 .

실험 실행

  • 실험 실행을 시작합니다. 이 명령을 사용하는 경우 -c 매개 변수에 대해 runconfig 파일의 이름(파일 시스템을 보고 있는 경우 *.runconfig 앞의 텍스트)을 지정합니다.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    az ml folder attach 명령은 두 개의 예제 runconfig 파일을 포함하는 하위 디렉터리를 만듭니다 .azureml .

    실행 구성 개체를 프로그래밍 방식으로 만드는 Python 스크립트가 있는 경우 RunConfig.save()를 사용하여 runconfig 파일로 저장합니다.

    전체 runconfig 스키마는 이 JSON 파일에서 찾을 수 있습니다. 스키마는 각 개체의 description 키를 통해 자체 문서화됩니다. 또한 가능한 값에 대한 열거형과 끝에 템플릿 코드 조각이 있습니다.

    자세한 내용은 az ml run submit-script를 참조하세요.

  • 실험 목록을 봅니다.

    az ml experiment list
    

    자세한 내용은 az ml 실험 목록을 참조 하세요.

HyperDrive 실행

Azure CLI에서 HyperDrive를 사용하여 매개 변수 튜닝 실행을 수행할 수 있습니다. 먼저 다음 형식으로 HyperDrive 구성 파일을 만듭니다. 하이퍼 매개 변수 튜닝 매개 변수에 대한 자세한 내용은 모델 문서에 대한 하이퍼 매개 변수 조정을 참조하세요.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

실행 구성 파일과 함께 이 파일을 추가합니다. 그런 다음 다음을 사용하여 HyperDrive 실행을 제출합니다.

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

HyperDrive 구성의 runconfig 및 매개 변수 공간의 인수 섹션을 확인합니다. 학습 스크립트에 전달할 명령줄 인수를 포함합니다. Runconfig의 값은 반복할 때마다 동일하게 유지되지만 HyperDrive 구성의 범위는 반복됩니다. 두 파일에서 모두 같은 인수를 지정하지 마세요.

데이터 세트 관리

다음 명령은 Azure Machine Learning에서 데이터 세트를 사용하는 방법을 보여 줍니다.

  • 데이터 세트를 등록합니다.

    az ml dataset register -f mydataset.json
    

    데이터 세트를 정의하는 데 사용되는 JSON 파일의 형식에 대한 자세한 내용은 다음을 사용합니다 az ml dataset register --show-template.

    자세한 내용은 az ml 데이터 세트 레지스터를 참조하세요.

  • 작업 영역의 모든 데이터 세트를 나열합니다.

    az ml dataset list
    

    자세한 내용은 az ml dataset list를 참조하세요.

  • 데이터 세트의 세부 정보를 가져옵니다.

    az ml dataset show -n dataset-name
    

    자세한 내용은 az ml dataset show를 참조 하세요.

  • 데이터 세트 등록 취소:

    az ml dataset unregister -n dataset-name
    

    자세한 내용은 az ml dataset unregister를 참조하세요.

환경 관리

다음 명령은 작업 영역에 대한 Azure Machine Learning 환경을 만들고 등록하고 나열하는 방법을 보여 줍니다 .

  • 환경의 스캐폴딩 파일을 만듭니다.

    az ml environment scaffold -n myenv -d myenvdirectory
    

    자세한 내용은 az ml environment 스캐폴드를 참조 하세요.

  • 환경을 등록합니다.

    az ml environment register -d myenvdirectory
    

    자세한 내용은 az ml environment register를 참조하세요.

  • 등록된 환경을 나열합니다.

    az ml environment list
    

    자세한 내용은 az ml environment list를 참조 하세요.

  • 등록된 환경을 다운로드합니다.

    az ml environment download -n myenv -d downloaddirectory
    

    자세한 내용은 az ml environment download를 참조 하세요.

환경 구성 스키마

명령을 사용한 경우 CLI를 사용하여 az ml environment scaffold 사용자 지정 환경 구성을 만드는 데 수정하고 사용할 수 있는 템플릿 azureml_environment.json 파일을 생성합니다. 최상위 개체는 Python SDK의 Environment 클래스에 느슨하게 매핑됩니다.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

다음 표에는 JSON 파일의 각 최상위 필드, 해당 형식 및 설명이 자세히 나와 있습니다. 개체 형식이 Python SDK의 클래스에 연결된 경우에는 각 JSON 필드와 Python 클래스의 퍼블릭 변수 이름 간에 느슨한 1:1 일치가 있습니다. 경우에 따라 필드는 클래스 변수가 아니라 생성자 인수에 매핑될 수 있습니다. 예를 들어 environmentVariables 필드는 Environment 클래스의 environment_variables 변수에 매핑됩니다.

JSON 필드 Type 설명
name string 환경의 이름입니다. 이름은 Microsoft 또는 AzureML로 시작하면 안 됩니다.
version string 환경의 버전입니다.
environmentVariables {string: string} 환경 변수 이름 및 값의 해시 맵입니다.
python PythonSectionhat은 대상 컴퓨팅 리소스에 사용할 Python 환경 및 인터프리터를 정의합니다.
docker DockerSection 환경 사양에 맞게 빌드된 Docker 이미지를 사용자 지정하는 설정을 정의합니다.
spark SparkSection 이 섹션에서는 Spark 설정을 구성합니다. 프레임워크가 PySpark로 설정된 경우에만 사용됩니다.
databricks DatabricksSection Databricks 라이브러리 종속성을 구성합니다.
inferencingStackVersion string 이미지에 추가된 추론 스택 버전을 지정합니다. 추론 스택을 추가하지 않도록 하려면 이 필드를 null그대로 둡니다. 유효한 값: “latest”.

ML 파이프라인 관리

다음 명령은 기계 학습 파이프라인을 사용하는 방법을 보여 줍니다.

  • 기계 학습 파이프라인을 만듭니다.

    az ml pipeline create -n mypipeline -y mypipeline.yml
    

    자세한 내용은 az ml pipeline create를 참조 하세요.

    파이프라인 YAML 파일에 관한 자세한 내용은 YAML의 기계 학습 파이프라인 정의를 참조하세요.

  • 파이프라인 실행:

    az ml run submit-pipeline -n myexperiment -y mypipeline.yml
    

    자세한 내용은 az ml run submit-pipeline을 참조하세요.

    파이프라인 YAML 파일에 관한 자세한 내용은 YAML의 기계 학습 파이프라인 정의를 참조하세요.

  • 파이프라인 예약:

    az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
    

    자세한 내용은 az ml pipeline create-schedule을 참조하세요.

모델 등록, 프로파일링, 배포

다음 명령은 학습된 모델을 등록한 다음 프로덕션 서비스로 배포하는 방법을 보여 줍니다.

  • Azure Machine Learning에 모델 등록:

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    자세한 내용은 az ml model register를 참조하세요.

  • 선택적 모델을 프로파일하여 배포에 대한 최적의 CPU 및 메모리 값을 가져옵니다.

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    자세한 내용은 az ml model profile을 참조하세요.

  • AKS에 모델 배포

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    유추 구성 파일 스키마에 대한 자세한 내용은 유추 구성 스키마를 참조 하세요.

    배포 구성 파일 스키마에 대한 자세한 내용은 배포 구성 스키마를 참조 하세요.

    자세한 내용은 az ml model deploy를 참조하세요.

유추 구성 스키마

문서의 항목 inferenceconfig.json 은 InferenceConfig 클래스의 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
entryScript entry_script 이미지에 대해 실행할 코드가 포함된 로컬 파일의 경로입니다.
sourceDirectory source_directory 선택 사항. 이미지를 만들 모든 파일이 포함된 폴더의 경로로, 이 폴더 또는 하위 폴더 내의 모든 파일에 쉽게 액세스할 수 있습니다. 로컬 컴퓨터에서 전체 폴더를 웹 서비스에 대한 종속성으로 업로드할 수 있습니다. 참고: entry_script, conda_file 및 extra_docker_file_steps 경로는 source_directory 경로에 대한 상대 경로입니다.
environment environment 선택 사항. Azure Machine Learning 환경.

유추 구성 파일에 Azure Machine Learning 환경 의 전체 사양을 포함할 수 있습니다. 이 환경이 작업 영역에 없는 경우 Azure Machine Learning에서 해당 환경을 만듭니다. 그렇지 않으면 필요한 경우 Azure Machine Learning에서 환경을 업데이트합니다. 다음 JSON은 예제입니다.

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

또한 분리된 CLI 매개 변수에서 기존 Azure Machine Learning 환경을 사용하고 유추 구성 파일에서 "환경" 키를 제거할 수도 있습니다. 환경 이름에 -e를 사용하고 환경 버전에 --ev를 사용합니다. --ev를 지정하지 않으면 최신 버전이 사용됩니다. 유추 구성 파일의 예는 다음과 같습니다.

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

다음 명령은 이전 유추 구성 파일(myInferenceConfig.json)을 사용하여 모델을 배포하는 방법을 보여 줍니다.

또한 기존 Azure Machine Learning 환경(AzureML-Minimal)의 최신 버전을 사용합니다.

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

배포 구성 스키마

로컬 배포 구성 스키마

문서의 항목은 LocalWebservice.deploy_configuration 매개 변수에 매핑됩니다deploymentconfig.json. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
computeType 해당 없음 컴퓨팅 대상. 로컬 대상의 경우 값은 .이어야 local합니다.
port port 서비스의 HTTP 엔드포인트를 노출할 로컬 포트입니다.

이 JSON은 CLI와 함께 사용하기 위한 배포 구성의 예입니다.

{
    "computeType": "local",
    "port": 32267
}

이 JSON을 호출 deploymentconfig.json된 파일로 저장합니다.

Azure Container Instance 배포 구성 스키마

문서의 항목은 AciWebservice.deploy_configuration 매개 변수에 매핑됩니다deploymentconfig.json. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
computeType 해당 없음 컴퓨팅 대상. ACI의 경우 값은 .이어야 ACI합니다.
containerResourceRequirements 해당 없음 CPU 및 메모리 엔터티에 대한 컨테이너입니다.
  cpu cpu_cores 할당할 CPU 코어 수입니다. 기본값 0.1
  memoryInGB memory_gb 이 웹 서비스에 할당할 메모리 양(GB)입니다. 기본 0.5
location location 이 웹 서비스를 배포할 Azure 지역입니다. 지정하지 않으면 작업 영역 위치가 사용됩니다. 사용 가능한 지역에 대한 자세한 내용은 다음 을 참조하세요. ACI 지역
authEnabled auth_enabled 이 Webservice에 대한 인증을 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
sslEnabled ssl_enabled 이 웹 서비스에 대해 SSL을 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
appInsightsEnabled enable_app_insights 이 웹 서비스에 AppInsights를 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
sslCertificate ssl_cert_pem_file SSL을 사용하는 경우 필요한 인증서 파일
sslKey ssl_key_pem_file SSL을 사용하는 경우 필요한 키 파일
cname ssl_cname SSL을 사용하는 경우의 cname입니다.
dnsNameLabel dns_name_label 점수 매기기 엔드포인트의 dns 이름 레이블입니다. 지정하지 않으면 점수 매기기 엔드포인트에 대해 고유한 dns 이름 레이블이 생성됩니다.

다음 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Azure Kubernetes Service 배포 구성 스키마

문서의 항목은 AksWebservice.deploy_configuration 매개 변수에 매핑됩니다deploymentconfig.json. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
computeType 해당 없음 컴퓨팅 대상. AKS의 경우 값은 .이어야 aks합니다.
autoScaler 해당 없음 자동 크기 조정에 대한 구성 요소를 포함합니다. 자동 크기 조정기 테이블을 참조하세요.
  autoscaleEnabled autoscale_enabled 웹 서비스에 대해 자동 크기 조정을 사용하도록 설정할지 여부입니다. 이면 numReplicas = 0, True그렇지 않으면 . False
  minReplicas autoscale_min_replicas 이 웹 서비스를 자동 크기 조정할 때 사용할 최소 컨테이너 수입니다. 기본값은 1입니다.
  maxReplicas autoscale_max_replicas 이 웹 서비스의 크기를 자동으로 조정할 때 사용할 최대 컨테이너 수입니다. 기본값은 10입니다.
  refreshPeriodInSeconds autoscale_refresh_seconds 자동 크기 조정기가 이 웹 서비스의 크기를 조정하려고 시도하는 빈도입니다. 기본값은 1입니다.
  targetUtilization autoscale_target_utilization 자동 크기 조정기가 이 웹 서비스에 대해 기본 시도해야 하는 대상 사용률(100점 만점)입니다. 기본값은 70입니다.
dataCollection 해당 없음 데이터 수집에 대한 구성 요소를 포함합니다.
  storageEnabled collect_model_data 웹 서비스에 대해 모델 데이터 수집을 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
authEnabled auth_enabled 키 인증을 웹 서비스에 사용하도록 설정할지 여부입니다. tokenAuthEnabledauthEnabled는 모두 True일 수 없습니다. 기본값은 True입니다.
tokenAuthEnabled token_auth_enabled 웹 서비스에 토큰 인증을 사용하도록 설정할지 여부입니다. tokenAuthEnabledauthEnabled는 모두 True일 수 없습니다. 기본값은 False입니다.
containerResourceRequirements 해당 없음 CPU 및 메모리 엔터티에 대한 컨테이너입니다.
  cpu cpu_cores 이 웹 서비스에 할당할 CPU 코어 수입니다. 기본값 0.1
  memoryInGB memory_gb 이 웹 서비스에 할당할 메모리 양(GB)입니다. 기본 0.5
appInsightsEnabled enable_app_insights 웹 서비스에 Application Insights 로깅을 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
scoringTimeoutMs scoring_timeout_ms 웹 서비스에 대한 점수 매기기 호출을 적용하는 시간 제한입니다. 기본값은 60000입니다.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests 이 웹 서비스에 대한 노드당 최대 동시 요청입니다. 기본값은 1입니다.
maxQueueWaitMs max_request_wait_time 503 오류가 반환되기 전에 요청이 큐에 유지되는 최대 시간(밀리초)입니다. 기본값은 500입니다.
numReplicas num_replicas 이 웹 서비스에 할당할 컨테이너 수입니다. 기본값이 없습니다. 이 매개 변수가 설정되지 않은 경우 자동 크기 조정기는 기본적으로 사용하도록 설정됩니다.
keys 해당 없음 키에 대한 구성 요소를 포함합니다.
  primaryKey primary_key 이 웹 서비스에 사용할 기본 인증 키
  secondaryKey secondary_key 이 Webservice에 사용할 보조 인증 키
gpuCores gpu_cores 이 웹 서비스에 할당할 GPU 코어 수(컨테이너 복제본당)입니다. 기본값은 1입니다. 정수 값만 지원합니다.
livenessProbeRequirements 해당 없음 활동성 프로브 요구 사항에 대한 구성 요소를 포함합니다.
  periodSeconds period_seconds 활동성 프로브를 수행하는 빈도(초)입니다. 기본값은 10초입니다. 최소값은 1입니다.
  initialDelaySeconds initial_delay_seconds 활동성 프로브가 시작되기 전에 컨테이너가 시작된 후의 시간(초)입니다. 기본값은 310입니다.
  timeoutSeconds timeout_seconds 활동성 프로브 시간이 초과된 후의 시간(초)입니다. 기본값은 2초입니다. 최소값은 1입니다.
  successThreshold success_threshold 활동성 프로브가 실패한 후 성공한 것으로 간주되는 최소 연속 성공 횟수입니다. 기본값은 1입니다. 최소값은 1입니다.
  failureThreshold failure_threshold Pod가 시작되고 활동성 프로브가 실패하면 Kubernetes는 포기하기 전에 failureThreshold 시간을 시도합니다. 기본값은 3입니다. 최소값은 1입니다.
namespace namespace 웹 서비스가 배포되는 Kubernetes 네임스페이스입니다. 최대 63개의 소문자 영숫자('a'-'z', '0'-'9') 및 하이픈('-') 문자. 첫 번째 문자와 마지막 문자는 하이픈일 수 없습니다.

다음 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

다음 단계