다음을 통해 공유


CLI(v1) 설치 및 사용

적용 대상:Azure CLI ml 확장 v1

중요

이 문서의 Azure CLI 명령에는 azure-cli-ml 또는 v1, Azure Machine Learning용 확장이 필요합니다. v1 확장에 대한 지원은 2025년 9월 30일에 종료됩니다. v1 확장은 이 날짜까지 설치하고 사용할 수 있습니다.

2025년 9월 30일 이전에 ml 또는 v2 확장으로 전환하는 것이 좋습니다. v2 확장에 대한 자세한 내용은 Azure ML CLI 확장 및 Python SDK v2를 참조하세요.

Azure Machine Learning CLI는 Azure 플랫폼용 플랫폼 간 명령줄 인터페이스인 Azure CLI에 대한 확장입니다. 이 확장은 Azure Machine Learning을 사용하기 위한 명령을 제공합니다. 이 확장을 사용하여 기계 학습 활동을 자동화할 수 있습니다. 다음 목록에서는 CLI 확장을 통해 수행할 수 있는 몇 가지 예제 작업을 보여 줍니다.

  • 실험을 실행하여 Machine Learning 모델 생성

  • 고객이 사용할 수 있도록 Machine Learning 모델 등록

  • 기계 학습 모델 패키징, 배포 및 수명 주기 추적

CLI는 Azure Machine Learning SDK를 대체하는 것이 아닙니다. 자동화에 적합한 매개 변수가 많은 작업을 처리하는 데 최적화된 보완 도구입니다.

사전 요구 사항

  • CLI를 사용하려면 Azure 구독이 있어야 합니다. Azure 구독이 없는 경우 시작하기 전에 체험 계정을 만듭니다. 지금 Azure Machine Learning 평가판 또는 유료 버전을 사용해 보세요.

  • 로컬 환경에서 이 문서의 CLI 명령을 사용하려면 Azure CLI가 필요합니다.

    Azure Cloud Shell을 사용하는 경우 CLI는 브라우저를 통해 액세스하고 클라우드에 있습니다.

전체 참조 문서

Azure CLI의 azure-cli-ml 확장에 대한 전체 참조 문서를 찾습니다.

Azure 구독에 CLI 연결

중요

Azure Cloud Shell을 사용하는 경우 이 섹션을 건너뛸 수 있습니다. Cloud Shell은 Azure 구독에 로그인하는 계정을 사용하여 사용자를 자동으로 인증합니다.

CLI에서 Azure 구독에 인증하는 방법에는 여러 가지가 있습니다. 가장 기본적인 방법은 브라우저를 사용하여 대화형으로 인증하는 것입니다. 대화형으로 인증하려면 명령줄 또는 터미널을 열고 다음 명령을 사용합니다.

az login

CLI가 기본 브라우저를 열 수 있는 경우, 그렇게 하고 로그인 페이지를 로드합니다. CLI가 브라우저를 열 수 없는 경우에는 사용자가 브라우저를 열고 명령줄의 지침을 따릅니다. 지침에 따라 https://aka.ms/devicelogin으로 이동하고 인증 코드를 입력합니다.

로그인하면 Azure 계정에 연결된 구독 목록이 나타납니다. isDefault: true가 있는 구독 정보는 Azure CLI 명령에 대해 현재 활성화된 구독입니다. 이 구독은 Azure Machine Learning 작업 영역을 포함하는 구독과 동일해야 합니다. 작업 영역에 대한 개요 페이지를 방문하여 Azure Portal에서 구독 ID를 찾을 수 있습니다. SDK를 사용하여 작업 영역 개체에서 구독 ID를 가져올 수도 있습니다. 예들 들어 Workspace.from_config().subscription_id입니다.

다른 구독을 선택하려면 az account set -s <subscription name or ID> 명령을 사용하고 전환할 구독 이름 또는 ID를 지정합니다. 구독 선택에 대한 자세한 내용은 여러 Azure 구독 사용을 참조하세요.

다른 인증 방법은 Azure CLI로 로그인을 참조하세요.

확장 설치

CLI(v1) 확장을 설치하려면:

az extension add -n azure-cli-ml

확장 업데이트

Machine Learning CLI 확장을 업데이트하려면 다음 명령을 사용합니다.

az extension update -n azure-cli-ml

확장 제거

CLI 확장을 제거하려면 다음 명령을 사용합니다.

az extension remove -n azure-cli-ml

리소스 관리

다음 명령은 CLI를 사용하여 Azure Machine Learning에서 사용하는 리소스를 관리하는 방법을 보여 줍니다.

  • 아직 없는 경우 리소스 그룹을 만듭니다.

    az group create -n myresourcegroup -l westus2
    
  • Azure Machine Learning 작업 영역을 만듭니다.

    az ml workspace create -w myworkspace -g myresourcegroup
    

    자세한 내용은 az ml workspace create를 참조하세요.

  • 작업 영역 구성을 폴더에 연결하여 CLI 상황별 인식을 사용하도록 설정합니다.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    이 명령은 예제 runconfig 및 conda 환경 파일을 포함하는 .azureml 하위 디렉터리를 만듭니다. 또한 Azure Machine Learning 작업 영역과 통신하는 데 사용되는 config.json 파일을 포함합니다.

    자세한 내용은 az ml folder attach를 참조하세요.

  • Azure Blob 컨테이너를 데이터 저장소로 연결합니다.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    자세한 내용은 az ml datastore attach-blob을 참조하세요.

  • 데이터 저장소에 파일을 업로드합니다.

    az ml datastore upload  -n datastorename -p sourcepath
    

    자세한 내용은 az ml datastore upload를 참조하세요.

  • AKS 클러스터를 컴퓨팅 대상으로 연결합니다.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    자세한 내용은 az ml computetarget attach aks를 참조하세요.

컴퓨팅 클러스터

  • 새 관리형 컴퓨팅 클러스터를 만듭니다.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • 관리 ID를 사용하여 새 관리형 컴퓨팅 클러스터 만들기

    • 사용자 할당 관리 ID

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • 시스템 할당 관리 ID

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • 기존 클러스터에 관리 ID를 추가:

    • 사용자 할당 관리 ID

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • 시스템 할당 관리 ID

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

자세한 내용은 az ml computetarget create amlcompute를 참조하세요.

참고

Azure Machine Learning 컴퓨팅 클러스터는 하나의 시스템 할당 ID 또는 여러 사용자 할당 ID(둘 다를 동시에 지원하지 않음)만 지원합니다.

컴퓨팅 인스턴스

컴퓨팅 인스턴스를 관리합니다. 아래의 모든 예제에서 컴퓨팅 인스턴스의 이름은 cpu입니다.

실험 실행

  • 실험 실행을 시작합니다. 이 명령을 사용하는 경우 -c 매개 변수에 대해 runconfig 파일의 이름(파일 시스템을 보고 있는 경우 *.runconfig 앞의 텍스트)을 지정합니다.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    az ml folder attach 명령은 두 개의 예제 runconfig 파일을 포함하는 .azureml 하위 디렉터리를 만듭니다.

    실행 구성 개체를 프로그래밍 방식으로 만드는 Python 스크립트가 있는 경우 RunConfig.save()를 사용하여 runconfig 파일로 저장합니다.

    전체 runconfig 스키마는 이 JSON 파일에서 찾을 수 있습니다. 스키마는 각 개체의 description 키를 통해 자동으로 문서화합니다. 또한 가능한 값의 열거형과 끝 부분에 템플릿 코드 조각이 있습니다.

    자세한 내용은 az ml run submit-script를 참조하세요.

  • 실험 목록을 확인합니다.

    az ml experiment list
    

    자세한 내용은 az ml experiment list를 참조하세요.

HyperDrive 실행

Azure CLI에서 HyperDrive를 사용하여 매개 변수 튜닝 실행을 수행할 수 있습니다. 먼저 다음과 같은 형식으로 HyperDrive 구성 파일을 만듭니다. 하이퍼 매개 변수 튜닝 매개 변수에 대한 자세한 내용은 모델의 하이퍼 매개 변수 튜닝 문서를 참조하세요.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

실행 구성 파일과 함께 이 파일을 추가합니다. 그리고 다음 명령을 사용하여 HyperDrive 실행을 제출합니다.

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

runconfig의 인수 섹션과 HyperDrive 구성의 매개 변수 공간을 잘 보세요. 학습 스크립트에 전달할 명령줄 인수가 포함되어 있습니다. runconfig의 값은 각 반복에서 동일하게 유지되는 반면, HyperDrive 구성의 범위는 반복됩니다. 두 파일에서 모두 같은 인수를 지정하지 마세요.

데이터 세트 관리

다음 명령은 Azure Machine Learning에서 데이터 세트를 사용하는 방법을 보여 줍니다.

  • 데이터 세트를 등록합니다.

    az ml dataset register -f mydataset.json
    

    데이터 세트를 정의하는 데 사용되는 JSON 파일의 형식을 알아보려면 az ml dataset register --show-template을 사용합니다.

    자세한 내용은 az ml dataset register를 참조하세요.

  • 작업 영역의 모든 데이터 세트를 나열합니다.

    az ml dataset list
    

    자세한 내용은 az ml dataset list를 참조하세요.

  • 데이터 세트의 세부 정보를 가져옵니다.

    az ml dataset show -n dataset-name
    

    자세한 내용은 az ml dataset show를 참조하세요.

  • 데이터베이스 등록을 취소합니다.

    az ml dataset unregister -n dataset-name
    

    자세한 내용은 az ml dataset unregister를 참조하세요.

환경 관리

다음 명령은 작업 영역의 Azure Machine Learning 환경을 만들고 등록하고 나열하는 방법을 보여 줍니다.

  • 환경의 스캐폴딩 파일을 만듭니다.

    az ml environment scaffold -n myenv -d myenvdirectory
    

    자세한 내용은 az ml environment scaffold를 참조하세요.

  • 환경을 등록합니다.

    az ml environment register -d myenvdirectory
    

    자세한 내용은 az ml environment register를 참조하세요.

  • 등록된 환경을 나열합니다.

    az ml environment list
    

    자세한 내용은 az ml environment list를 참조하세요.

  • 등록된 환경을 다운로드합니다.

    az ml environment download -n myenv -d downloaddirectory
    

    자세한 내용은 az ml environment download를 참조하세요.

환경 구성 스키마

az ml environment scaffold 명령을 사용한 경우 이 명령은 CLI로 사용자 지정 환경 구성을 만드는 데 사용하고 수정할 수 있는 템플릿 azureml_environment.json 파일을 생성합니다. 최상위 개체는 Python SDK의 Environment 클래스에 느슨하게 매핑됩니다.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

다음 표에는 JSON 파일의 각 최상위 필드, 해당 형식 및 설명이 자세히 나와 있습니다. 개체 형식이 Python SDK의 클래스에 연결된 경우에는 각 JSON 필드와 Python 클래스의 퍼블릭 변수 이름 간에 느슨한 1:1 일치가 있습니다. 경우에 따라 필드는 클래스 변수가 아니라 생성자 인수에 매핑될 수 있습니다. 예를 들어 environmentVariables 필드는 Environment 클래스의 environment_variables 변수에 매핑됩니다.

JSON 필드 Type Description
name string 환경의 이름입니다. 이름은 Microsoft 또는 AzureML로 시작하면 안 됩니다.
version string 환경의 버전입니다.
environmentVariables {string: string} 환경 변수 이름 및 값의 해시 맵입니다.
python PythonSectionhat은 대상 컴퓨팅 리소스에서 사용할 Python 환경 및 인터프리터를 정의합니다.
docker DockerSection 환경 사양에 기본 제공된 Docker 이미지를 사용자 지정하는 설정을 정의합니다.
spark SparkSection 이 섹션에서는 Spark 설정을 구성합니다. 프레임워크가 PySpark로 설정된 경우에만 사용됩니다.
databricks DatabricksSection Databricks 라이브러리 종속성을 구성합니다.
inferencingStackVersion string 이미지에 추가된 유추 스택 버전을 지정합니다. 유추 스택을 추가하지 않으려면 이 필드를 null로 유지합니다. 유효한 값: “latest”.

ML 파이프라인 관리

다음 명령은 기계 학습 파이프라인을 사용하는 방법을 보여 줍니다.

모델 등록, 프로파일링, 배포

다음 명령은 학습된 모델을 등록한 후 프로덕션 서비스로 배포하는 방법을 보여 줍니다.

  • Azure Machine Learning에 모델을 등록합니다.

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    자세한 내용은 az ml model register를 참조하세요.

  • 선택 사항 배포를 위한 최적의 CPU 및 메모리 값을 얻으려면 모델을 프로파일링합니다.

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    자세한 내용은 az ml model profile을 참조하세요.

  • AKS에 모델 배포

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    유추 구성 파일 스키마에 관한 자세한 내용은 유추 구성 스키마를 참조하세요.

    배포 구성 파일 스키마에 관한 자세한 내용은 배포 구성 스키마를 참조하세요.

    자세한 내용은 az ml model deploy를 참조하세요.

유추 구성 스키마

inferenceconfig.json 문서의 항목은 InferenceConfig 클래스에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
entryScript entry_script 이미지에 대해 실행할 코드를 포함하는 로컬 파일의 경로입니다.
sourceDirectory source_directory 선택 사항입니다. 이미지를 만드는 모든 파일이 포함된 폴더의 경로입니다. 이 폴더 또는 하위 폴더에 있는 모든 파일에 쉽게 액세스할 수 있습니다. 로컬 머신에서 웹 서비스에 대한 종속성으로 전체 폴더를 업로드할 수 있습니다. 참고: entry_script, conda_file 및 extra_docker_file_steps 경로는 source_directory 경로에 대한 상대 경로입니다.
environment environment 선택 사항입니다. Azure Machine Learning 환경

유추 구성 파일에서 Azure Machine Learning 환경의 전체 사양을 포함할 수 있습니다. 이 환경이 작업 영역에 없는 경우 Azure Machine Learning에서 만듭니다. 그렇지 않으면 필요한 경우 Azure Machine Learning에서 환경을 업데이트합니다. 다음 JSON은 예제입니다.

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

구분된 CLI 매개 변수에서 기존 Azure Machine Learning 환경을 사용하고 유추 구성 파일에서 "환경" 키를 제거할 수도 있습니다. 환경 이름에 -e를 사용하고 환경 버전에 --ev를 사용합니다. --ev를 지정하지 않으면 최신 버전이 사용됩니다. 다음은 유추 구성 파일의 예제입니다.

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

다음 명령은 이전 유추 구성 파일(myInferenceConfig.json)을 사용하여 모델을 배포하는 방법을 보여 줍니다.

또한 기존 Azure Machine Learning 환경(AzureML-Minimal)의 최신 버전을 사용합니다.

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

배포 구성 스키마

로컬 배포 구성 스키마

deploymentconfig.json 문서의 항목은 LocalWebservice.deploy_configuration에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
computeType 해당 없음 컴퓨팅 대상. 로컬 대상의 경우 값은 local이어야 합니다.
port port 서비스의 HTTP 엔드포인트를 노출할 로컬 포트입니다.

이 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.

{
    "computeType": "local",
    "port": 32267
}

이 JSON을 deploymentconfig.json 파일로 저장합니다.

Azure Container Instance 배포 구성 스키마

deploymentconfig.json 문서의 항목은 AciWebservice.deploy_configuration에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
computeType 해당 없음 컴퓨팅 대상. ACI의 경우 값은 ACI여야 합니다.
containerResourceRequirements 해당 없음 CPU 및 메모리 엔터티에 대한 컨테이너입니다.
  cpu cpu_cores 할당할 CPU 코어 수입니다. 기본값은 0.1입니다
  memoryInGB memory_gb 이 웹 서비스에 할당할 메모리 양(GB)입니다. 기본값은 0.5입니다
location location 이 웹 서비스를 배포할 Azure 지역입니다. 지정하지 않으면 작업 영역 위치가 사용됩니다. 사용 가능한 지역에 대한 자세한 내용은 여기에서 확인할 수 있습니다. ACI 지역
authEnabled auth_enabled 이 웹 서비스에 대해 인증을 사용할지 여부. 기본값은 False입니다.
sslEnabled ssl_enabled 이 웹 서비스에 대해 SSL을 사용할지 여부. 기본값은 False입니다.
appInsightsEnabled enable_app_insights 이 웹 서비스에 대해 AppInsights를 사용할지 여부. 기본값은 False입니다.
sslCertificate ssl_cert_pem_file SSL을 사용하는 경우 필요한 인증서 파일
sslKey ssl_key_pem_file SSL을 사용하는 경우 필요한 키 파일
cname ssl_cname SSL을 사용하는 경우의 cname
dnsNameLabel dns_name_label 채점 엔드포인트에 대한 DNS 이름 레이블 지정하지 않으면 채점 엔드포인트에 대해 고유한 DNS 이름 레이블이 생성됩니다.

다음 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Azure Kubernetes Service 배포 구성 스키마

deploymentconfig.json 문서의 항목은 AksWebservice.deploy_configuration에 대한 매개 변수에 매핑됩니다. 다음 표에서는 JSON 문서의 엔터티 및 메서드에 대한 매개 변수 간의 매핑에 대해 설명합니다.

JSON 엔터티 메서드 매개 변수 설명
computeType 해당 없음 컴퓨팅 대상. AKS의 경우 값은 aks여야 합니다.
autoScaler 해당 없음 자동 크기 조정에 대한 구성 요소를 포함합니다. 자동 크기 조정기 표를 참조하세요.
  autoscaleEnabled autoscale_enabled 자동 크기 조정을 웹 서비스에 사용하도록 설정할지 여부입니다. numReplicas = 0이면 True이고, 그렇지 않으면 False입니다.
  minReplicas autoscale_min_replicas 이 웹 서비스의 크기를 자동으로 조정할 때 사용할 최소 컨테이너 수입니다. 기본값은 1입니다.
  maxReplicas autoscale_max_replicas 이 웹 서비스의 크기를 자동으로 조정할 때 사용할 최대 컨테이너 수입니다. 기본값은 10입니다.
  refreshPeriodInSeconds autoscale_refresh_seconds 자동 크기 조정기에서 이 웹 서비스의 크기를 조정하려고 시도하는 빈도입니다. 기본값은 1입니다.
  targetUtilization autoscale_target_utilization 자동 크기 조정기에서 이 웹 서비스에 대해 유지하려고 시도해야 하는 목표 사용률(백분율)입니다. 기본값은 70입니다.
dataCollection 해당 없음 데이터 수집을 위한 구성 요소를 포함합니다.
  storageEnabled collect_model_data 모델 데이터 수집을 웹 서비스에 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
authEnabled auth_enabled 키 인증을 웹 서비스에 사용하도록 설정할지 여부입니다. tokenAuthEnabledauthEnabled는 모두 True일 수 없습니다. 기본값은 True입니다.
tokenAuthEnabled token_auth_enabled 토큰 인증을 웹 서비스에 사용하도록 설정할지 여부입니다. tokenAuthEnabledauthEnabled는 모두 True일 수 없습니다. 기본값은 False입니다.
containerResourceRequirements 해당 없음 CPU 및 메모리 엔터티에 대한 컨테이너입니다.
  cpu cpu_cores 이 웹 서비스에 할당할 CPU 코어 수입니다. 기본값은 0.1입니다
  memoryInGB memory_gb 이 웹 서비스에 할당할 메모리 양(GB)입니다. 기본값은 0.5입니다
appInsightsEnabled enable_app_insights Application Insights 로깅을 웹 서비스에 사용하도록 설정할지 여부입니다. 기본값은 False입니다.
scoringTimeoutMs scoring_timeout_ms 웹 서비스 호출에 대한 점수 매기기에 적용할 시간 제한입니다. 기본값은 60000입니다.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests 이 웹 서비스에 대한 노드당 최대 동시 요청 수입니다. 기본값은 1입니다.
maxQueueWaitMs max_request_wait_time 503 오류가 반환되기 전까지 요청을 큐에서 유지하는 최대 시간(밀리초)입니다. 기본값은 500입니다.
numReplicas num_replicas 이 웹 서비스에 할당할 컨테이너 수입니다. 기본값은 없습니다. 이 매개 변수를 설정하지 않으면 기본적으로 자동 크기 조정기를 사용하도록 설정됩니다.
keys 해당 없음 키에 대한 구성 요소를 포함합니다.
  primaryKey primary_key 이 웹 서비스에 사용할 기본 인증 키입니다.
  secondaryKey secondary_key 이 웹 서비스에 사용할 보조 인증 키입니다.
gpuCores gpu_cores 이 웹 서비스에 할당할 GPU 코어 수(컨테이너 복제본당)입니다. 기본값은 1입니다. 정수 값만 지원합니다.
livenessProbeRequirements 해당 없음 활동성 프로브 요구 사항에 대한 구성 요소를 포함합니다.
  periodSeconds period_seconds 활동성 프로브를 수행하는 빈도(초)입니다. 기본값은 10초입니다. 최솟값은 1입니다.
  initialDelaySeconds initial_delay_seconds 컨테이너가 시작된 후 활동성 프로브가 시작되기 전까지의 시간(초)입니다. 기본값은 310입니다.
  timeoutSeconds timeout_seconds 활동성 프로브의 시간이 초과된 후 경과된 시간(초)입니다. 기본값은 2초입니다. 최솟값은 1입니다.
  successThreshold success_threshold 활동성 프로브가 실패한 후 성공한 것으로 간주되는 최소 연속 성공 횟수입니다. 기본값은 1입니다. 최솟값은 1입니다.
  failureThreshold failure_threshold Pod가 시작되고 활동성 프로브가 실패하면 Kubernetes에서 포기하기 전에 failureThreshold 시간을 시도합니다. 기본값은 3입니다. 최솟값은 1입니다.
namespace namespace 웹 서비스가 배포되는 Kubernetes 네임스페이스입니다. 최대 63자의 소문자 영숫자('a'-'z', '0'-'9') 및 하이픈('-') 문자입니다. 첫 번째 및 마지막 문자는 하이픈이 될 수 없습니다.

다음 JSON은 CLI에서 사용할 수 있는 배포 구성의 예제입니다.

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

다음 단계