Bagikan melalui


Instal & gunakan CLI (v1)

BERLAKU UNTUK:Ekstensi ml Azure CLI v1

Penting

Perintah CLI Azure dalam artikel ini memerlukan ekstensi azure-cli-ml, atau v1, untuk Azure Machine Learning. Dukungan untuk ekstensi v1 akan berakhir pada 30 September 2025. Anda dapat memasang dan menggunakan ekstensi v1 hingga tanggal tersebut.

Kami menyarankan agar Anda beralih ke ekstensi ml, atau v2 sebelum 30 September 2025. Untuk informasi selengkapnya mengenai ekstensi v2, lihat Ekstensi Azure ML CLI dan Python SDK v2.

CLI Azure Machine Learning adalah ekstensi untuk Azure CLI, antarmuka baris perintah lintas platform untuk platform Azure. Ekstensi ini menyediakan perintah agar bekerja dengan Azure Machine Learning. Ekstensi ini memungkinkan Anda untuk mengotomatiskan aktivitas pembelajaran mesin. Daftar berikut memberikan beberapa contoh tindakan yang dapat Anda lakukan dengan ekstensi CLI:

  • Menjalankan eksperimen untuk membuat model pembelajaran mesin

  • Mendaftarkan model pembelajaran mesin untuk penggunaan pelanggan

  • Mengemas, menyebarkan, dan melacak siklus hidup model pembelajaran mesin Anda

CLI bukan pengganti SDK Azure Machine Learning. Ini adalah alat pelengkap yang dioptimalkan untuk menangani tugas yang sangat berparameter yang sesuai dengan otomatisasi.

Prasyarat

  • Untuk menggunakan CLI, Anda harus memiliki langganan Azure. Jika Anda tidak memiliki langganan Azure, buat akun gratis sebelum Anda memulai. Coba versi gratis atau berbayar Azure Machine Learning hari ini.

  • Untuk menggunakan perintah CLI dalam dokumen ini dari lingkungan lokal Anda, Anda memerlukan Azure CLI.

    Jika Anda menggunakan Azure Cloud Shell, CLI diakses melalui browser dan berada di cloud.

Dokumen referensi lengkap

Temukan dokumen referensi lengkap untuk ekstensi azure-cli-ml dari Azure CLI.

Menyambungkan CLI ke langganan Azure Anda

Penting

Jika Anda menggunakan Azure Cloud Shell, Anda dapat melewati bagian ini. Shell cloud secara otomatis mengautentikasi Anda menggunakan akun yang Anda gunakan untuk masuk ke langganan Azure.

Ada beberapa cara untuk mengautentikasi ke langganan Azure Anda dari CLI. Yang paling mendasar adalah mengautentikasi secara interaktif menggunakan browser. Untuk mengautentikasi secara interaktif, buka baris perintah atau terminal dan gunakan perintah berikutini:

az login

Jika CLI dapat membuka browser default Anda, CLI akan melakukannya dan memuat halaman masuk. Jika tidak, Anda perlu membuka browser dan mengikuti instruksi pada baris perintah. Instruksi meliputi penelusuran ke https://aka.ms/devicelogin dan memasukkan kode otorisasi.

Tip

Setelah masuk, Anda melihat daftar langganan yang terkait dengan akun Azure Anda. Informasi langganan dengan isDefault: true adalah langganan yang saat ini diaktifkan untuk perintah Azure CLI. Langganan ini harus sama dengan yang berisi ruang kerja Azure Machine Learning Anda. Anda dapat menemukan ID langganan dari portal Azure dengan mengunjungi halaman gambaran umum untuk ruang kerja Anda. Anda juga dapat menggunakan SDK untuk mendapatkan ID langganan dari objek ruang kerja. Contohnya:Workspace.from_config().subscription_id

Untuk memilih langganan lain, gunakan az account set -s <subscription name or ID> perintah dan tentukan nama atau ID langganan untuk dialihkan. Untuk informasi selengkapnya tentang pemilihan langganan, lihat Menggunakan beberapa Langganan Azure.

Untuk metode autentikasi lainnya, lihat Masuk dengan Azure CLI.

Memasang ekstensi

Untuk memasang ekstensi CLI (v1):

az extension add -n azure-cli-ml

Memperbarui ekstensi

Untuk memperbarui ekstensi CLI Azure Machine Learning, gunakan perintah berikut:

az extension update -n azure-cli-ml

Menghapus ekstensi

Untuk menghapus ekstensi CLI, gunakan perintah berikut ini:

az extension remove -n azure-cli-ml

Manajemen sumber daya

Perintah berikut menunjukkan cara menggunakan CLI untuk mengelola sumber daya yang digunakan oleh Azure Machine Learning.

  • Jika Anda belum memilikinya, buat grup sumber daya:

    az group create -n myresourcegroup -l westus2
    
  • Buat ruang kerja Azure Machine Learning:

    az ml workspace create -w myworkspace -g myresourcegroup
    

    Untuk informasi selengkapnya, lihat membuat ruang kerja ml az.

  • Lampirkan konfigurasi ruang kerja ke folder untuk mengaktifkan kesadaran kontekstual CLI.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    Perintah ini membuat subdirektori .azureml yang berisi contoh file runconfig dan lingkungan conda. Perintah ini juga berisi file config.json yang digunakan untuk berkomunikasi dengan ruang kerja Azure Machine Learning Anda.

    Untuk informasi selengkapnya, lihat lampiran folder ml az.

  • Lampirkan kontainer blob Azure sebagai Datastore.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    Untuk informasi selengkapnya, lihat blob lampiran datastore ml az.

  • Unggah file ke Datastore.

    az ml datastore upload  -n datastorename -p sourcepath
    

    Untuk informasi selengkapnya, lihat pengunggahan datastore ml az.

  • Lampirkan kluster AKS sebagai Target Komputasi.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    Untuk informasi selengkapnya, lihat aks lampiran computetarget ml az

Kluster komputasi

  • Buat kluster komputasi terkelola baru.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • Buat kluster komputasi terkelola baru dengan identitas terkelola

    • Identitas Terkelola yang Ditetapkan Pengguna

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Identitas terkelola yang ditetapkan sistem

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • Tambahkan identitas terkelola ke kluster yang ada:

    • Identitas Terkelola yang Ditetapkan Pengguna

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Identitas terkelola yang ditetapkan sistem

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

Untuk informasi selengkapnya, lihat amlcompute pembuatan computetarget ml az.

Catatan

Klaster komputasi Azure Machine Learning hanya mendukung satu identitas yang ditetapkan sistem atau beberapa identitas yang ditetapkan pengguna, tidak keduanya secara bersamaan.

Hitung intance

Kelola instans komputasi. Dalam semua contoh di bawah, nama instans komputasi adalah cpu

Menjalankan eksperimen

  • Mulai jalankan eksperimen Anda. Saat menggunakan perintah ini, tentukan nama file runconfig (teks sebelum *.runconfig jika Anda melihat pada sistem file Anda) terhadap parameter -c.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    Tip

    Perintah az ml folder attach membuat subdirektori .azureml, yang berisi dua contoh file runconfig.

    Jika memiliki skrip Python yang membuat objek konfigurasi eksekusi secara terprogram, Anda dapat menggunakan RunConfig.save() untuk menyimpannya sebagai file runconfig.

    Skema runconfig lengkap dapat ditemukan di file JSON ini. Skema ini mendokumentasikan diri melalui kunci description dari setiap objek. Selain itu, ada enum untuk kemungkinan nilai, dan cuplikan templat di bagian akhir.

    Untuk informasi selengkapnya, lihat skrip pengiriman eksekusi ml az.

  • Lihat daftar eksperimen:

    az ml experiment list
    

    Untuk informasi selengkapnya, lihat daftar eksperimen ml az.

Menjalankan HyperDrive

Anda dapat menggunakan HyperDrive dengan Azure CLI untuk melakukan eksekusi penyetelan parameter. Pertama, buat file konfigurasi HyperDrive dalam format berikut. Lihat artikel Menyetel hyperparameter untuk model Anda untuk detail tentang parameter penyetelan hyperparameter.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

Tambahkan file ini di samping file konfigurasi eksekusi. Kemudian kirimkan eksekusi HyperDrive menggunakan:

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

Perhatikan bagian argumen di runconfig dan ruang parameter dalam konfigurasi HyperDrive. Konfigurasi berisi argumen baris perintah untuk diteruskan ke skrip pelatihan. Nilai di runconfig tetap sama untuk setiap perulangan, sedangkan rentang di konfigurasi HyperDrive diulang berulang kali. Jangan tentukan argumen yang sama di kedua file.

Manajemen himpunan data

Perintah berikut menunjukkan cara bekerja dengan himpunan data di Azure Machine Learning:

  • Daftarkan himpunan data:

    az ml dataset register -f mydataset.json
    

    Untuk informasi tentang format file JSON yang digunakan untuk menentukan himpunan data, gunakan az ml dataset register --show-template.

    Untuk informasi selengkapnya, lihat pendaftaran himpunan data ml az.

  • Cantumkan semua himpunan data di ruang kerja:

    az ml dataset list
    

    Untuk informasi selengkapnya, lihat daftar himpunan data ml az.

  • Dapatkan detail himpunan data:

    az ml dataset show -n dataset-name
    

    Untuk informasi selengkapnya, lihat tampilan himpunan data ml az.

  • Batalkan pendaftaran himpunan data:

    az ml dataset unregister -n dataset-name
    

    Untuk informasi selengkapnya, lihat Pembatalan pendaftaran himpunan data ml az.

Manajemen lingkungan

Perintah berikut menunjukkan cara membuat, mendaftarkan, dan mencantumkan lingkungan Azure Machine Learning untuk ruang kerja Anda:

  • Buat file perancah untuk lingkungan:

    az ml environment scaffold -n myenv -d myenvdirectory
    

    Untuk informasi selengkapnya, lihat perancah lingkungan ml az.

  • Daftarkan lingkungan:

    az ml environment register -d myenvdirectory
    

    Untuk informasi selengkapnya, lihat Pendaftaran lingkungan ml az.

  • Cantumkan lingkungan terdaftar:

    az ml environment list
    

    Untuk informasi selengkapnya, lihat daftar lingkungan ml az.

  • Unduh lingkungan terdaftar:

    az ml environment download -n myenv -d downloaddirectory
    

    Untuk informasi selengkapnya, lihat pengunduhan lingkungan ml az.

Skema konfigurasi lingkungan

Jika Anda menggunakan perintah az ml environment scaffold, perintah akan menghasilkan file templat azureml_environment.json yang dapat diubah dan digunakan untuk membuat konfigurasi lingkungan kustom dengan CLI. Objek tingkat atas secara longgar dipetakan ke kelas Environment di SDK Python.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

Tabel berikut ini merinci setiap bidang tingkat atas dalam file JSON, jenisnya, dan deskripsi. Jika jenis objek ditautkan ke kelas dari Python SDK, ada kecocokan 1:1 yang longgar antara setiap bidang JSON dan nama variabel publik di kelas Python. Dalam beberapa kasus, bidang dapat memetakan ke argumen konstruktor daripada variabel kelas. Misalnya, bidang environmentVariables dipetakan ke variabel environment_variables di kelas Environment.

bidang JSON Jenis Deskripsi
name string Nama lingkungan. Jangan mulai nama dengan Microsoft atau AzureML.
version string Versi lingkungan.
environmentVariables {string: string} Peta hash dari nama dan nilai variabel lingkungan.
python PythonSectionhat menentukan lingkungan Python dan penerjemah untuk digunakan pada sumber daya komputasi target.
docker DockerSection Menentukan pengaturan untuk menyesuaikan gambar Docker yang dibuat dengan spesifikasi lingkungan.
spark SparkSection Bagian ini mengonfigurasi pengaturan Spark. Ini hanya digunakan ketika kerangka kerja diatur ke PySpark.
databricks DatabricksSection Konfigurasikan dependensi pustaka Databricks.
inferencingStackVersion string Menentukan versi tumpukan inferensi yang ditambahkan ke gambar. Untuk menghindari penambahan tumpukan inferensi, biarkan bidang ini null. Nilai valid: "terbaru".

Manajemen alur Azure Machine Learning

Perintah berikut menunjukkan cara bekerja dengan alur pembelajaran mesin:

Pendaftaran model, pemrofilan, penyebaran

Perintah berikut menunjukkan cara mendaftarkan model terlatih, lalu menyebarkannya sebagai layanan produksi:

  • Daftarkan model dengan Azure Machine Learning:

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    Untuk informasi selengkapnya, lihat pendaftaran model ml az.

  • OPSIONAL Buat profil model Anda untuk mendapatkan nilai CPU dan memori yang optimal untuk penyebaran.

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    Untuk informasi selengkapnya, lihat profil model ml az.

  • Menyebarkan model Anda ke AKS

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    Untuk informasi selengkapnya tentang skema file konfigurasi inferensi, lihat Skema konfigurasi inferensi.

    Untuk informasi selengkapnya tentang skema file konfigurasi penyebaran, lihat Skema konfigurasi penyebaran.

    Untuk informasi selengkapnya, lihat penyebaran model ml az.

Skema konfigurasi inferensi

Entri dalam peta dokumen inferenceconfig.json ke parameter untuk kelas InferenceConfig. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode tersebut:

Entitas JSON Parameter metode Deskripsi
entryScript entry_script Jalur ke file lokal yang berisi kode yang akan dijalankan untuk gambar.
sourceDirectory source_directory Opsional. Jalur ke folder yang berisi semua file untuk membuat gambar, yang memudahkan untuk mengakses file apa pun dalam folder atau subfolder ini. Anda dapat mengunggah seluruh folder dari komputer lokal Anda sebagai dependensi untuk Webservice. Catatan: jalur entry_script, conda_file, dan extra_docker_file_steps Anda adalah jalur relatif ke jalur source_directory.
environment environment Opsional. Lingkungan Azure Machine Learning.

Anda dapat menyertakan spesifikasi lengkap lingkungan Azure Machine Learning dalam file konfigurasi inferensi. Jika lingkungan ini tidak ada di ruang kerja, Azure Machine Learning akan membuatnya. Jika tidak, Azure Machine Learning akan memperbarui lingkungan jika perlu. JSON berikut adalah contohnya:

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

Anda juga dapat menggunakan lingkungan Azure Machine Learning yang ada dalam parameter CLI terpisah dan menghapus kunci "lingkungan" dari file konfigurasi inferensi. Gunakan -e untuk nama lingkungan, dan --ev untuk versi lingkungan. Jika Anda tidak menentukan --ev, versi terbaru akan digunakan. Berikut adalah contoh file konfigurasi inferensi:

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

Perintah berikut menunjukkan cara menyebarkan model menggunakan file konfigurasi inferensi sebelumnya (bernama myInferenceConfig.json).

Ini juga menggunakan versi terbaru lingkungan Azure Machine Learning yang ada (bernama AzureML-Minimal).

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

Skema konfigurasi penyebaran

Skema konfigurasi penyebaran lokal

Entri dalam dokumen deploymentconfig.json dipetakan ke parameter untuk LocalWebservice.deploy_configuration. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode:

Entitas JSON Parameter metode Deskripsi
computeType NA Target komputasi. Untuk target lokal, nilainya harus local.
port port Port lokal tempat mengekspos titik akhir HTTP layanan.

JSON ini adalah contoh konfigurasi penyebaran untuk digunakan dengan CLI:

{
    "computeType": "local",
    "port": 32267
}

Simpan JSON ini sebagai file yang disebut deploymentconfig.json.

Skema konfigurasi penyebaran Instans Kontainer Azure

Entri dalam deploymentconfig.jsonpeta dokumen ke parameter untuk AciWebservice.deploy_configuration. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode:

Entitas JSON Parameter metode Deskripsi
computeType NA Target komputasi. Untuk ACI, nilainya harus ACI.
containerResourceRequirements NA Kontainer untuk entitas CPU dan memori.
  cpu cpu_cores Jumlah inti CPU yang akan dia alokasikan. Default, 0.1
  memoryInGB memory_gb Jumlah memori (dalam GB) yang akan dialokasikan untuk layanan web ini. Default, 0.5
location location Wilayah Azure untuk menggunakan Layanan Web ini. Jika tidak ditentukan, lokasi Ruang Kerja akan digunakan. Rincian lebih lanjut tentang wilayah yang tersedia dapat ditemukan di sini: Wilayah ACI
authEnabled auth_enabled Apakah akan memfungsikan auth untuk Layanan Web ini. Default ke False
sslEnabled ssl_enabled Apakah akan mengaktifkan SSL untuk Layanan Web ini. Default ke False.
appInsightsEnabled enable_app_insights Apakah mengaktifkan AppInsights untuk Webservice ini. Default ke False
sslCertificate ssl_cert_pem_file File sertifikasi diperlukan jika SSL diaktifkan
sslKey ssl_key_pem_file File kunci yang diperlukan jika SSL diaktifkan
cname ssl_cname Nama c untuk jika SSL diaktifkan
dnsNameLabel dns_name_label Label nama dns untuk titik akhir penilaian. Jika tidak ditentukan label nama dns unik akan dihasilkan untuk titik akhir penilaian.

JSON berikut adalah contoh konfigurasi penyebaran untuk digunakan dengan CLI:

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Skema konfigurasi penyebaran Azure Kubernetes Service

Entri dalam peta dokumen deploymentconfig.json ke parameter untuk AksWebservice.deploy_configuration. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode:

Entitas JSON Parameter metode Deskripsi
computeType NA Target komputasi. Untuk AKS, nilainya harus aks.
autoScaler NA Berisi elemen konfigurasi untuk penskalaan otomatis. Lihat tabel penskala otomatis.
  autoscaleEnabled autoscale_enabled Apakah akan mengaktifkan penskalaan otomatis untuk layanan web. Jika numReplicas = 0, True; jika tidak, False.
  minReplicas autoscale_min_replicas Jumlah minimum kontainer yang digunakan saat melakukan penskalaan otomatis layanan web ini. Default, 1.
  maxReplicas autoscale_max_replicas Jumlah maksimum kontainer yang digunakan saat melakukan penskalaan otomatis layanan web ini. Default, 10.
  refreshPeriodInSeconds autoscale_refresh_seconds Seberapa sering penskala otomatis mencoba menskalakan layanan web ini. Default, 1.
  targetUtilization autoscale_target_utilization Pemanfaatan target (dalam persen dari 100) yang harus coba dipertahankan oleh penskala otomatis untuk layanan web ini. Default, 70.
dataCollection NA Berisi elemen konfigurasi untuk kumpulan data.
  storageEnabled collect_model_data Apakah mengaktifkan kumpulan data model untuk layanan web. Default, False.
authEnabled auth_enabled Apakah akan mengaktifkan autentikasi kunci untuk layanan web atau tidak. Baik tokenAuthEnabled maupun authEnabled tidak boleh True. Default, True.
tokenAuthEnabled token_auth_enabled Apakah akan mengaktifkan autentikasi token untuk layanan web atau tidak. Baik tokenAuthEnabled maupun authEnabled tidak boleh True. Default, False.
containerResourceRequirements NA Kontainer untuk entitas CPU dan memori.
  cpu cpu_cores Jumlah core CPU yang dialokasikan untuk layanan web ini. Defaults, 0.1
  memoryInGB memory_gb Jumlah memori (dalam GB) yang akan dialokasikan untuk layanan web ini. Default, 0.5
appInsightsEnabled enable_app_insights Apakah akan mengaktifkan pengelogan Application Insights untuk layanan web. Default, False.
scoringTimeoutMs scoring_timeout_ms Batas waktu untuk memberlakukan guna penskoran panggilan ke layanan web. Default, 60000.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests Permintaan bersamaan maksimum per simpul untuk layanan web ini. Default, 1.
maxQueueWaitMs max_request_wait_time Waktu maksimum permintaan akan tetap dalam antrean Anda (dalam milidetik) sebelum kesalahan 503 dikembalikan. Default, 500.
numReplicas num_replicas Jumlah kontainer yang dialokasikan untuk layanan web ini. Tidak ada nilai default. Jika parameter ini tidak diatur, penskala otomatis diaktifkan secara default.
keys NA Berisi elemen konfigurasi untuk kunci.
  primaryKey primary_key Kunci auth utama yang digunakan untuk layanan Web ini
  secondaryKey secondary_key Kunci auth sekunder yang digunakan untuk layanan Web ini
gpuCores gpu_cores Jumlah core GPU (replika per kontainer) yang dialokasikan untuk layanan Web ini. Defaultnya adalah 1. Hanya mendukung nilai bilangan bulat.
livenessProbeRequirements NA Berisi elemen konfigurasi untuk persyaratan probe keaktifan.
  periodSeconds period_seconds Seberapa sering (dalam hitungan detik) untuk melakukan probe keaktifan. Default ke 10 detik. Nilai minimalnya adalah 1.
  initialDelaySeconds initial_delay_seconds Jumlah detik setelah kontainer dimulai sebelum probe keaktifan dimulai. Default ke 310
  timeoutSeconds timeout_seconds Jumlah detik setelah waktu probe keaktifan habis. Default ke 2 detik. Nilai minimalnya adalah 1
  successThreshold success_threshold Keberhasilan minimum berturut-turut untuk probe keaktifan dianggap berhasil setelah gagal. Default ke 1. Nilai minimalnya adalah 1.
  failureThreshold failure_threshold Saat sebuah Pod dimulai dan probe keaktifan gagal, Kube akan mencoba waktu failureThreshold sebelum menyerah. Default ke 3. Nilai minimalnya adalah 1.
namespace namespace Namespace layanan Kube tempat layanan web disebarkan. Hingga 63 karakter alfanumerik huruf kecil ('a'-'z', '0'-'9') dan tanda hubung ('-'). Karakter pertama dan terakhir tidak boleh berupa tanda hubung.

JSON berikut adalah contoh konfigurasi penyebaran untuk digunakan dengan CLI:

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

Langkah berikutnya