Instal & gunakan CLI (v1)
BERLAKU UNTUK:Ekstensi ml Azure CLI v1
Penting
Perintah CLI Azure dalam artikel ini memerlukan ekstensi azure-cli-ml
, atau v1, untuk Azure Machine Learning. Dukungan untuk ekstensi v1 akan berakhir pada 30 September 2025. Anda dapat memasang dan menggunakan ekstensi v1 hingga tanggal tersebut.
Kami menyarankan agar Anda beralih ke ekstensi ml
, atau v2 sebelum 30 September 2025. Untuk informasi selengkapnya mengenai ekstensi v2, lihat Ekstensi Azure ML CLI dan Python SDK v2.
CLI Azure Machine Learning adalah ekstensi untuk Azure CLI, antarmuka baris perintah lintas platform untuk platform Azure. Ekstensi ini menyediakan perintah agar bekerja dengan Azure Machine Learning. Ekstensi ini memungkinkan Anda untuk mengotomatiskan aktivitas pembelajaran mesin. Daftar berikut memberikan beberapa contoh tindakan yang dapat Anda lakukan dengan ekstensi CLI:
Menjalankan eksperimen untuk membuat model pembelajaran mesin
Mendaftarkan model pembelajaran mesin untuk penggunaan pelanggan
Mengemas, menyebarkan, dan melacak siklus hidup model pembelajaran mesin Anda
CLI bukan pengganti SDK Azure Machine Learning. Ini adalah alat pelengkap yang dioptimalkan untuk menangani tugas yang sangat berparameter yang sesuai dengan otomatisasi.
Prasyarat
Untuk menggunakan CLI, Anda harus memiliki langganan Azure. Jika Anda tidak memiliki langganan Azure, buat akun gratis sebelum Anda memulai. Coba versi gratis atau berbayar Azure Machine Learning hari ini.
Untuk menggunakan perintah CLI dalam dokumen ini dari lingkungan lokal Anda, Anda memerlukan Azure CLI.
Jika Anda menggunakan Azure Cloud Shell, CLI diakses melalui browser dan berada di cloud.
Dokumen referensi lengkap
Temukan dokumen referensi lengkap untuk ekstensi azure-cli-ml dari Azure CLI.
Menyambungkan CLI ke langganan Azure Anda
Penting
Jika Anda menggunakan Azure Cloud Shell, Anda dapat melewati bagian ini. Shell cloud secara otomatis mengautentikasi Anda menggunakan akun yang Anda gunakan untuk masuk ke langganan Azure.
Ada beberapa cara untuk mengautentikasi ke langganan Azure Anda dari CLI. Yang paling mendasar adalah mengautentikasi secara interaktif menggunakan browser. Untuk mengautentikasi secara interaktif, buka baris perintah atau terminal dan gunakan perintah berikutini:
az login
Jika CLI dapat membuka browser default Anda, CLI akan melakukannya dan memuat halaman masuk. Jika tidak, Anda perlu membuka browser dan mengikuti instruksi pada baris perintah. Instruksi meliputi penelusuran ke https://aka.ms/devicelogin dan memasukkan kode otorisasi.
Tip
Setelah masuk, Anda melihat daftar langganan yang terkait dengan akun Azure Anda. Informasi langganan dengan isDefault: true
adalah langganan yang saat ini diaktifkan untuk perintah Azure CLI. Langganan ini harus sama dengan yang berisi ruang kerja Azure Machine Learning Anda. Anda dapat menemukan ID langganan dari portal Azure dengan mengunjungi halaman gambaran umum untuk ruang kerja Anda. Anda juga dapat menggunakan SDK untuk mendapatkan ID langganan dari objek ruang kerja. Contohnya:Workspace.from_config().subscription_id
Untuk memilih langganan lain, gunakan az account set -s <subscription name or ID>
perintah dan tentukan nama atau ID langganan untuk dialihkan. Untuk informasi selengkapnya tentang pemilihan langganan, lihat Menggunakan beberapa Langganan Azure.
Untuk metode autentikasi lainnya, lihat Masuk dengan Azure CLI.
Memasang ekstensi
Untuk memasang ekstensi CLI (v1):
az extension add -n azure-cli-ml
Memperbarui ekstensi
Untuk memperbarui ekstensi CLI Azure Machine Learning, gunakan perintah berikut:
az extension update -n azure-cli-ml
Menghapus ekstensi
Untuk menghapus ekstensi CLI, gunakan perintah berikut ini:
az extension remove -n azure-cli-ml
Manajemen sumber daya
Perintah berikut menunjukkan cara menggunakan CLI untuk mengelola sumber daya yang digunakan oleh Azure Machine Learning.
Jika Anda belum memilikinya, buat grup sumber daya:
az group create -n myresourcegroup -l westus2
Buat ruang kerja Azure Machine Learning:
az ml workspace create -w myworkspace -g myresourcegroup
Untuk informasi selengkapnya, lihat membuat ruang kerja ml az.
Lampirkan konfigurasi ruang kerja ke folder untuk mengaktifkan kesadaran kontekstual CLI.
az ml folder attach -w myworkspace -g myresourcegroup
Perintah ini membuat subdirektori
.azureml
yang berisi contoh file runconfig dan lingkungan conda. Perintah ini juga berisi fileconfig.json
yang digunakan untuk berkomunikasi dengan ruang kerja Azure Machine Learning Anda.Untuk informasi selengkapnya, lihat lampiran folder ml az.
Lampirkan kontainer blob Azure sebagai Datastore.
az ml datastore attach-blob -n datastorename -a accountname -c containername
Untuk informasi selengkapnya, lihat blob lampiran datastore ml az.
Unggah file ke Datastore.
az ml datastore upload -n datastorename -p sourcepath
Untuk informasi selengkapnya, lihat pengunggahan datastore ml az.
Lampirkan kluster AKS sebagai Target Komputasi.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
Untuk informasi selengkapnya, lihat aks lampiran computetarget ml az
Kluster komputasi
Buat kluster komputasi terkelola baru.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
Buat kluster komputasi terkelola baru dengan identitas terkelola
Identitas Terkelola yang Ditetapkan Pengguna
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Identitas terkelola yang ditetapkan sistem
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
Tambahkan identitas terkelola ke kluster yang ada:
Identitas Terkelola yang Ditetapkan Pengguna
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Identitas terkelola yang ditetapkan sistem
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
Untuk informasi selengkapnya, lihat amlcompute pembuatan computetarget ml az.
Catatan
Klaster komputasi Azure Machine Learning hanya mendukung satu identitas yang ditetapkan sistem atau beberapa identitas yang ditetapkan pengguna, tidak keduanya secara bersamaan.
Hitung intance
Kelola instans komputasi. Dalam semua contoh di bawah, nama instans komputasi adalah cpu
Buat computeinstance baru.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
Untuk informasi selengkapnya, lihat computeinstance pembuatan computetarget ml az.
Hentikan computeinstance.
az ml computetarget computeinstance stop -n cpu -v
Untuk informasi selengkapnya, lihat penghentian computeinstance computetarget ml az.
Mulai computeinstance.
az ml computetarget computeinstance start -n cpu -v
Untuk informasi selengkapnya, lihat permulaan computeinstance computetarget ml az.
Menghidupkan ulang computeinstance.
az ml computetarget computeinstance restart -n cpu -v
Untuk informasi selengkapnya, lihat hidupkan ulang computeinstance computetarget ml az.
Hapus computeinstance.
az ml computetarget delete -n cpu -v
Untuk informasi selengkapnya, lihat computeinstance penghapusan computetarget ml az.
Menjalankan eksperimen
Mulai jalankan eksperimen Anda. Saat menggunakan perintah ini, tentukan nama file runconfig (teks sebelum *.runconfig jika Anda melihat pada sistem file Anda) terhadap parameter -c.
az ml run submit-script -c sklearn -e testexperiment train.py
Tip
Perintah
az ml folder attach
membuat subdirektori.azureml
, yang berisi dua contoh file runconfig.Jika memiliki skrip Python yang membuat objek konfigurasi eksekusi secara terprogram, Anda dapat menggunakan RunConfig.save() untuk menyimpannya sebagai file runconfig.
Skema runconfig lengkap dapat ditemukan di file JSON ini. Skema ini mendokumentasikan diri melalui kunci
description
dari setiap objek. Selain itu, ada enum untuk kemungkinan nilai, dan cuplikan templat di bagian akhir.Untuk informasi selengkapnya, lihat skrip pengiriman eksekusi ml az.
Lihat daftar eksperimen:
az ml experiment list
Untuk informasi selengkapnya, lihat daftar eksperimen ml az.
Menjalankan HyperDrive
Anda dapat menggunakan HyperDrive dengan Azure CLI untuk melakukan eksekusi penyetelan parameter. Pertama, buat file konfigurasi HyperDrive dalam format berikut. Lihat artikel Menyetel hyperparameter untuk model Anda untuk detail tentang parameter penyetelan hyperparameter.
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
Tambahkan file ini di samping file konfigurasi eksekusi. Kemudian kirimkan eksekusi HyperDrive menggunakan:
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
Perhatikan bagian argumen di runconfig dan ruang parameter dalam konfigurasi HyperDrive. Konfigurasi berisi argumen baris perintah untuk diteruskan ke skrip pelatihan. Nilai di runconfig tetap sama untuk setiap perulangan, sedangkan rentang di konfigurasi HyperDrive diulang berulang kali. Jangan tentukan argumen yang sama di kedua file.
Manajemen himpunan data
Perintah berikut menunjukkan cara bekerja dengan himpunan data di Azure Machine Learning:
Daftarkan himpunan data:
az ml dataset register -f mydataset.json
Untuk informasi tentang format file JSON yang digunakan untuk menentukan himpunan data, gunakan
az ml dataset register --show-template
.Untuk informasi selengkapnya, lihat pendaftaran himpunan data ml az.
Cantumkan semua himpunan data di ruang kerja:
az ml dataset list
Untuk informasi selengkapnya, lihat daftar himpunan data ml az.
Dapatkan detail himpunan data:
az ml dataset show -n dataset-name
Untuk informasi selengkapnya, lihat tampilan himpunan data ml az.
Batalkan pendaftaran himpunan data:
az ml dataset unregister -n dataset-name
Untuk informasi selengkapnya, lihat Pembatalan pendaftaran himpunan data ml az.
Manajemen lingkungan
Perintah berikut menunjukkan cara membuat, mendaftarkan, dan mencantumkan lingkungan Azure Machine Learning untuk ruang kerja Anda:
Buat file perancah untuk lingkungan:
az ml environment scaffold -n myenv -d myenvdirectory
Untuk informasi selengkapnya, lihat perancah lingkungan ml az.
Daftarkan lingkungan:
az ml environment register -d myenvdirectory
Untuk informasi selengkapnya, lihat Pendaftaran lingkungan ml az.
Cantumkan lingkungan terdaftar:
az ml environment list
Untuk informasi selengkapnya, lihat daftar lingkungan ml az.
Unduh lingkungan terdaftar:
az ml environment download -n myenv -d downloaddirectory
Untuk informasi selengkapnya, lihat pengunduhan lingkungan ml az.
Skema konfigurasi lingkungan
Jika Anda menggunakan perintah az ml environment scaffold
, perintah akan menghasilkan file templat azureml_environment.json
yang dapat diubah dan digunakan untuk membuat konfigurasi lingkungan kustom dengan CLI. Objek tingkat atas secara longgar dipetakan ke kelas Environment
di SDK Python.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
Tabel berikut ini merinci setiap bidang tingkat atas dalam file JSON, jenisnya, dan deskripsi. Jika jenis objek ditautkan ke kelas dari Python SDK, ada kecocokan 1:1 yang longgar antara setiap bidang JSON dan nama variabel publik di kelas Python. Dalam beberapa kasus, bidang dapat memetakan ke argumen konstruktor daripada variabel kelas. Misalnya, bidang environmentVariables
dipetakan ke variabel environment_variables
di kelas Environment
.
bidang JSON | Jenis | Deskripsi |
---|---|---|
name |
string |
Nama lingkungan. Jangan mulai nama dengan Microsoft atau AzureML. |
version |
string |
Versi lingkungan. |
environmentVariables |
{string: string} |
Peta hash dari nama dan nilai variabel lingkungan. |
python |
PythonSection hat menentukan lingkungan Python dan penerjemah untuk digunakan pada sumber daya komputasi target. |
|
docker |
DockerSection |
Menentukan pengaturan untuk menyesuaikan gambar Docker yang dibuat dengan spesifikasi lingkungan. |
spark |
SparkSection |
Bagian ini mengonfigurasi pengaturan Spark. Ini hanya digunakan ketika kerangka kerja diatur ke PySpark. |
databricks |
DatabricksSection |
Konfigurasikan dependensi pustaka Databricks. |
inferencingStackVersion |
string |
Menentukan versi tumpukan inferensi yang ditambahkan ke gambar. Untuk menghindari penambahan tumpukan inferensi, biarkan bidang ini null . Nilai valid: "terbaru". |
Manajemen alur Azure Machine Learning
Perintah berikut menunjukkan cara bekerja dengan alur pembelajaran mesin:
Buat alur pembelajaran mesin:
az ml pipeline create -n mypipeline -y mypipeline.yml
Untuk informasi selengkapnya, lihat pembuatan alur ml az.
Untuk informasi selengkapnya tentang file YAML alur, lihat Menentukan alur pembelajaran mesin di YAML.
Jalankan alur:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
Untuk informasi selengkapnya, lihat alur pengiriman eksekusi ml az.
Untuk informasi selengkapnya tentang file YAML alur, lihat Menentukan alur pembelajaran mesin di YAML.
Jadwalkan alur:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
Untuk informasi selengkapnya, lihat jadwal pembuatan alur ml az.
Pendaftaran model, pemrofilan, penyebaran
Perintah berikut menunjukkan cara mendaftarkan model terlatih, lalu menyebarkannya sebagai layanan produksi:
Daftarkan model dengan Azure Machine Learning:
az ml model register -n mymodel -p sklearn_regression_model.pkl
Untuk informasi selengkapnya, lihat pendaftaran model ml az.
OPSIONAL Buat profil model Anda untuk mendapatkan nilai CPU dan memori yang optimal untuk penyebaran.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
Untuk informasi selengkapnya, lihat profil model ml az.
Menyebarkan model Anda ke AKS
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
Untuk informasi selengkapnya tentang skema file konfigurasi inferensi, lihat Skema konfigurasi inferensi.
Untuk informasi selengkapnya tentang skema file konfigurasi penyebaran, lihat Skema konfigurasi penyebaran.
Untuk informasi selengkapnya, lihat penyebaran model ml az.
Skema konfigurasi inferensi
Entri dalam peta dokumen inferenceconfig.json
ke parameter untuk kelas InferenceConfig. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode tersebut:
Entitas JSON | Parameter metode | Deskripsi |
---|---|---|
entryScript |
entry_script |
Jalur ke file lokal yang berisi kode yang akan dijalankan untuk gambar. |
sourceDirectory |
source_directory |
Opsional. Jalur ke folder yang berisi semua file untuk membuat gambar, yang memudahkan untuk mengakses file apa pun dalam folder atau subfolder ini. Anda dapat mengunggah seluruh folder dari komputer lokal Anda sebagai dependensi untuk Webservice. Catatan: jalur entry_script, conda_file, dan extra_docker_file_steps Anda adalah jalur relatif ke jalur source_directory. |
environment |
environment |
Opsional. Lingkungan Azure Machine Learning. |
Anda dapat menyertakan spesifikasi lengkap lingkungan Azure Machine Learning dalam file konfigurasi inferensi. Jika lingkungan ini tidak ada di ruang kerja, Azure Machine Learning akan membuatnya. Jika tidak, Azure Machine Learning akan memperbarui lingkungan jika perlu. JSON berikut adalah contohnya:
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
Anda juga dapat menggunakan lingkungan Azure Machine Learning yang ada dalam parameter CLI terpisah dan menghapus kunci "lingkungan" dari file konfigurasi inferensi. Gunakan -e untuk nama lingkungan, dan --ev untuk versi lingkungan. Jika Anda tidak menentukan --ev, versi terbaru akan digunakan. Berikut adalah contoh file konfigurasi inferensi:
{
"entryScript": "score.py",
"sourceDirectory": null
}
Perintah berikut menunjukkan cara menyebarkan model menggunakan file konfigurasi inferensi sebelumnya (bernama myInferenceConfig.json).
Ini juga menggunakan versi terbaru lingkungan Azure Machine Learning yang ada (bernama AzureML-Minimal).
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
Skema konfigurasi penyebaran
Skema konfigurasi penyebaran lokal
Entri dalam dokumen deploymentconfig.json
dipetakan ke parameter untuk LocalWebservice.deploy_configuration. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode:
Entitas JSON | Parameter metode | Deskripsi |
---|---|---|
computeType |
NA | Target komputasi. Untuk target lokal, nilainya harus local . |
port |
port |
Port lokal tempat mengekspos titik akhir HTTP layanan. |
JSON ini adalah contoh konfigurasi penyebaran untuk digunakan dengan CLI:
{
"computeType": "local",
"port": 32267
}
Simpan JSON ini sebagai file yang disebut deploymentconfig.json
.
Skema konfigurasi penyebaran Instans Kontainer Azure
Entri dalam deploymentconfig.json
peta dokumen ke parameter untuk AciWebservice.deploy_configuration. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode:
Entitas JSON | Parameter metode | Deskripsi |
---|---|---|
computeType |
NA | Target komputasi. Untuk ACI, nilainya harus ACI . |
containerResourceRequirements |
NA | Kontainer untuk entitas CPU dan memori. |
cpu |
cpu_cores |
Jumlah inti CPU yang akan dia alokasikan. Default, 0.1 |
memoryInGB |
memory_gb |
Jumlah memori (dalam GB) yang akan dialokasikan untuk layanan web ini. Default, 0.5 |
location |
location |
Wilayah Azure untuk menggunakan Layanan Web ini. Jika tidak ditentukan, lokasi Ruang Kerja akan digunakan. Rincian lebih lanjut tentang wilayah yang tersedia dapat ditemukan di sini: Wilayah ACI |
authEnabled |
auth_enabled |
Apakah akan memfungsikan auth untuk Layanan Web ini. Default ke False |
sslEnabled |
ssl_enabled |
Apakah akan mengaktifkan SSL untuk Layanan Web ini. Default ke False. |
appInsightsEnabled |
enable_app_insights |
Apakah mengaktifkan AppInsights untuk Webservice ini. Default ke False |
sslCertificate |
ssl_cert_pem_file |
File sertifikasi diperlukan jika SSL diaktifkan |
sslKey |
ssl_key_pem_file |
File kunci yang diperlukan jika SSL diaktifkan |
cname |
ssl_cname |
Nama c untuk jika SSL diaktifkan |
dnsNameLabel |
dns_name_label |
Label nama dns untuk titik akhir penilaian. Jika tidak ditentukan label nama dns unik akan dihasilkan untuk titik akhir penilaian. |
JSON berikut adalah contoh konfigurasi penyebaran untuk digunakan dengan CLI:
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Skema konfigurasi penyebaran Azure Kubernetes Service
Entri dalam peta dokumen deploymentconfig.json
ke parameter untuk AksWebservice.deploy_configuration. Tabel berikut menjelaskan pemetaan antara entitas dalam dokumen JSON dan parameter untuk metode:
Entitas JSON | Parameter metode | Deskripsi |
---|---|---|
computeType |
NA | Target komputasi. Untuk AKS, nilainya harus aks . |
autoScaler |
NA | Berisi elemen konfigurasi untuk penskalaan otomatis. Lihat tabel penskala otomatis. |
autoscaleEnabled |
autoscale_enabled |
Apakah akan mengaktifkan penskalaan otomatis untuk layanan web. Jika numReplicas = 0 , True ; jika tidak, False . |
minReplicas |
autoscale_min_replicas |
Jumlah minimum kontainer yang digunakan saat melakukan penskalaan otomatis layanan web ini. Default, 1 . |
maxReplicas |
autoscale_max_replicas |
Jumlah maksimum kontainer yang digunakan saat melakukan penskalaan otomatis layanan web ini. Default, 10 . |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
Seberapa sering penskala otomatis mencoba menskalakan layanan web ini. Default, 1 . |
targetUtilization |
autoscale_target_utilization |
Pemanfaatan target (dalam persen dari 100) yang harus coba dipertahankan oleh penskala otomatis untuk layanan web ini. Default, 70 . |
dataCollection |
NA | Berisi elemen konfigurasi untuk kumpulan data. |
storageEnabled |
collect_model_data |
Apakah mengaktifkan kumpulan data model untuk layanan web. Default, False . |
authEnabled |
auth_enabled |
Apakah akan mengaktifkan autentikasi kunci untuk layanan web atau tidak. Baik tokenAuthEnabled maupun authEnabled tidak boleh True . Default, True . |
tokenAuthEnabled |
token_auth_enabled |
Apakah akan mengaktifkan autentikasi token untuk layanan web atau tidak. Baik tokenAuthEnabled maupun authEnabled tidak boleh True . Default, False . |
containerResourceRequirements |
NA | Kontainer untuk entitas CPU dan memori. |
cpu |
cpu_cores |
Jumlah core CPU yang dialokasikan untuk layanan web ini. Defaults, 0.1 |
memoryInGB |
memory_gb |
Jumlah memori (dalam GB) yang akan dialokasikan untuk layanan web ini. Default, 0.5 |
appInsightsEnabled |
enable_app_insights |
Apakah akan mengaktifkan pengelogan Application Insights untuk layanan web. Default, False . |
scoringTimeoutMs |
scoring_timeout_ms |
Batas waktu untuk memberlakukan guna penskoran panggilan ke layanan web. Default, 60000 . |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
Permintaan bersamaan maksimum per simpul untuk layanan web ini. Default, 1 . |
maxQueueWaitMs |
max_request_wait_time |
Waktu maksimum permintaan akan tetap dalam antrean Anda (dalam milidetik) sebelum kesalahan 503 dikembalikan. Default, 500 . |
numReplicas |
num_replicas |
Jumlah kontainer yang dialokasikan untuk layanan web ini. Tidak ada nilai default. Jika parameter ini tidak diatur, penskala otomatis diaktifkan secara default. |
keys |
NA | Berisi elemen konfigurasi untuk kunci. |
primaryKey |
primary_key |
Kunci auth utama yang digunakan untuk layanan Web ini |
secondaryKey |
secondary_key |
Kunci auth sekunder yang digunakan untuk layanan Web ini |
gpuCores |
gpu_cores |
Jumlah core GPU (replika per kontainer) yang dialokasikan untuk layanan Web ini. Defaultnya adalah 1. Hanya mendukung nilai bilangan bulat. |
livenessProbeRequirements |
NA | Berisi elemen konfigurasi untuk persyaratan probe keaktifan. |
periodSeconds |
period_seconds |
Seberapa sering (dalam hitungan detik) untuk melakukan probe keaktifan. Default ke 10 detik. Nilai minimalnya adalah 1. |
initialDelaySeconds |
initial_delay_seconds |
Jumlah detik setelah kontainer dimulai sebelum probe keaktifan dimulai. Default ke 310 |
timeoutSeconds |
timeout_seconds |
Jumlah detik setelah waktu probe keaktifan habis. Default ke 2 detik. Nilai minimalnya adalah 1 |
successThreshold |
success_threshold |
Keberhasilan minimum berturut-turut untuk probe keaktifan dianggap berhasil setelah gagal. Default ke 1. Nilai minimalnya adalah 1. |
failureThreshold |
failure_threshold |
Saat sebuah Pod dimulai dan probe keaktifan gagal, Kube akan mencoba waktu failureThreshold sebelum menyerah. Default ke 3. Nilai minimalnya adalah 1. |
namespace |
namespace |
Namespace layanan Kube tempat layanan web disebarkan. Hingga 63 karakter alfanumerik huruf kecil ('a'-'z', '0'-'9') dan tanda hubung ('-'). Karakter pertama dan terakhir tidak boleh berupa tanda hubung. |
JSON berikut adalah contoh konfigurasi penyebaran untuk digunakan dengan CLI:
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}