De CLI (v1) installeren en gebruiken
VAN TOEPASSING OP: Azure CLI ml-extensie v1
Belangrijk
Sommige Azure CLI-opdrachten in dit artikel gebruiken de azure-cli-ml
extensie (of v1) voor Azure Machine Learning. Ondersteuning voor de v1-extensie eindigt op 30 september 2025. U kunt de v1-extensie tot die datum installeren en gebruiken.
U wordt aangeraden vóór 30 september 2025 over te stappen op de ml
extensie of v2. Zie de Azure ML CLI-extensie en Python SDK v2 voor meer informatie over de v2-extensie.
De Azure Machine Learning CLI is een uitbreiding op de Azure CLI, een platformoverschrijdende opdrachtregelinterface voor het Azure-platform. Deze extensie biedt opdrachten voor het werken met Azure Machine Learning. Hiermee kunt u uw machine learning-activiteiten automatiseren. De volgende lijst bevat enkele voorbeelden van acties die u kunt uitvoeren met de CLI-extensie:
Experimenten uitvoeren om machine learning-modellen te maken
Machine Learning-modellen registreren voor klantgebruik
De levenscyclus van uw Machine Learning-modellen verpakken, implementeren en bijhouden
De CLI is geen vervanging voor de Azure Machine Learning SDK. Het is een aanvullend hulpprogramma dat is geoptimaliseerd voor het afhandelen van zeer geparameteriseerde taken die goed aansluiten bij automatisering.
Vereisten
Als u de CLI wilt gebruiken, moet u een Azure-abonnement hebben. Als u geen Azure-abonnement hebt, maakt u een gratis account voordat u begint. Probeer vandaag nog de gratis of betaalde versie van Azure Machine Learning.
Als u de CLI-opdrachten in dit document wilt gebruiken vanuit uw lokale omgeving, hebt u de Azure CLI nodig.
Als u Azure Cloud Shell gebruikt, opent u de CLI via de browser en bevindt deze zich in de cloud.
Volledige referentiedocumenten
Zoek de volledige referentiedocumenten voor de azure-cli-ml-extensie van Azure CLI.
De CLI verbinden met uw Azure-abonnement
Belangrijk
Als u Azure Cloud Shell gebruikt, kunt u deze sectie overslaan. De Cloud Shell verifieert u automatisch met het account dat u bij uw Azure-abonnement aanmeldt.
Er zijn verschillende manieren waarop u zich kunt verifiëren bij uw Azure-abonnement vanuit de CLI. De eenvoudigste methode is interactieve verificatie met behulp van een browser. Voor interactieve verificatie opent u een opdrachtregel of terminal en gebruikt u de volgende opdracht:
az login
Als de CLI uw standaardbrowser kan openen, gebeurt dat ook en wordt er een aanmeldingspagina gedownload. Anders moet u een browser openen en de aanwijzingen op de opdrachtregel volgen. Dit omvat het bladeren naar https://aka.ms/devicelogin en het invoeren van een autorisatiecode.
Tip
Nadat u zich hebt aangemeld, ziet u een lijst met abonnementen die zijn gekoppeld aan uw Azure-account. De abonnementsgegevens met isDefault: true
zijn het abonnement dat momenteel is geactiveerd voor Azure CLI-opdrachten. Dit abonnement moet gelijk zijn aan het abonnement dat uw Azure Machine Learning-werkruimte bevat. U vindt de abonnementsgegevens op de overzichtspagina voor uw werkruimte in Azure Portal.
Als u een ander abonnement wilt selecteren voor Azure CLI-opdrachten, voert u de az account set -s <subscription>
opdracht uit en geeft u de abonnementsnaam of -id op waarnaar u wilt overschakelen. Zie Meerdere Azure-abonnementen gebruiken voor meer informatie over het selecteren van abonnementen.
Zie Aanmelden met Azure CLI voor andere verificatiemethoden.
De extensie installeren
De CLI-extensie (v1) installeren:
az extension add -n azure-cli-ml
De extensie bijwerken
Gebruik de volgende opdracht om de Machine Learning CLI-extensie bij te werken:
az extension update -n azure-cli-ml
De extensie verwijderen
Gebruik de volgende opdracht om de CLI-extensie te verwijderen:
az extension remove -n azure-cli-ml
Resourcebeheer
De volgende opdrachten laten zien hoe u de CLI gebruikt om resources te beheren die door Azure Machine Learning worden gebruikt.
Als u er nog geen hebt, maakt u een resourcegroep:
az group create -n myresourcegroup -l westus2
Een Azure Machine Learning-werkruimte maken:
az ml workspace create -w myworkspace -g myresourcegroup
Zie az ml workspace create voor meer informatie.
Koppel een werkruimteconfiguratie aan een map om contextafhankelijke CLI-kennis in te schakelen.
az ml folder attach -w myworkspace -g myresourcegroup
Met deze opdracht maakt u een
.azureml
submap die voorbeeldrunconfig- en conda-omgevingsbestanden bevat. Het bevat ook eenconfig.json
bestand dat wordt gebruikt om te communiceren met uw Azure Machine Learning-werkruimte.Zie az ml folder attach voor meer informatie.
Een Azure Blob-container koppelen als een gegevensarchief.
az ml datastore attach-blob -n datastorename -a accountname -c containername
Zie az ml datastore attach-blob voor meer informatie.
Bestanden uploaden naar een gegevensarchief.
az ml datastore upload -n datastorename -p sourcepath
Zie az ml datastore uploaden voor meer informatie.
Een AKS-cluster koppelen als een rekendoel.
az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
Rekenclusters
Maak een nieuw beheerd rekencluster.
az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
Een nieuw beheerd rekencluster maken met beheerde identiteit
Door de gebruiker toegewezen beheerde identiteit
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Door het systeem toegewezen beheerde identiteit
az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
Een beheerde identiteit toevoegen aan een bestaand cluster:
Door de gebruiker toegewezen beheerde identiteit
az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
Door het systeem toegewezen beheerde identiteit
az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
Zie az ml computetarget create amlcompute voor meer informatie.
Notitie
Azure Machine Learning-rekenclusters ondersteunen slechts één door het systeem toegewezen identiteit of meerdere door de gebruiker toegewezen identiteiten, niet beide gelijktijdig.
Rekenproces
Rekeninstanties beheren. In alle onderstaande voorbeelden is de naam van het rekenproces cpu
Maak een nieuwe computeinstance.
az ml computetarget create computeinstance -n cpu -s "STANDARD_D3_V2" -v
Zie az ml computetarget create computeinstance voor meer informatie.
Stop een computeinstance.
az ml computetarget computeinstance stop -n cpu -v
Zie az ml computetarget computeinstance stop voor meer informatie.
Start een computeinstance.
az ml computetarget computeinstance start -n cpu -v
Zie az ml computetarget computeinstance start voor meer informatie.
Start een computeinstance opnieuw.
az ml computetarget computeinstance restart -n cpu -v
Zie az ml computetarget computeinstance restart voor meer informatie.
Een computeinstance verwijderen.
az ml computetarget delete -n cpu -v
Zie az ml computetarget delete computeinstance voor meer informatie.
Experimenten uitvoeren
Start een uitvoering van uw experiment. Wanneer u deze opdracht gebruikt, geeft u de naam op van het runconfig-bestand (de tekst vóór *.runconfig als u uw bestandssysteem bekijkt) op basis van de parameter -c.
az ml run submit-script -c sklearn -e testexperiment train.py
Tip
Met de
az ml folder attach
opdracht maakt u een.azureml
submap, die twee runconfig-voorbeeldbestanden bevat.Als u een Python-script hebt dat programmatisch een uitvoeringsconfiguratieobject maakt, kunt u RunConfig.save() gebruiken om het op te slaan als een runconfig-bestand.
Het volledige runconfig-schema vindt u in dit JSON-bestand. Het schema is zelfdocumenterend via de
description
sleutel van elk object. Daarnaast zijn er opsommingen voor mogelijke waarden en een sjabloonfragment aan het einde.Zie az ml run submit-script voor meer informatie.
Een lijst met experimenten weergeven:
az ml experiment list
Zie az ml experiment list voor meer informatie.
HyperDrive uitvoeren
U kunt HyperDrive met Azure CLI gebruiken om uitvoeringen van parameters uit te voeren. Maak eerst een HyperDrive-configuratiebestand in de volgende indeling. Zie Hyperparameters afstemmen voor uw modelartikel voor meer informatie over parameters voor het afstemmen van hyperparameters.
# hdconfig.yml
sampling:
type: random # Supported options: Random, Grid, Bayesian
parameter_space: # specify a name|expression|values tuple for each parameter.
- name: --penalty # The name of a script parameter to generate values for.
expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy:
type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.
Voeg dit bestand toe naast de uitvoeringsconfiguratiebestanden. Verzend vervolgens een HyperDrive-uitvoering met behulp van:
az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py
Let op de sectie argumenten in runconfig en parameterruimte in HyperDrive-configuratie. Ze bevatten de opdrachtregelargumenten die moeten worden doorgegeven aan het trainingsscript. De waarde in runconfig blijft hetzelfde voor elke iteratie, terwijl het bereik in de HyperDrive-configuratie wordt overschreven. Geef niet hetzelfde argument op in beide bestanden.
Gegevenssetbeheer
De volgende opdrachten laten zien hoe u kunt werken met gegevenssets in Azure Machine Learning:
Een gegevensset registreren:
az ml dataset register -f mydataset.json
Gebruik
az ml dataset register --show-template
voor informatie over de indeling van het JSON-bestand dat wordt gebruikt om de gegevensset te definiëren.Zie az ml dataset register voor meer informatie.
Alle gegevenssets in een werkruimte weergeven:
az ml dataset list
Zie az ml dataset list voor meer informatie.
Details van een gegevensset ophalen:
az ml dataset show -n dataset-name
Zie az ml dataset show voor meer informatie.
Registratie van een gegevensset ongedaan maken:
az ml dataset unregister -n dataset-name
Zie az ml dataset unregister voor meer informatie.
Omgevingsbeheer
De volgende opdrachten laten zien hoe u Azure Machine Learning-omgevingen voor uw werkruimte maakt, registreert en vermeldt :
Maak scaffolding-bestanden voor een omgeving:
az ml environment scaffold -n myenv -d myenvdirectory
Zie az ml environment scaffold voor meer informatie.
Een omgeving registreren:
az ml environment register -d myenvdirectory
Zie az ml environment register voor meer informatie.
Geregistreerde omgevingen weergeven:
az ml environment list
Zie az ml environment list voor meer informatie.
Een geregistreerde omgeving downloaden:
az ml environment download -n myenv -d downloaddirectory
Zie az ml environment download voor meer informatie.
Omgevingsconfiguratieschema
Als u de az ml environment scaffold
opdracht hebt gebruikt, wordt er een sjabloonbestand azureml_environment.json
gegenereerd dat kan worden gewijzigd en gebruikt voor het maken van aangepaste omgevingsconfiguraties met de CLI. Het object op het hoogste niveau wordt losjes toegewezen aan de Environment
klasse in de Python SDK.
{
"name": "testenv",
"version": null,
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"python": {
"userManagedDependencies": false,
"interpreterPath": "python",
"condaDependenciesFile": null,
"baseCondaEnvironment": null
},
"docker": {
"enabled": false,
"baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
"baseDockerfile": null,
"sharedVolumes": true,
"shmSize": "2g",
"arguments": [],
"baseImageRegistry": {
"address": null,
"username": null,
"password": null
}
},
"spark": {
"repositories": [],
"packages": [],
"precachePackages": true
},
"databricks": {
"mavenLibraries": [],
"pypiLibraries": [],
"rcranLibraries": [],
"jarLibraries": [],
"eggLibraries": []
},
"inferencingStackVersion": null
}
De volgende tabel bevat elk veld op het hoogste niveau in het JSON-bestand, het bijbehorende type en een beschrijving. Als een objecttype is gekoppeld aan een klasse uit de Python SDK, is er een losse overeenkomst tussen elk JSON-veld en de naam van de openbare variabele in de Python-klasse. In sommige gevallen kan het veld worden toegewezen aan een constructorargument in plaats van een klassevariabele. Het veld wordt bijvoorbeeld environmentVariables
toegewezen aan de environment_variables
variabele in de Environment
klasse.
JSON-veld | Type | Description |
---|---|---|
name |
string |
Naam van de omgeving. Begin niet met Microsoft of AzureML. |
version |
string |
Versie van de omgeving. |
environmentVariables |
{string: string} |
Een hash-toewijzing van namen en waarden van omgevingsvariabelen. |
python |
PythonSection Hat definieert de Python-omgeving en interpreter die moet worden gebruikt voor de doel-rekenresource. |
|
docker |
DockerSection |
Definieert instellingen voor het aanpassen van de Docker-installatiekopie die is gebouwd aan de specificaties van de omgeving. |
spark |
SparkSection |
In de sectie worden Spark-instellingen geconfigureerd. Dit wordt alleen gebruikt wanneer framework is ingesteld op PySpark. |
databricks |
DatabricksSection |
Hiermee configureert u afhankelijkheden van de Databricks-bibliotheek. |
inferencingStackVersion |
string |
Hiermee geeft u de deductiestackversie die aan de installatiekopie is toegevoegd. Als u wilt voorkomen dat u een deductiestack toevoegt, laat u dit veld null staan. Geldige waarde: 'latest'. |
ML-pijplijnbeheer
De volgende opdrachten laten zien hoe u met machine learning-pijplijnen kunt werken:
Een machine learning-pijplijn maken:
az ml pipeline create -n mypipeline -y mypipeline.yml
Zie az ml pipeline create voor meer informatie.
Zie Machine Learning-pijplijnen definiëren in YAML voor meer informatie over het YAML-bestand voor pijplijnen.
Een pijplijn uitvoeren:
az ml run submit-pipeline -n myexperiment -y mypipeline.yml
Zie az ml run submit-pipeline voor meer informatie.
Zie Machine Learning-pijplijnen definiëren in YAML voor meer informatie over het YAML-bestand voor pijplijnen.
Een pijplijn plannen:
az ml pipeline create-schedule -n myschedule -e myexperiment -i mypipelineid -y myschedule.yml
Zie az ml pipeline create-schedule voor meer informatie.
Modelregistratie, profilering, implementatie
De volgende opdrachten laten zien hoe u een getraind model registreert en vervolgens implementeert als een productieservice:
Een model registreren bij Azure Machine Learning:
az ml model register -n mymodel -p sklearn_regression_model.pkl
Zie az ml model register voor meer informatie.
OPTIONEEL Profiel uw model om optimale CPU- en geheugenwaarden voor implementatie op te halen.
az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
Zie az ml model profile voor meer informatie.
Uw model implementeren in AKS
az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
Zie az ml model deploy voor meer informatie.
Configuratieschema voor deductie
De vermeldingen in het document inferenceconfig.json
zijn toegewezen aan de parameters voor de klasse InferenceConfig. In de volgende tabel wordt de toewijzing beschreven tussen de entiteiten in het JSON-document en de parameters voor de methode:
JSON-entiteit | Methodeparameter | Beschrijving |
---|---|---|
entryScript |
entry_script |
Pad naar een lokaal bestand dat de code bevat waarmee de installatiekopie kan worden uitgevoerd. |
sourceDirectory |
source_directory |
Optioneel. Pad naar de mappen die alle bestanden bevatten waarmee de installatiekopie kan worden gemaakt, zodat u eenvoudig toegang hebt tot alle bestanden in deze map of submap. U kunt een volledige map vanaf uw lokale computer uploaden als afhankelijkheden voor de webservice. Opmerking: De paden entry_script, conda_file en extra_docker_file_steps zijn relatieve paden naar het pad source_directory. |
environment |
environment |
Optioneel. Azure Machine Learning-omgeving. |
U kunt de volledige specificaties van een Azure Machine Learning-omgeving opnemen in het configuratiebestand voor deductie. Als de omgeving niet aanwezig is in uw werkruimte, wordt deze door Azure Machine Learning gemaakt. Als de omgeving al bestaat, werkt Azure Machine Learning deze indien nodig bij. De volgende JSON-code is een voorbeeld:
{
"entryScript": "score.py",
"environment": {
"docker": {
"arguments": [],
"baseDockerfile": null,
"baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
"enabled": false,
"sharedVolumes": true,
"shmSize": null
},
"environmentVariables": {
"EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
},
"name": "my-deploy-env",
"python": {
"baseCondaEnvironment": null,
"condaDependencies": {
"channels": [
"conda-forge"
],
"dependencies": [
"python=3.7",
{
"pip": [
"azureml-defaults",
"azureml-telemetry",
"scikit-learn==0.22.1",
"inference-schema[numpy-support]"
]
}
],
"name": "project_environment"
},
"condaDependenciesFile": null,
"interpreterPath": "python",
"userManagedDependencies": false
},
"version": "1"
}
}
U kunt ook een bestaande Azure Machine Learning-omgeving gebruiken met aparte CLI-parameters en de omgevingssleutel uit het configuratiebestand voor deductie verwijderen. Gebruik -e voor de naam van de omgeving en --ev voor de versie van de omgeving. Als u --ev niet opgeeft, wordt de nieuwste versie gebruikt. Dit is een voorbeeld van een configuratiebestand voor deductie:
{
"entryScript": "score.py",
"sourceDirectory": null
}
De volgende opdracht laat zien hoe u een model implementeert met het vorige configuratiebestand voor deductie (genaamd myInferenceConfig.json).
Hierbij wordt ook de nieuwste versie van een bestaande Azure Machine Learning-omgeving (genaamd AzureML-Minimal) gebruikt.
az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json
Implementatieconfiguratieschema
Configuratieschema voor lokale implementatie
De vermeldingen in de documenttoewijzing deploymentconfig.json
voor de parameters voor LocalWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:
JSON-entiteit | Methodeparameter | Beschrijving |
---|---|---|
computeType |
N.v.t. | Het rekendoel. Voor lokale doelen moet de waarde local zijn. |
port |
port |
De lokale poort waarop het HTTP-eindpunt van de service beschikbaar wordt gemaakt. |
De volgende JSON is een voorbeeld van een implementatieconfiguratie die gebruikt kan worden met de CLI:
{
"computeType": "local",
"port": 32267
}
Sla deze JSON op als een bestand met de naam deploymentconfig.json
.
Configuratieschema voor azure Container Instance-implementatie
De vermeldingen in de documenttoewijzing deploymentconfig.json
voor de parameters voor AciWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:
JSON-entiteit | Methodeparameter | Beschrijving |
---|---|---|
computeType |
N.v.t. | Het rekendoel. Voor ACI moet de waarde ACI zijn. |
containerResourceRequirements |
N.v.t. | Container voor de CPU en geheugenentiteiten. |
cpu |
cpu_cores |
Het aantal CPU-kernen om toe te wijzen. Standaard 0.1 |
memoryInGB |
memory_gb |
De hoeveelheid geheugen in GB dat moet worden toegewezen voor deze webservice. Standaard 0.5 |
location |
location |
De Azure-regio om deze webservice in te implementeren. Als deze niet wordt opgegeven, wordt de werkruimtelocatie gebruikt. Meer informatie over beschikbare regio's vindt u hier: ACI-regio's |
authEnabled |
auth_enabled |
Hiermee wordt aangegeven of verificatie moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False. |
sslEnabled |
ssl_enabled |
Hiermee wordt aangegeven of SSL moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False. |
appInsightsEnabled |
enable_app_insights |
Hiermee wordt aangegeven of AppInsights moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False. |
sslCertificate |
ssl_cert_pem_file |
Het certificaatbestand dat nodig is als SSL is ingeschakeld |
sslKey |
ssl_key_pem_file |
Het sleutelbestand dat nodig is als SSL is ingeschakeld |
cname |
ssl_cname |
De CNAME die nodig is als SSL is ingeschakeld |
dnsNameLabel |
dns_name_label |
Het DNS-naamlabel voor het score-eindpunt. Als er geen naamlabel wordt opgegeven, wordt er een uniek DNS-naamlabel voor het score-eindpunt gegenereerd. |
De volgende JSON is een voorbeeldimplementatie die gebruikt kan worden met de CLI:
{
"computeType": "aci",
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
},
"authEnabled": true,
"sslEnabled": false,
"appInsightsEnabled": false
}
Configuratieschema voor implementatie van Azure Kubernetes Service
De vermeldingen in de documenttoewijzing deploymentconfig.json
voor de parameters voor AksWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:
JSON-entiteit | Methodeparameter | Beschrijving |
---|---|---|
computeType |
N.v.t. | Het rekendoel. Voor AKS moet de waarde aks zijn. |
autoScaler |
N.v.t. | Bevat configuratie-elementen voor automatische schaalaanpassing. Raadpleeg de tabel voor automatische schaalaanpassing. |
autoscaleEnabled |
autoscale_enabled |
Hiermee wordt aangegeven of automatische schaalaanpassing moet worden ingeschakeld voor de webservice. Als numReplicas = 0 , True ; anders, False . |
minReplicas |
autoscale_min_replicas |
Het minimale aantal containers dat moet worden gebruikt wanneer deze webservice automatisch wordt geschaald. Standaard 1 . |
maxReplicas |
autoscale_max_replicas |
Het maximale aantal containers dat moet worden gebruikt wanneer deze webservice automatisch wordt geschaald. Standaard 10 . |
refreshPeriodInSeconds |
autoscale_refresh_seconds |
Hoe vaak de automatische schaalaanpassing probeert deze webservice te schalen. Standaard 1 . |
targetUtilization |
autoscale_target_utilization |
Het doelgebruik (in procenten van 100) dat de automatische schaalaanpassing moet proberen aan te houden voor deze webservice. Standaard 70 . |
dataCollection |
N.v.t. | Bevat configuratie-elementen voor gegevensverzameling. |
storageEnabled |
collect_model_data |
Hiermee wordt aangegeven of gegevensverzameling voor modellen voor de webservice moet worden ingeschakeld. Standaard False . |
authEnabled |
auth_enabled |
Hiermee wordt aangegeven of sleutelverificatie voor de webservice moet worden ingeschakeld. Zowel tokenAuthEnabled als authEnabled kunnen niet True zijn. Standaard True . |
tokenAuthEnabled |
token_auth_enabled |
Hiermee wordt aangegeven of tokenverificatie voor de webservice moet worden ingeschakeld. Zowel tokenAuthEnabled als authEnabled kunnen niet True zijn. Standaard False . |
containerResourceRequirements |
N.v.t. | Container voor de CPU en geheugenentiteiten. |
cpu |
cpu_cores |
Het aantal CPU-kernen dat moet worden toegewezen voor deze webservice. Standaard 0.1 |
memoryInGB |
memory_gb |
De hoeveelheid geheugen in GB dat moet worden toegewezen voor deze webservice. Standaard 0.5 |
appInsightsEnabled |
enable_app_insights |
Hiermee wordt aangegeven of Application Insights-logboekregistratie voor de webservice moet worden ingeschakeld. Standaard False . |
scoringTimeoutMs |
scoring_timeout_ms |
Een verplichte time-out voor het beoordelen van oproepen naar de webservice. Standaard 60000 . |
maxConcurrentRequestsPerContainer |
replica_max_concurrent_requests |
Het maximumaantal gelijktijdige aanvragen per knooppunt voor deze webservice. Standaard 1 . |
maxQueueWaitMs |
max_request_wait_time |
De maximale tijd dat een verzoek in de wachtrij blijft (in milliseconden) voordat een 503-fout wordt geretourneerd. Standaard 500 . |
numReplicas |
num_replicas |
Het aantal containers dat moet worden toegewezen voor deze webservice. Er is geen standaardwaarde. Als deze parameter niet is ingesteld, wordt automatisch schalen standaard ingeschakeld. |
keys |
N.v.t. | Bevat configuratie-elementen voor sleutels. |
primaryKey |
primary_key |
Een primaire verificatiesleutel die voor deze webservice kan worden gebruikt |
secondaryKey |
secondary_key |
Een secundaire verificatiesleutel die voor deze webservice kan worden gebruikt |
gpuCores |
gpu_cores |
Het aantal GPU-kernen (per containerreplica) die voor deze webservice moet worden toegewezen. Standaard is 1. Ondersteunt allen gehele getallen. |
livenessProbeRequirements |
N.v.t. | Bevat configuratie-elementen voor activiteitstestsvereisten. |
periodSeconds |
period_seconds |
Hoe vaak (in seconden) de activiteitstest moet worden uitgevoerd. De standaardwaarde is 10 seconden. Minimumwaarde is 1. |
initialDelaySeconds |
initial_delay_seconds |
Aantal seconden nadat de container is gestart voordat de activiteitstests worden gestart. Standaardwaarde is 310 |
timeoutSeconds |
timeout_seconds |
Aantal seconden waarna er een time-out optreedt voor de livenesstest. De standaardwaarde is 2 seconden. Minimumwaarde is 1 |
successThreshold |
success_threshold |
De minimale opeenvolgende successen voor de activiteitstest voordat de test succesvol of mislukt is. Standaardwaarde is 1. Minimumwaarde is 1. |
failureThreshold |
failure_threshold |
Wanneer een pod wordt gestart en de activiteitstest mislukt, probeert Kubernetes failureThreshold keer voordat hij stopt. Standaardwaarde is 3. Minimumwaarde is 1. |
namespace |
namespace |
De Kubernetes-naamruimte waarin de webservice is geïmplementeerd. Maximaal 63 kleine alfanumerieke tekens ('a'-'z', '0'-'9') en streepjes ('-'). Het eerste en laatste teken kunnen geen streepjes zijn. |
De volgende JSON is een voorbeeldimplementatie die gebruikt kan worden met de CLI:
{
"computeType": "aks",
"autoScaler":
{
"autoscaleEnabled": true,
"minReplicas": 1,
"maxReplicas": 3,
"refreshPeriodInSeconds": 1,
"targetUtilization": 70
},
"dataCollection":
{
"storageEnabled": true
},
"authEnabled": true,
"containerResourceRequirements":
{
"cpu": 0.5,
"memoryInGB": 1.0
}
}