Share via


De CLI (v1) installeren en gebruiken

VAN TOEPASSING OP: Azure CLI ml-extensie v1

Belangrijk

Sommige Azure CLI-opdrachten in dit artikel gebruiken de azure-cli-mlextensie (of v1) voor Azure Machine Learning. Ondersteuning voor de v1-extensie eindigt op 30 september 2025. U kunt de v1-extensie tot die datum installeren en gebruiken.

U wordt aangeraden vóór 30 september 2025 over te stappen op de mlextensie of v2. Zie de Azure ML CLI-extensie en Python SDK v2 voor meer informatie over de v2-extensie.

De Azure Machine Learning CLI is een uitbreiding op de Azure CLI, een platformoverschrijdende opdrachtregelinterface voor het Azure-platform. Deze extensie biedt opdrachten voor het werken met Azure Machine Learning. Hiermee kunt u uw machine learning-activiteiten automatiseren. De volgende lijst bevat enkele voorbeelden van acties die u kunt uitvoeren met de CLI-extensie:

  • Experimenten uitvoeren om machine learning-modellen te maken

  • Machine Learning-modellen registreren voor klantgebruik

  • De levenscyclus van uw Machine Learning-modellen verpakken, implementeren en bijhouden

De CLI is geen vervanging voor de Azure Machine Learning SDK. Het is een aanvullend hulpprogramma dat is geoptimaliseerd voor het afhandelen van zeer geparameteriseerde taken die goed aansluiten bij automatisering.

Vereisten

  • Als u de CLI wilt gebruiken, moet u een Azure-abonnement hebben. Als u geen Azure-abonnement hebt, maakt u een gratis account voordat u begint. Probeer vandaag nog de gratis of betaalde versie van Azure Machine Learning.

  • Als u de CLI-opdrachten in dit document wilt gebruiken vanuit uw lokale omgeving, hebt u de Azure CLI nodig.

    Als u Azure Cloud Shell gebruikt, opent u de CLI via de browser en bevindt deze zich in de cloud.

Volledige referentiedocumenten

Zoek de volledige referentiedocumenten voor de azure-cli-ml-extensie van Azure CLI.

De CLI verbinden met uw Azure-abonnement

Belangrijk

Als u Azure Cloud Shell gebruikt, kunt u deze sectie overslaan. De Cloud Shell verifieert u automatisch met het account dat u bij uw Azure-abonnement aanmeldt.

Er zijn verschillende manieren waarop u zich kunt verifiëren bij uw Azure-abonnement vanuit de CLI. De eenvoudigste methode is interactieve verificatie met behulp van een browser. Voor interactieve verificatie opent u een opdrachtregel of terminal en gebruikt u de volgende opdracht:

az login

Als de CLI uw standaardbrowser kan openen, gebeurt dat ook en wordt er een aanmeldingspagina gedownload. Anders moet u een browser openen en de aanwijzingen op de opdrachtregel volgen. Dit omvat het bladeren naar https://aka.ms/devicelogin en het invoeren van een autorisatiecode.

Tip

Nadat u zich hebt aangemeld, ziet u een lijst met abonnementen die zijn gekoppeld aan uw Azure-account. De abonnementsgegevens met isDefault: true zijn het abonnement dat momenteel is geactiveerd voor Azure CLI-opdrachten. Dit abonnement moet gelijk zijn aan het abonnement dat uw Azure Machine Learning-werkruimte bevat. U vindt de abonnementsgegevens op de overzichtspagina voor uw werkruimte in Azure Portal.

Als u een ander abonnement wilt selecteren voor Azure CLI-opdrachten, voert u de az account set -s <subscription> opdracht uit en geeft u de abonnementsnaam of -id op waarnaar u wilt overschakelen. Zie Meerdere Azure-abonnementen gebruiken voor meer informatie over het selecteren van abonnementen.

Zie Aanmelden met Azure CLI voor andere verificatiemethoden.

De extensie installeren

De CLI-extensie (v1) installeren:

az extension add -n azure-cli-ml

De extensie bijwerken

Gebruik de volgende opdracht om de Machine Learning CLI-extensie bij te werken:

az extension update -n azure-cli-ml

De extensie verwijderen

Gebruik de volgende opdracht om de CLI-extensie te verwijderen:

az extension remove -n azure-cli-ml

Resourcebeheer

De volgende opdrachten laten zien hoe u de CLI gebruikt om resources te beheren die door Azure Machine Learning worden gebruikt.

  • Als u er nog geen hebt, maakt u een resourcegroep:

    az group create -n myresourcegroup -l westus2
    
  • Een Azure Machine Learning-werkruimte maken:

    az ml workspace create -w myworkspace -g myresourcegroup
    

    Zie az ml workspace create voor meer informatie.

  • Koppel een werkruimteconfiguratie aan een map om contextafhankelijke CLI-kennis in te schakelen.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    Met deze opdracht maakt u een .azureml submap die voorbeeldrunconfig- en conda-omgevingsbestanden bevat. Het bevat ook een config.json bestand dat wordt gebruikt om te communiceren met uw Azure Machine Learning-werkruimte.

    Zie az ml folder attach voor meer informatie.

  • Een Azure Blob-container koppelen als een gegevensarchief.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    Zie az ml datastore attach-blob voor meer informatie.

  • Bestanden uploaden naar een gegevensarchief.

    az ml datastore upload  -n datastorename -p sourcepath
    

    Zie az ml datastore uploaden voor meer informatie.

  • Een AKS-cluster koppelen als een rekendoel.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    Zie az ml computetarget attach aks voor meer informatie

Rekenclusters

  • Maak een nieuw beheerd rekencluster.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • Een nieuw beheerd rekencluster maken met beheerde identiteit

    • Door de gebruiker toegewezen beheerde identiteit

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Door het systeem toegewezen beheerde identiteit

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • Een beheerde identiteit toevoegen aan een bestaand cluster:

    • Door de gebruiker toegewezen beheerde identiteit

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Door het systeem toegewezen beheerde identiteit

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

Zie az ml computetarget create amlcompute voor meer informatie.

Notitie

Azure Machine Learning-rekenclusters ondersteunen slechts één door het systeem toegewezen identiteit of meerdere door de gebruiker toegewezen identiteiten, niet beide gelijktijdig.

Rekenproces

Rekeninstanties beheren. In alle onderstaande voorbeelden is de naam van het rekenproces cpu

Experimenten uitvoeren

  • Start een uitvoering van uw experiment. Wanneer u deze opdracht gebruikt, geeft u de naam op van het runconfig-bestand (de tekst vóór *.runconfig als u uw bestandssysteem bekijkt) op basis van de parameter -c.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    Tip

    Met de az ml folder attach opdracht maakt u een .azureml submap, die twee runconfig-voorbeeldbestanden bevat.

    Als u een Python-script hebt dat programmatisch een uitvoeringsconfiguratieobject maakt, kunt u RunConfig.save() gebruiken om het op te slaan als een runconfig-bestand.

    Het volledige runconfig-schema vindt u in dit JSON-bestand. Het schema is zelfdocumenterend via de description sleutel van elk object. Daarnaast zijn er opsommingen voor mogelijke waarden en een sjabloonfragment aan het einde.

    Zie az ml run submit-script voor meer informatie.

  • Een lijst met experimenten weergeven:

    az ml experiment list
    

    Zie az ml experiment list voor meer informatie.

HyperDrive uitvoeren

U kunt HyperDrive met Azure CLI gebruiken om uitvoeringen van parameters uit te voeren. Maak eerst een HyperDrive-configuratiebestand in de volgende indeling. Zie Hyperparameters afstemmen voor uw modelartikel voor meer informatie over parameters voor het afstemmen van hyperparameters.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

Voeg dit bestand toe naast de uitvoeringsconfiguratiebestanden. Verzend vervolgens een HyperDrive-uitvoering met behulp van:

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

Let op de sectie argumenten in runconfig en parameterruimte in HyperDrive-configuratie. Ze bevatten de opdrachtregelargumenten die moeten worden doorgegeven aan het trainingsscript. De waarde in runconfig blijft hetzelfde voor elke iteratie, terwijl het bereik in de HyperDrive-configuratie wordt overschreven. Geef niet hetzelfde argument op in beide bestanden.

Gegevenssetbeheer

De volgende opdrachten laten zien hoe u kunt werken met gegevenssets in Azure Machine Learning:

  • Een gegevensset registreren:

    az ml dataset register -f mydataset.json
    

    Gebruik az ml dataset register --show-templatevoor informatie over de indeling van het JSON-bestand dat wordt gebruikt om de gegevensset te definiëren.

    Zie az ml dataset register voor meer informatie.

  • Alle gegevenssets in een werkruimte weergeven:

    az ml dataset list
    

    Zie az ml dataset list voor meer informatie.

  • Details van een gegevensset ophalen:

    az ml dataset show -n dataset-name
    

    Zie az ml dataset show voor meer informatie.

  • Registratie van een gegevensset ongedaan maken:

    az ml dataset unregister -n dataset-name
    

    Zie az ml dataset unregister voor meer informatie.

Omgevingsbeheer

De volgende opdrachten laten zien hoe u Azure Machine Learning-omgevingen voor uw werkruimte maakt, registreert en vermeldt :

  • Maak scaffolding-bestanden voor een omgeving:

    az ml environment scaffold -n myenv -d myenvdirectory
    

    Zie az ml environment scaffold voor meer informatie.

  • Een omgeving registreren:

    az ml environment register -d myenvdirectory
    

    Zie az ml environment register voor meer informatie.

  • Geregistreerde omgevingen weergeven:

    az ml environment list
    

    Zie az ml environment list voor meer informatie.

  • Een geregistreerde omgeving downloaden:

    az ml environment download -n myenv -d downloaddirectory
    

    Zie az ml environment download voor meer informatie.

Omgevingsconfiguratieschema

Als u de az ml environment scaffold opdracht hebt gebruikt, wordt er een sjabloonbestand azureml_environment.json gegenereerd dat kan worden gewijzigd en gebruikt voor het maken van aangepaste omgevingsconfiguraties met de CLI. Het object op het hoogste niveau wordt losjes toegewezen aan de Environment klasse in de Python SDK.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

De volgende tabel bevat elk veld op het hoogste niveau in het JSON-bestand, het bijbehorende type en een beschrijving. Als een objecttype is gekoppeld aan een klasse uit de Python SDK, is er een losse overeenkomst tussen elk JSON-veld en de naam van de openbare variabele in de Python-klasse. In sommige gevallen kan het veld worden toegewezen aan een constructorargument in plaats van een klassevariabele. Het veld wordt bijvoorbeeld environmentVariables toegewezen aan de environment_variables variabele in de Environment klasse.

JSON-veld Type Description
name string Naam van de omgeving. Begin niet met Microsoft of AzureML.
version string Versie van de omgeving.
environmentVariables {string: string} Een hash-toewijzing van namen en waarden van omgevingsvariabelen.
python PythonSectionHat definieert de Python-omgeving en interpreter die moet worden gebruikt voor de doel-rekenresource.
docker DockerSection Definieert instellingen voor het aanpassen van de Docker-installatiekopie die is gebouwd aan de specificaties van de omgeving.
spark SparkSection In de sectie worden Spark-instellingen geconfigureerd. Dit wordt alleen gebruikt wanneer framework is ingesteld op PySpark.
databricks DatabricksSection Hiermee configureert u afhankelijkheden van de Databricks-bibliotheek.
inferencingStackVersion string Hiermee geeft u de deductiestackversie die aan de installatiekopie is toegevoegd. Als u wilt voorkomen dat u een deductiestack toevoegt, laat u dit veld nullstaan. Geldige waarde: 'latest'.

ML-pijplijnbeheer

De volgende opdrachten laten zien hoe u met machine learning-pijplijnen kunt werken:

Modelregistratie, profilering, implementatie

De volgende opdrachten laten zien hoe u een getraind model registreert en vervolgens implementeert als een productieservice:

Configuratieschema voor deductie

De vermeldingen in het document inferenceconfig.json zijn toegewezen aan de parameters voor de klasse InferenceConfig. In de volgende tabel wordt de toewijzing beschreven tussen de entiteiten in het JSON-document en de parameters voor de methode:

JSON-entiteit Methodeparameter Beschrijving
entryScript entry_script Pad naar een lokaal bestand dat de code bevat waarmee de installatiekopie kan worden uitgevoerd.
sourceDirectory source_directory Optioneel. Pad naar de mappen die alle bestanden bevatten waarmee de installatiekopie kan worden gemaakt, zodat u eenvoudig toegang hebt tot alle bestanden in deze map of submap. U kunt een volledige map vanaf uw lokale computer uploaden als afhankelijkheden voor de webservice. Opmerking: De paden entry_script, conda_file en extra_docker_file_steps zijn relatieve paden naar het pad source_directory.
environment environment Optioneel. Azure Machine Learning-omgeving.

U kunt de volledige specificaties van een Azure Machine Learning-omgeving opnemen in het configuratiebestand voor deductie. Als de omgeving niet aanwezig is in uw werkruimte, wordt deze door Azure Machine Learning gemaakt. Als de omgeving al bestaat, werkt Azure Machine Learning deze indien nodig bij. De volgende JSON-code is een voorbeeld:

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

U kunt ook een bestaande Azure Machine Learning-omgeving gebruiken met aparte CLI-parameters en de omgevingssleutel uit het configuratiebestand voor deductie verwijderen. Gebruik -e voor de naam van de omgeving en --ev voor de versie van de omgeving. Als u --ev niet opgeeft, wordt de nieuwste versie gebruikt. Dit is een voorbeeld van een configuratiebestand voor deductie:

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

De volgende opdracht laat zien hoe u een model implementeert met het vorige configuratiebestand voor deductie (genaamd myInferenceConfig.json).

Hierbij wordt ook de nieuwste versie van een bestaande Azure Machine Learning-omgeving (genaamd AzureML-Minimal) gebruikt.

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

Implementatieconfiguratieschema

Configuratieschema voor lokale implementatie

De vermeldingen in de documenttoewijzing deploymentconfig.json voor de parameters voor LocalWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:

JSON-entiteit Methodeparameter Beschrijving
computeType N.v.t. Het rekendoel. Voor lokale doelen moet de waarde local zijn.
port port De lokale poort waarop het HTTP-eindpunt van de service beschikbaar wordt gemaakt.

De volgende JSON is een voorbeeld van een implementatieconfiguratie die gebruikt kan worden met de CLI:

{
    "computeType": "local",
    "port": 32267
}

Sla deze JSON op als een bestand met de naam deploymentconfig.json.

Configuratieschema voor azure Container Instance-implementatie

De vermeldingen in de documenttoewijzing deploymentconfig.json voor de parameters voor AciWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:

JSON-entiteit Methodeparameter Beschrijving
computeType N.v.t. Het rekendoel. Voor ACI moet de waarde ACI zijn.
containerResourceRequirements N.v.t. Container voor de CPU en geheugenentiteiten.
  cpu cpu_cores Het aantal CPU-kernen om toe te wijzen. Standaard 0.1
  memoryInGB memory_gb De hoeveelheid geheugen in GB dat moet worden toegewezen voor deze webservice. Standaard 0.5
location location De Azure-regio om deze webservice in te implementeren. Als deze niet wordt opgegeven, wordt de werkruimtelocatie gebruikt. Meer informatie over beschikbare regio's vindt u hier: ACI-regio's
authEnabled auth_enabled Hiermee wordt aangegeven of verificatie moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False.
sslEnabled ssl_enabled Hiermee wordt aangegeven of SSL moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False.
appInsightsEnabled enable_app_insights Hiermee wordt aangegeven of AppInsights moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False.
sslCertificate ssl_cert_pem_file Het certificaatbestand dat nodig is als SSL is ingeschakeld
sslKey ssl_key_pem_file Het sleutelbestand dat nodig is als SSL is ingeschakeld
cname ssl_cname De CNAME die nodig is als SSL is ingeschakeld
dnsNameLabel dns_name_label Het DNS-naamlabel voor het score-eindpunt. Als er geen naamlabel wordt opgegeven, wordt er een uniek DNS-naamlabel voor het score-eindpunt gegenereerd.

De volgende JSON is een voorbeeldimplementatie die gebruikt kan worden met de CLI:

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Configuratieschema voor implementatie van Azure Kubernetes Service

De vermeldingen in de documenttoewijzing deploymentconfig.json voor de parameters voor AksWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:

JSON-entiteit Methodeparameter Beschrijving
computeType N.v.t. Het rekendoel. Voor AKS moet de waarde aks zijn.
autoScaler N.v.t. Bevat configuratie-elementen voor automatische schaalaanpassing. Raadpleeg de tabel voor automatische schaalaanpassing.
  autoscaleEnabled autoscale_enabled Hiermee wordt aangegeven of automatische schaalaanpassing moet worden ingeschakeld voor de webservice. Als numReplicas = 0, True; anders, False.
  minReplicas autoscale_min_replicas Het minimale aantal containers dat moet worden gebruikt wanneer deze webservice automatisch wordt geschaald. Standaard 1.
  maxReplicas autoscale_max_replicas Het maximale aantal containers dat moet worden gebruikt wanneer deze webservice automatisch wordt geschaald. Standaard 10.
  refreshPeriodInSeconds autoscale_refresh_seconds Hoe vaak de automatische schaalaanpassing probeert deze webservice te schalen. Standaard 1.
  targetUtilization autoscale_target_utilization Het doelgebruik (in procenten van 100) dat de automatische schaalaanpassing moet proberen aan te houden voor deze webservice. Standaard 70.
dataCollection N.v.t. Bevat configuratie-elementen voor gegevensverzameling.
  storageEnabled collect_model_data Hiermee wordt aangegeven of gegevensverzameling voor modellen voor de webservice moet worden ingeschakeld. Standaard False.
authEnabled auth_enabled Hiermee wordt aangegeven of sleutelverificatie voor de webservice moet worden ingeschakeld. Zowel tokenAuthEnabled als authEnabled kunnen niet True zijn. Standaard True.
tokenAuthEnabled token_auth_enabled Hiermee wordt aangegeven of tokenverificatie voor de webservice moet worden ingeschakeld. Zowel tokenAuthEnabled als authEnabled kunnen niet True zijn. Standaard False.
containerResourceRequirements N.v.t. Container voor de CPU en geheugenentiteiten.
  cpu cpu_cores Het aantal CPU-kernen dat moet worden toegewezen voor deze webservice. Standaard 0.1
  memoryInGB memory_gb De hoeveelheid geheugen in GB dat moet worden toegewezen voor deze webservice. Standaard 0.5
appInsightsEnabled enable_app_insights Hiermee wordt aangegeven of Application Insights-logboekregistratie voor de webservice moet worden ingeschakeld. Standaard False.
scoringTimeoutMs scoring_timeout_ms Een verplichte time-out voor het beoordelen van oproepen naar de webservice. Standaard 60000.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests Het maximumaantal gelijktijdige aanvragen per knooppunt voor deze webservice. Standaard 1.
maxQueueWaitMs max_request_wait_time De maximale tijd dat een verzoek in de wachtrij blijft (in milliseconden) voordat een 503-fout wordt geretourneerd. Standaard 500.
numReplicas num_replicas Het aantal containers dat moet worden toegewezen voor deze webservice. Er is geen standaardwaarde. Als deze parameter niet is ingesteld, wordt automatisch schalen standaard ingeschakeld.
keys N.v.t. Bevat configuratie-elementen voor sleutels.
  primaryKey primary_key Een primaire verificatiesleutel die voor deze webservice kan worden gebruikt
  secondaryKey secondary_key Een secundaire verificatiesleutel die voor deze webservice kan worden gebruikt
gpuCores gpu_cores Het aantal GPU-kernen (per containerreplica) die voor deze webservice moet worden toegewezen. Standaard is 1. Ondersteunt allen gehele getallen.
livenessProbeRequirements N.v.t. Bevat configuratie-elementen voor activiteitstestsvereisten.
  periodSeconds period_seconds Hoe vaak (in seconden) de activiteitstest moet worden uitgevoerd. De standaardwaarde is 10 seconden. Minimumwaarde is 1.
  initialDelaySeconds initial_delay_seconds Aantal seconden nadat de container is gestart voordat de activiteitstests worden gestart. Standaardwaarde is 310
  timeoutSeconds timeout_seconds Aantal seconden waarna er een time-out optreedt voor de livenesstest. De standaardwaarde is 2 seconden. Minimumwaarde is 1
  successThreshold success_threshold De minimale opeenvolgende successen voor de activiteitstest voordat de test succesvol of mislukt is. Standaardwaarde is 1. Minimumwaarde is 1.
  failureThreshold failure_threshold Wanneer een pod wordt gestart en de activiteitstest mislukt, probeert Kubernetes failureThreshold keer voordat hij stopt. Standaardwaarde is 3. Minimumwaarde is 1.
namespace namespace De Kubernetes-naamruimte waarin de webservice is geïmplementeerd. Maximaal 63 kleine alfanumerieke tekens ('a'-'z', '0'-'9') en streepjes ('-'). Het eerste en laatste teken kunnen geen streepjes zijn.

De volgende JSON is een voorbeeldimplementatie die gebruikt kan worden met de CLI:

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

Volgende stappen