Partilhar via


Instalar & usar a CLI (v1)

APLICA-SE A: Azure CLI ml extension v1

Importante

Alguns dos comandos da CLI do Azure neste artigo usam a extensão , ou v1, para o azure-cli-mlAzure Machine Learning. O suporte para a extensão v1 terminará em 30 de setembro de 2025. Você poderá instalar e usar a extensão v1 até essa data.

Recomendamos que você faça a transição para a mlextensão , ou v2, antes de 30 de setembro de 2025. Para obter mais informações sobre a extensão v2, consulte Extensão CLI do Azure ML e Python SDK v2.

A CLI do Azure Machine Learning é uma extensão da CLI do Azure, uma interface de linha de comando entre plataformas para a plataforma Azure. Esta extensão fornece comandos para trabalhar com o Azure Machine Learning. Ele permite que você automatize suas atividades de aprendizado de máquina. A lista a seguir fornece alguns exemplos de ações que você pode fazer com a extensão CLI:

  • Execute experimentos para criar modelos de aprendizado de máquina

  • Registrar modelos de aprendizado de máquina para uso do cliente

  • Empacote, implante e acompanhe o ciclo de vida de seus modelos de aprendizado de máquina

A CLI não substitui o SDK do Azure Machine Learning. É uma ferramenta complementar que é otimizada para lidar com tarefas altamente parametrizadas que se adequam bem à automação.

Pré-requisitos

  • Para usar a CLI, você deve ter uma assinatura do Azure. Se não tiver uma subscrição do Azure, crie uma conta gratuita antes de começar. Experimente hoje mesmo a versão gratuita ou paga do Azure Machine Learning .

  • Para usar os comandos da CLI neste documento a partir do seu ambiente local, você precisa da CLI do Azure.

    Se você usar o Azure Cloud Shell, a CLI será acessada por meio do navegador e permanecerá na nuvem.

Documentos de referência completos

Encontre os documentos de referência completos para a extensão azure-cli-ml da CLI do Azure.

Conectar a CLI à sua assinatura do Azure

Importante

Se você estiver usando o Azure Cloud Shell, poderá ignorar esta seção. O shell de nuvem autentica você automaticamente usando a conta que você faz logon em sua assinatura do Azure.

Há várias maneiras de autenticar sua assinatura do Azure a partir da CLI. O mais básico é autenticar interativamente usando um navegador. Para autenticar interativamente, abra uma linha de comando ou terminal e use o seguinte comando:

az login

Se a CLI conseguir abrir o seu browser predefinido, executa essa ação e carrega uma página de início de sessão. Caso contrário, você precisa abrir um navegador e seguir as instruções na linha de comando. As instruções envolvem navegar e https://aka.ms/devicelogin inserir um código de autorização.

Gorjeta

Depois de entrar, você verá uma lista de assinaturas associadas à sua conta do Azure. As informações de assinatura com isDefault: true são a assinatura atualmente ativada para comandos da CLI do Azure. Essa assinatura deve ser a mesma que contém seu espaço de trabalho do Azure Machine Learning. Você pode encontrar as informações de assinatura na página de visão geral do seu espaço de trabalho no portal do Azure.

Para selecionar outra assinatura para usar para comandos da CLI do Azure, execute o az account set -s <subscription> comando e especifique o nome ou ID da assinatura para a qual alternar. Para obter mais informações sobre a seleção de assinaturas, consulte Usar várias assinaturas do Azure.

Para outros métodos de autenticação, consulte Entrar com a CLI do Azure.

Instalar a extensão

Para instalar a extensão CLI (v1):

az extension add -n azure-cli-ml

Atualizar a extensão

Para atualizar a extensão da CLI do Machine Learning, use o seguinte comando:

az extension update -n azure-cli-ml

Remover a extensão

Para remover a extensão CLI, use o seguinte comando:

az extension remove -n azure-cli-ml

Gestão de recursos

Os comandos a seguir demonstram como usar a CLI para gerenciar recursos usados pelo Azure Machine Learning.

  • Se ainda não tiver um, crie um grupo de recursos:

    az group create -n myresourcegroup -l westus2
    
  • Crie um espaço de trabalho do Azure Machine Learning:

    az ml workspace create -w myworkspace -g myresourcegroup
    

    Para obter mais informações, consulte az ml workspace create.

  • Anexe uma configuração de espaço de trabalho a uma pasta para habilitar o reconhecimento contextual da CLI.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    Este comando cria um .azureml subdiretório que contém exemplos de arquivos de ambiente runconfig e conda. Ele também contém um config.json arquivo que é usado para se comunicar com seu espaço de trabalho do Azure Machine Learning.

    Para obter mais informações, consulte az ml folder attach.

  • Anexe um contêiner de blob do Azure como um Datastore.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    Para obter mais informações, consulte az ml datastore attach-blob.

  • Carregue arquivos para um armazenamento de dados.

    az ml datastore upload  -n datastorename -p sourcepath
    

    Para obter mais informações, consulte az ml datastore upload.

  • Anexe um cluster AKS como um destino de computação.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    Para obter mais informações, consulte az ml computetarget attach aks

Clusters de computação

  • Crie um novo cluster de computação gerenciado.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • Criar um novo cluster de computação gerenciado com identidade gerenciada

    • Identidade gerida atribuída pelo utilizador

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Identidade gerida atribuída pelo sistema

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • Adicione uma identidade gerenciada a um cluster existente:

    • Identidade gerida atribuída pelo utilizador

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Identidade gerida atribuída pelo sistema

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

Para obter mais informações, consulte az ml computetarget create amlcompute.

Nota

Os clusters de computação do Azure Machine Learning suportam apenas uma identidade atribuída pelo sistema ou várias identidades atribuídas pelo utilizador, não ambas em simultâneo.

Instância de computação

Gerencie instâncias de computação. Em todos os exemplos abaixo, o nome da instância de computação é cpu

Executar experiências

  • Inicie uma execução do seu experimento. Ao usar esse comando, especifique o nome do arquivo runconfig (o texto antes de *.runconfig se você estiver olhando para seu sistema de arquivos) em relação ao parâmetro -c.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    Gorjeta

    O az ml folder attach comando cria um .azureml subdiretório, que contém dois exemplos de arquivos runconfig.

    Se você tiver um script Python que cria um objeto de configuração de execução programaticamente, poderá usar RunConfig.save() para salvá-lo como um arquivo runconfig.

    O esquema runconfig completo pode ser encontrado neste arquivo JSON. O esquema é auto-documentado através da description chave de cada objeto. Além disso, há enums para valores possíveis e um trecho de modelo no final.

    Para obter mais informações, consulte az ml run submit-script.

  • Veja uma lista de experiências:

    az ml experiment list
    

    Para obter mais informações, consulte az ml experiment list.

Execução do HyperDrive

Você pode usar o HyperDrive com a CLI do Azure para executar execuções de ajuste de parâmetro. Primeiro, crie um arquivo de configuração do HyperDrive no seguinte formato. Consulte o artigo Ajustar hiperparâmetros para seu modelo para obter detalhes sobre parâmetros de ajuste de hiperparâmetros.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

Adicione este arquivo ao lado dos arquivos de configuração de execução. Em seguida, envie uma execução do HyperDrive usando:

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

Observe a seção de argumentos em runconfig e parameter space no HyperDrive config. Eles contêm os argumentos de linha de comando a serem passados para o script de treinamento. O valor em runconfig permanece o mesmo para cada iteração, enquanto o intervalo na configuração do HyperDrive é iterado. Não especifique o mesmo argumento em ambos os arquivos.

Gerenciamento de conjunto de dados

Os comandos a seguir demonstram como trabalhar com conjuntos de dados no Azure Machine Learning:

  • Registar um conjunto de dados:

    az ml dataset register -f mydataset.json
    

    Para obter informações sobre o formato do arquivo JSON usado para definir o conjunto de dados, use az ml dataset register --show-template.

    Para obter mais informações, consulte az ml dataset register.

  • Listar todos os conjuntos de dados em um espaço de trabalho:

    az ml dataset list
    

    Para obter mais informações, consulte az ml dataset list.

  • Obtenha detalhes de um conjunto de dados:

    az ml dataset show -n dataset-name
    

    Para obter mais informações, consulte az ml dataset show.

  • Cancelar o registro de um conjunto de dados:

    az ml dataset unregister -n dataset-name
    

    Para obter mais informações, consulte az ml dataset unregister.

Gestão do ambiente

Os comandos a seguir demonstram como criar, registrar e listar ambientes do Azure Machine Learning para seu espaço de trabalho:

  • Crie arquivos de andaimes para um ambiente:

    az ml environment scaffold -n myenv -d myenvdirectory
    

    Para obter mais informações, consulte az ml environment scaffold.

  • Registar um ambiente:

    az ml environment register -d myenvdirectory
    

    Para obter mais informações, consulte az ml environment register.

  • Listar ambientes registrados:

    az ml environment list
    

    Para obter mais informações, consulte az ml environment list.

  • Faça o download de um ambiente registrado:

    az ml environment download -n myenv -d downloaddirectory
    

    Para obter mais informações, consulte az ml environment download.

Esquema de configuração do ambiente

Se você usou o az ml environment scaffold comando, ele gera um arquivo de modelo azureml_environment.json que pode ser modificado e usado para criar configurações de ambiente personalizadas com a CLI. O objeto de nível superior é mapeado vagamente para a Environment classe no Python SDK.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

A tabela a seguir detalha cada campo de nível superior no arquivo JSON, seu tipo e uma descrição. Se um tipo de objeto estiver vinculado a uma classe do SDK do Python, haverá uma correspondência 1:1 solta entre cada campo JSON e o nome da variável pública na classe Python. Em alguns casos, o campo pode ser mapeado para um argumento de construtor em vez de uma variável de classe. Por exemplo, o environmentVariables campo mapeia para a environment_variables variável na Environment classe.

Campo JSON Tipo Description
name string Nome do ambiente. Não inicie o nome com Microsoft ou AzureML.
version string Versão do ambiente.
environmentVariables {string: string} Um mapa hash de nomes e valores de variáveis de ambiente.
python PythonSectionhat define o ambiente Python e o interpretador a serem usados no recurso de computação de destino.
docker DockerSection Define configurações para personalizar a imagem do Docker criada de acordo com as especificações do ambiente.
spark SparkSection A seção define as configurações do Spark. Ele só é usado quando a estrutura está definida como PySpark.
databricks DatabricksSection Configura as dependências da biblioteca Databricks.
inferencingStackVersion string Especifica a versão da pilha de inferência adicionada à imagem. Para evitar adicionar uma pilha de inferência, deixe este campo null. Valor válido: "mais recente".

Gerenciamento de pipeline de ML

Os comandos a seguir demonstram como trabalhar com pipelines de aprendizado de máquina:

Registro de modelo, criação de perfil, implantação

Os comandos a seguir demonstram como registrar um modelo treinado e, em seguida, implantá-lo como um serviço de produção:

  • Registre um modelo com o Azure Machine Learning:

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    Para obter mais informações, consulte az ml model register.

  • OPCIONAL: Crie o perfil do seu modelo para obter os valores ideais de CPU e memória para implantação.

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    Para obter mais informações, consulte az ml model profile.

  • Implante seu modelo no AKS

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    Para obter mais informações sobre o esquema do arquivo de configuração de inferência, consulte Esquema de configuração de inferência.

    Para obter mais informações sobre o esquema do arquivo de configuração de implantação, consulte Esquema de configuração de implantação.

    Para obter mais informações, consulte az ml model deploy.

Esquema de configuração de inferência

As entradas no inferenceconfig.json documento são mapeadas para os parâmetros para a classe InferenceConfig . A tabela a seguir descreve o mapeamento entre entidades no documento JSON e os parâmetros para o método:

Entidade JSON Parâmetro do método Description
entryScript entry_script Caminho para um arquivo local que contém o código a ser executado para a imagem.
sourceDirectory source_directory Opcional. Caminho para pastas que contêm todos os arquivos para criar a imagem, o que facilita o acesso a quaisquer arquivos dentro dessa pasta ou subpasta. Você pode carregar uma pasta inteira de sua máquina local como dependências para o WebService. Observação: seus caminhos entry_script, conda_file e extra_docker_file_steps são caminhos relativos para o caminho source_directory.
environment environment Opcional. Ambiente do Azure Machine Learning.

Você pode incluir especificações completas de um ambiente do Azure Machine Learning no arquivo de configuração de inferência. Se esse ambiente não existir em seu espaço de trabalho, o Aprendizado de Máquina do Azure o criará. Caso contrário, o Azure Machine Learning atualizará o ambiente, se necessário. O JSON a seguir é um exemplo:

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

Você também pode usar um ambiente existente do Azure Machine Learning em parâmetros de CLI separados e remover a chave "environment" do arquivo de configuração de inferência. Use -e para o nome do ambiente e --ev para a versão do ambiente. Se você não especificar --ev, a versão mais recente será usada. Aqui está um exemplo de um arquivo de configuração de inferência:

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

O comando a seguir demonstra como implantar um modelo usando o arquivo de configuração de inferência anterior (chamado myInferenceConfig.json).

Ele também usa a versão mais recente de um ambiente existente do Azure Machine Learning (chamado AzureML-Minimal).

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

Esquema de configuração de implantação

Esquema de configuração de implantação local

As entradas no deploymentconfig.json documento são mapeadas para os parâmetros para LocalWebservice.deploy_configuration. A tabela a seguir descreve o mapeamento entre as entidades no documento JSON e os parâmetros para o método:

Entidade JSON Parâmetro do método Description
computeType ND O destino de computação. Para destinos locais, o valor deve ser local.
port port A porta local na qual expor o ponto de extremidade HTTP do serviço.

Este JSON é um exemplo de configuração de implantação para uso com a CLI:

{
    "computeType": "local",
    "port": 32267
}

Salve este JSON como um arquivo chamado deploymentconfig.json.

Esquema de configuração de implantação da Instância de Contêiner do Azure

As entradas no deploymentconfig.json documento são mapeadas para os parâmetros para AciWebservice.deploy_configuration. A tabela a seguir descreve o mapeamento entre as entidades no documento JSON e os parâmetros para o método:

Entidade JSON Parâmetro do método Description
computeType ND O destino de computação. Para ACI, o valor deve ser ACI.
containerResourceRequirements ND Contêiner para as entidades de CPU e memória.
  cpu cpu_cores O número de núcleos de CPU a alocar. Incumprimentos, 0.1
  memoryInGB memory_gb A quantidade de memória (em GB) a alocar para este serviço Web. Padrão, 0.5
location location A região do Azure na qual implantar este WebService. Se não for especificado, o local do espaço de trabalho será usado. Mais detalhes sobre as regiões disponíveis podem ser encontrados aqui: Regiões ACI
authEnabled auth_enabled Se a autenticação deve ser ativada para este WebService. Padrão para False
sslEnabled ssl_enabled Se o SSL deve ser ativado para este WebService. O padrão é False.
appInsightsEnabled enable_app_insights Se o AppInsights deve ser habilitado para este WebService. Padrão para False
sslCertificate ssl_cert_pem_file O arquivo cert necessário se o SSL estiver habilitado
sslKey ssl_key_pem_file O arquivo de chave necessário se o SSL estiver habilitado
cname ssl_cname O cname para se o SSL estiver ativado
dnsNameLabel dns_name_label O rótulo do nome dns para o ponto de extremidade de pontuação. Se não for especificado, um rótulo de nome dns exclusivo será gerado para o ponto de extremidade de pontuação.

O JSON a seguir é um exemplo de configuração de implantação para uso com a CLI:

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Esquema de configuração de implantação do Serviço Kubernetes do Azure

As entradas no deploymentconfig.json documento são mapeadas para os parâmetros para AksWebservice.deploy_configuration. A tabela a seguir descreve o mapeamento entre as entidades no documento JSON e os parâmetros para o método:

Entidade JSON Parâmetro do método Description
computeType ND O destino de computação. Para AKS, o valor deve ser aks.
autoScaler ND Contém elementos de configuração para dimensionamento automático. Consulte a tabela autoscaler.
  autoscaleEnabled autoscale_enabled Se o dimensionamento automático para o serviço Web deve ser habilitado. Se numReplicas = 0, True; caso contrário, False.
  minReplicas autoscale_min_replicas O número mínimo de contêineres a serem usados ao dimensionar automaticamente este serviço Web. Padrão, 1.
  maxReplicas autoscale_max_replicas O número máximo de contêineres a serem usados ao dimensionar automaticamente este serviço Web. Padrão, 10.
  refreshPeriodInSeconds autoscale_refresh_seconds Com que frequência o autoscaler tenta dimensionar este serviço Web. Padrão, 1.
  targetUtilization autoscale_target_utilization A utilização de destino (em percentagem de 100) que o autoscaler deve tentar manter para este serviço Web. Padrão, 70.
dataCollection ND Contém elementos de configuração para coleta de dados.
  storageEnabled collect_model_data Se a coleta de dados de modelo deve ser habilitada para o serviço Web. Padrão, False.
authEnabled auth_enabled Se a autenticação de chave deve ou não ser habilitada para o serviço Web. Ambos tokenAuthEnabled e authEnabled não podem ser True. Padrão, True.
tokenAuthEnabled token_auth_enabled Habilitar ou não a autenticação de token para o serviço Web. Ambos tokenAuthEnabled e authEnabled não podem ser True. Padrão, False.
containerResourceRequirements ND Contêiner para as entidades de CPU e memória.
  cpu cpu_cores O número de núcleos de CPU a alocar para este serviço Web. Incumprimentos, 0.1
  memoryInGB memory_gb A quantidade de memória (em GB) a alocar para este serviço Web. Padrão, 0.5
appInsightsEnabled enable_app_insights Se o log do Application Insights deve ser habilitado para o serviço Web. Padrão, False.
scoringTimeoutMs scoring_timeout_ms Um tempo limite a ser imposto para marcar chamadas para o serviço Web. Padrão, 60000.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests O máximo de solicitações simultâneas por nó para este serviço Web. Padrão, 1.
maxQueueWaitMs max_request_wait_time O tempo máximo que uma solicitação permanecerá na fila (em milissegundos) antes que um erro 503 seja retornado. Padrão, 500.
numReplicas num_replicas O número de contêineres a serem alocados para este serviço Web. Não existem valores predefinidos. Se esse parâmetro não estiver definido, o autoscaler será habilitado por padrão.
keys ND Contém elementos de configuração para chaves.
  primaryKey primary_key Uma chave de autenticação primária a ser usada para este Webservice
  secondaryKey secondary_key Uma chave de autenticação secundária a ser usada para este Webservice
gpuCores gpu_cores O número de núcleos de GPU (réplica por contêiner) a serem alocados para este WebService. A predefinição é 1. Suporta apenas valores de números inteiros.
livenessProbeRequirements ND Contém elementos de configuração para requisitos de sonda de vivacidade.
  periodSeconds period_seconds Com que frequência (em segundos) realizar a sonda de vivacidade. O padrão é de 10 segundos. O valor mínimo é 1.
  initialDelaySeconds initial_delay_seconds Número de segundos após o início do recipiente antes que as sondas de vivacidade sejam iniciadas. O padrão é 310
  timeoutSeconds timeout_seconds Número de segundos após os quais a sonda de vivacidade expira. O padrão é de 2 segundos. O valor mínimo é 1
  successThreshold success_threshold Sucessos consecutivos mínimos para que a sonda de vivacidade seja considerada bem-sucedida depois de ter falhado. O padrão é 1. O valor mínimo é 1.
  failureThreshold failure_threshold Quando um Pod é iniciado e a sonda de vivacidade falha, o Kubernetes tentará failureThreshold vezes antes de desistir. O padrão é 3. O valor mínimo é 1.
namespace namespace O namespace Kubernetes no qual o serviço Web é implantado. Até 63 caracteres alfanuméricos minúsculos ('a'-'z', '0'-'9') e hífen ('-'). O primeiro e o último personagens não podem ser hífenes.

O JSON a seguir é um exemplo de configuração de implantação para uso com a CLI:

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

Próximos passos