Поделиться через


Установка и использование интерфейса командной строки (версия 1)

ОБЛАСТЬ ПРИМЕНЕНИЯ: расширение машинного обучения Azure CLI версии 1

Внимание

Для использования некоторых команд Azure CLI, приведенных в этой статье, используйте расширение azure-cli-ml (версия 1) для Машинного обучения Azure. Поддержка расширения версии 1 будет прекращена 30 сентября 2025 г. Вы можете установить и использовать расширение версии 1 до этой даты.

Рекомендуется перейти на расширение ml (версия 2) до 30 сентября 2025 г. Дополнительные сведения о расширении версии 2 см. на странице расширения CLI для Azure ML и пакета SDK для Python версии 2.

CLI для Машинного обучения Azure представляет собой расширение кроссплатформенного интерфейса командной строки для платформы Azure. Это расширение предоставляет команды CLI для работы с Машинным обучением Azure. С его помощью можно автоматизировать операции машинного обучения. В следующем списке приведены примеры действий, которые можно выполнить с помощью расширения CLI:

  • выполнять эксперименты для создания моделей машинного обучения;

  • регистрировать модели машинного обучения для использования клиентами;

  • упаковывать, развертывать и отслеживать жизненный цикл моделей машинного обучения.

Интерфейс командной строки не является заменой пакета SDK для Машинное обучение Azure. Это дополнительный инструмент, оптимизированный для обработки высоко параметризованных задач, которые хорошо подходят для автоматизации.

Необходимые компоненты

  • Для использования интерфейса командной строки необходима подписка Azure. Если у вас нет подписки Azure, создайте бесплатную учетную запись, прежде чем приступить к работе. Опробуйте бесплатную или платную версию Машинного обучения Azure уже сегодня.

  • Чтобы выполнять приведенные в этом документе команды CLI в локальной среде, вам потребуется Azure CLI.

    Если вы используете Azure Cloud Shell, интерфейс командной строки доступен через браузер и находится в облаке.

Полная справочная документация

Ознакомьтесь с полной справочной документацией по расширению azure-cli-ml (Azure CLI).

Подключение интерфейса командной строки к своей подписке Azure

Внимание

Если вы используете Azure Cloud Shell, этот раздел можно пропустить. Cloud Shell автоматически выполняет аутентификацию, используя учетную запись, с помощью которой вы вошли в подписку Azure.

Существует несколько способов проверки подлинности в подписке Azure с помощью интерфейса командной строки. Самый простой — выполнить интерактивную аутентификацию с помощью браузера. Чтобы выполнить аутентификацию в интерактивном режиме, откройте командную строку или терминал и выполните следующую команду:

az login

Если CLI сможет запустить браузер по умолчанию, он откроет в браузере страницу входа. Или откройте браузер и выполните инструкции из командной строки. В инструкции входит переход к https://aka.ms/devicelogin и ввод кода авторизации.

Совет

После входа вы увидите список подписок, связанных с вашей учетной записью Azure. В сведениях о подписке с isDefault: true указана текущая активная подписка для команд Azure CLI. Эта подписка должна быть той же, которая содержит рабочую область Машинного обучения Azure. Сведения о подписке можно найти на странице обзора рабочей области в портал Azure.

Чтобы выбрать другую подписку для команд Azure CLI, выполните az account set -s <subscription> команду и укажите имя подписки или идентификатор для переключения. См. дополнительные сведения о выборе нужной подписки при использовании нескольких подписок Azure.

Другие методы аутентификации см. в статье Вход с помощью Azure CLI.

Установка расширения

Установите расширение CLI (версия 1):

az extension add -n azure-cli-ml

Обновление расширения

Чтобы обновить расширение CLI для Машинного обучения, выполните следующую команду:

az extension update -n azure-cli-ml

Удаление расширения

Чтобы удалить расширение интерфейса командной строки, используйте следующую команду:

az extension remove -n azure-cli-ml

Управление ресурсами

Следующие команды демонстрируют использование интерфейса командной строки для управления ресурсами, используемыми службой "Машинное обучение Azure".

  • Если у вас еще нет, создайте группу ресурсов:

    az group create -n myresourcegroup -l westus2
    
  • Создайте рабочую область Машинного обучения Azure:

    az ml workspace create -w myworkspace -g myresourcegroup
    

    См. дополнительные сведения о команде az ml workspace create.

  • Подключите конфигурацию рабочей области к папке, чтобы включить поддержку контекста в CLI.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    Эта команда создает подкаталог .azureml, содержащий примеры файлов runconfig и среды Conda. Он также содержит файл config.json, который используется для взаимодействия с рабочей областью Машинного обучения Azure.

    См. дополнительные сведения о команде az ml folder attach.

  • Прикрепите контейнер BLOB-объектов Azure в качестве хранилища данных.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    См. дополнительные сведения о команде az ml datastore attach-blob.

  • Передайте файлы в хранилище данных.

    az ml datastore upload  -n datastorename -p sourcepath
    

    См. дополнительные сведения о команде az ml datastore upload.

  • Подключите кластер AKS в качестве целевого объекта вычислений.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    См. дополнительные сведения о команде az ml computetarget attach aks.

Вычислительные кластеры

  • Создайте новый управляемый вычислительный кластер.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • Создание нового управляемого вычислительного кластера с управляемым удостоверением

    • Управляемое удостоверение, назначаемое пользователем

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Управляемое удостоверение, назначаемое системой

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • Добавление управляемого удостоверения в существующий кластер:

    • Управляемое удостоверение, назначаемое пользователем

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Управляемое удостоверение, назначаемое системой

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

См. дополнительные сведения о команде az ml computetarget create amlcompute.

Примечание.

Вычислительные кластеры машинного обучения Azure поддерживают только одно назначенное системой удостоверение или несколько определяемых пользователем удостоверений при условии использования каждого из этих вариантов по отдельности.

Вычислительная операция

Управляйте вычислительными экземплярами. Во всех приведенных ниже примерах имя вычислительного экземпляра — cpu.

Запуск экспериментов

  • Запустите выполнение эксперимента. При использовании этой команды укажите имя файла runconfig (текст перед *.runconfig в вашей файловой системе) в параметре -c.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    Совет

    Команда az ml folder attach создает подкаталог .azureml, который содержит два примера файлов runconfig.

    При наличии скрипта Python, который программно создает объект конфигурации запуска, вы можете использовать метод RunConfig.Save(), чтобы сохранить его как файл runconfig.

    Полную схему runconfig можно найти в этом файле JSON. Схема содержит самодокументирующийся код за счет использования ключа description для каждого объекта. Кроме того, для каждого объекта предусмотрены перечисления возможных значений, а в конце приведен фрагмент кода с шаблоном.

    См. дополнительные сведения о команде az ml run submit-script.

  • Просмотрите список экспериментов:

    az ml experiment list
    

    См. дополнительные сведения о команде az ml experiment list.

Запуск HyperDrive

Используя HyperDrive с Azure CLI, можно запускать выполнение для настройки параметров. Сначала создайте файл конфигурации HyperDrive в следующем формате. Дополнительные сведения о параметрах настройки гиперпараметров см. в статье Настройка гиперпараметров модели.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

Добавьте этот файл вместе с файлами конфигурации запуска. Затем отправьте запрос на запуск HyperDrive с помощью следующей команды.

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

Обратите внимание на раздел аргументов в пространстве runconfig и параметров в конфигурации HyperDrive. Они содержат аргументы командной строки, передаваемые в скрипт обучения. Значение в схеме runconfig остается неизменным для каждой итерации, в то время как диапазон в файле конфигурации HyperDrive меняется. Не указывайте один и тот же аргумент в обоих файлах.

Управление наборами данных

Следующие команды показывают, как работать с наборами данных в службе "Машинное обучение Azure".

  • Регистрация набора данных:

    az ml dataset register -f mydataset.json
    

    Для получения сведений о формате файла JSON, используемого для определения набора данных, используйте az ml dataset register --show-template.

    См. дополнительные сведения о команде az ml dataset register.

  • Получите список всех наборов данных в рабочей области:

    az ml dataset list
    

    См. дополнительные сведения о команде az ml dataset list.

  • Получите сведения о наборе данных:

    az ml dataset show -n dataset-name
    

    См. дополнительные сведения о команде az ml dataset show.

  • Отмените регистрацию набора данных:

    az ml dataset unregister -n dataset-name
    

    См. дополнительные сведения о команде az ml dataset unregister.

Управление средой

Следующие команды демонстрируют создание, регистрацию и перечисление сред Машинного обучения Azure для рабочей области.

  • Создайте файлы формирования шаблонов для среды:

    az ml environment scaffold -n myenv -d myenvdirectory
    

    См. дополнительные сведения о команде az ml environment scaffold.

  • Зарегистрируйте среду:

    az ml environment register -d myenvdirectory
    

    См. дополнительные сведения о команде az ml environment register.

  • Получите список зарегистрированных сред:

    az ml environment list
    

    См. дополнительные сведения о команде az ml environment list.

  • Загрузите зарегистрированную среду:

    az ml environment download -n myenv -d downloaddirectory
    

    См. дополнительные сведения о команде az ml environment download.

Схема конфигурации среды

Если вы использовали команду az ml environment scaffold, она создает файл шаблона azureml_environment.json, который можно изменить и использовать для создания настраиваемых конфигураций среды с помощью интерфейса командной строки. Объект верхнего уровня нестрого сопоставлен с классом Environment в пакете SDK для Python.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

В следующей таблице приведены сведения о каждом поле верхнего уровня в JSON-файле, его типе и описании. Если тип объекта связан с классом из пакета SDK для Python, между каждым полем JSON и именем общедоступной переменной в классе Python существует слабое совпадение 1:1. В некоторых случаях поле может сопоставляться с аргументом конструктора, а не переменной класса. Например, поле environmentVariables сопоставляется с переменной environment_variables в классе Environment.

Поле JSON Тип Описание
name string Имя среды. Не начинайте имя с Microsoft или AzureML.
version string Версия среды.
environmentVariables {string: string} Хэш-карта имен и значений переменных среды.
python PythonSection, определяющий среду и интерпретатор Python, который нужно использовать в целевом ресурсе вычислений.
docker DockerSection Определяет параметры для настройки образа Docker, созданного согласно спецификациям среды.
spark SparkSection В разделе настраиваются параметры Spark. Он используется только в том случае, если для платформы задано значение PySpark.
databricks DatabricksSection Настраивает зависимости библиотеки Databricks.
inferencingStackVersion string Указывает версию стека вывода, добавленного в образ. Чтобы не добавлять стек вывода, оставьте для этого поля значение null. Допустимое значение: "latest".

Управление конвейером Машинного обучения

Следующие команды показывают, как работать с конвейерами машинного обучения.

Регистрация модели, профилирование, развертывание

Следующие команды демонстрируют регистрацию обученной модели, а затем ее развертывание в качестве рабочей службы:

  • Зарегистрируйте модель с помощью Машинного обучения Azure.

    az ml model register -n mymodel -p sklearn_regression_model.pkl
    

    См. дополнительные сведения о команде az ml model register.

  • НЕОБЯЗАТЕЛЬНО. Выполните профилирование модели, чтобы получить оптимальные значения нагрузки на ЦП и память для развертывания.

    az ml model profile -n myprofile -m mymodel:1 --ic inferenceconfig.json -d "{\"data\": [[1,2,3,4,5,6,7,8,9,10],[10,9,8,7,6,5,4,3,2,1]]}" -t myprofileresult.json
    

    См. дополнительные сведения о команде az ml model profile.

  • Развертывание модели в AKS

    az ml model deploy -n myservice -m mymodel:1 --ic inferenceconfig.json --dc deploymentconfig.json --ct akscomputetarget
    

    Дополнительные сведения о схеме файла конфигурации вывода см. в разделе Схема конфигурации вывода.

    Дополнительные сведения о схеме файла конфигурации развертывания см. в разделе Схема конфигурации развертывания.

    См. дополнительные сведения о команде az ml model deploy.

Схема конфигурации вывода

Записи в документе inferenceconfig.json соответствуют параметрам класса InferenceConfig. В следующей таблице представлено сопоставление сущностей в документе JSON и параметров метода.

Сущность JSON Параметр метода Description
entryScript entry_script Путь к локальному файлу, содержащему код, выполняемый для образа.
sourceDirectory source_directory Необязательно. Путь к папкам, содержащим все файлы для создания образа, что упрощает доступ к любым файлам в этой папке или вложенной папке. Вы можете отправить всю папку с локального компьютера в качестве зависимостей для веб-службы. Примечание. Пути entry_script, conda_file и extra_docker_file_steps являются относительными по отношению к пути source_directory.
environment environment Необязательно. Среда Машинного обучения Azure.

В файл конфигурации вывода можно включить полные спецификации среды Машинного обучения Azure. Если эта среда не существует в рабочей области, Машинное обучение Azure создаст ее. В противном случае Машинное обучение Azure обновит среду при необходимости. Приведенный ниже код JSON является примером.

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.7",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

Вы также можете использовать существующую среду Машинного обучения Azure в отдельных параметрах CLI и удалить ключ environment из файла конфигурации вывода. Используйте параметр -e для имени среды и --ev для версии среды. Если --ev не указывать, будет использоваться последняя версия. Ниже приведен пример файла конфигурации вывода.

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

Следующая команда развертывает модель с использованием предыдущего файла конфигурации вывода (с именем myInferenceConfig.json).

При этом также используется последняя версия существующей среды Машинного обучения Azure (с именем AzureML-Minimal).

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

Схема конфигурации развертывания

Схема конфигурации локального развертывания

Записи в документе deploymentconfig.json соответствуют параметрам для LocalWebservice.deploy_configuration. В следующей таблице описано сопоставление сущностей в документе JSON и параметров метода:

Сущность JSON Параметр метода Description
computeType Неприменимо Целевой объект вычислений. Для локальных целевых объектов нужно задать значение local.
port port Локальный порт, на который будет предоставляться конечная точка HTTP службы.

Код JSON — это пример конфигурации развертывания для использования с CLI:

{
    "computeType": "local",
    "port": 32267
}

Сохраните этот JSON как файл с именем deploymentconfig.json.

Схема конфигурации для развертывания экземпляра контейнера Azure

Записи в документе deploymentconfig.json соответствуют параметрам для AciWebservice.deploy_configuration. В следующей таблице описано сопоставление сущностей в документе JSON и параметров метода:

Сущность JSON Параметр метода Description
computeType Неприменимо Целевой объект вычислений. Для ACI нужно задать значение ACI.
containerResourceRequirements Неприменимо Контейнер для сущностей ЦП и памяти.
  cpu cpu_cores Количество ядер ЦП для выделения. Значение по умолчанию — 0.1.
  memoryInGB memory_gb Объем памяти (в ГБ), выделяемой для этой веб-службы. Значение по умолчанию — 0.5.
location location Регион Azure для развертывания этой веб-службы. Если не указать, будет использоваться расположение рабочей области. Дополнительные сведения о доступных регионах см. здесь: Регионы ACI
authEnabled auth_enabled Позволяет включить аутентификацию для этой веб-службы. Значение по умолчанию — False.
sslEnabled ssl_enabled Позволяет включить SSL для этой веб-службы. Значение по умолчанию — False.
appInsightsEnabled enable_app_insights Позволяет включить AppInsights для этой веб-службы. Значение по умолчанию — False.
sslCertificate ssl_cert_pem_file Файл сертификата, требуемый при включении SSL.
sslKey ssl_key_pem_file Файл ключа, требуемый при включении SSL.
cname ssl_cname Запись CNAME, требуемая при включении SSL.
dnsNameLabel dns_name_label Метка DNS-имени для конечной точки оценки. Если не указать, для конечной точки оценки будет создана уникальная метка DNS-имени.

Следующий код JSON — это пример конфигурации развертывания для использования с CLI:

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Схема конфигурации для развертывания экземпляра Службы Azure Kubernetes

Записи в документе deploymentconfig.json соответствуют параметрам для AksWebservice.deploy_configuration. В следующей таблице описано сопоставление сущностей в документе JSON и параметров метода:

Сущность JSON Параметр метода Description
computeType Неприменимо Целевой объект вычислений. Для AKS нужно задать значение aks.
autoScaler Неприменимо Содержит элементы конфигурации для автомасштабирования. См. сведения об autoScaler в таблице.
  autoscaleEnabled autoscale_enabled Позволяет указать, нужно ли включить автомасштабирование для веб-службы. Если numReplicas = 0 — True, в противном случае — False.
  minReplicas autoscale_min_replicas Минимальное число используемых контейнеров при автомасштабировании этой веб-службы. Значение по умолчанию — 1.
  maxReplicas autoscale_max_replicas Максимальное число используемых контейнеров при автомасштабировании этой веб-службы. Значение по умолчанию — 10.
  refreshPeriodInSeconds autoscale_refresh_seconds Частота попыток автомасштабирования этой веб-службы. Значение по умолчанию — 1.
  targetUtilization autoscale_target_utilization Целевой объем использования, который нужно пытаться поддерживать при автомасштабировании этой веб-службы (в процентах до 100). Значение по умолчанию — 70.
dataCollection Неприменимо Содержит элементы конфигурации для коллекции данных.
  storageEnabled collect_model_data Позволяет указать, нужно ли включить коллекцию данных модели для веб-службы. Значение по умолчанию — False.
authEnabled auth_enabled Позволяет указать, нужно ли для веб-службы включить проверку подлинности на основе ключа. Нельзя указать значение True одновременно для tokenAuthEnabled и authEnabled. Значение по умолчанию — True.
tokenAuthEnabled token_auth_enabled Позволяет указать, нужно ли для веб-службы включить проверку подлинности на основе маркера. Нельзя указать значение True одновременно для tokenAuthEnabled и authEnabled. Значение по умолчанию — False.
containerResourceRequirements Неприменимо Контейнер для сущностей ЦП и памяти.
  cpu cpu_cores Количество ядер ЦП, выделяемых для этой веб-службы. Значение по умолчанию — 0.1.
  memoryInGB memory_gb Объем памяти (в ГБ), выделяемой для этой веб-службы. Значение по умолчанию — 0.5.
appInsightsEnabled enable_app_insights Позволяет указать, нужно ли включить ведение журнала в Application Insights для веб-службы. Значение по умолчанию — False.
scoringTimeoutMs scoring_timeout_ms Принудительно применяемое время ожидания вызовов оценки веб-службы. Значение по умолчанию — 60000.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests Максимальное число одновременных запросов на узел для этой веб-службы. Значение по умолчанию — 1.
maxQueueWaitMs max_request_wait_time Максимальное время, в течение которого запрос будет оставаться в очереди (в миллисекундах), прежде чем отобразится сообщение об ошибке 503. Значение по умолчанию — 500.
numReplicas num_replicas Количество контейнеров, выделяемых для этой веб-службы. Нет значения по умолчанию. Если этот параметр не задан, средство автомасштабирования будет включено по умолчанию.
keys Неприменимо Содержит элементы конфигурации для ключей.
  primaryKey primary_key Первичный ключ проверки подлинности, используемый для этой веб-службы.
  secondaryKey secondary_key Вторичный ключ проверки подлинности, используемый для этой веб-службы.
gpuCores gpu_cores Число ядер GPU (на реплику контейнера), выделяемых для этой веб-службы. По умолчанию 1. Поддерживаются только целочисленные значения.
livenessProbeRequirements Неприменимо Содержит элементы конфигурации для требований пробы активности.
  periodSeconds period_seconds Частота (в секундах) выполнения пробы активности. Значение по умолчанию — 10 секунд. Минимальное значение — 1.
  initialDelaySeconds initial_delay_seconds Количество секунд после запуска контейнера до начала пробы активности. Значение по умолчанию — 310.
  timeoutSeconds timeout_seconds Количество секунд, после которого время ожидания пробы активности истекает. Значение по умолчанию — 2 секунды. Минимальное значение — 1.
  successThreshold success_threshold Минимальное число последовательных успешных попыток пробы активности после сбоя, после которых проба будет считаться успешной. По умолчанию равен 1. Минимальное значение — 1.
  failureThreshold failure_threshold Количество попыток (failureThreshold), выполняемых Kubernetes, до их полного прекращения в случае запуска pod, но сбоя пробы активности. Значение по умолчанию — 3. Минимальное значение — 1.
namespace namespace Пространство имен Kubernetes, в котором развернута веб-служба. Не больше 63 буквенно-цифровых символов (a–z, 0–9), включая дефисы (-), в нижнем регистре. Первый и последний символы не могут быть дефисами.

Следующий код JSON — это пример конфигурации развертывания для использования с CLI:

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

Следующие шаги