Поделиться через


Предварительные требования для платформы Nexus оператора

Операторы должны выполнить предварительные требования перед развертыванием программного обеспечения платформы Operator Nexus. Некоторые из этих шагов могут занять длительное время, поэтому обзор этих предварительных требований может оказаться полезным.

В последующих развертываниях экземпляров Operator Nexus можно перейти к созданию локальной сетевой структуры и кластера.

Предварительные требования Azure

При первом развертывании Оператора Nexus или в новом регионе сначала необходимо создать контроллер Network Fabric, а затем диспетчер кластеров, как указано здесь. Кроме того, необходимо выполнить следующие задачи:

  • Настройка пользователей, политик, разрешений и RBAC
  • Настройте группы ресурсов для размещения и группирования ресурсов логическим образом, который будет создан для платформы Operator Nexus.
  • Установка подключения ExpressRoute из глобальной сети к региону Azure
  • Чтобы включить Microsoft Defender для конечной точки для локальных компьютеров без операционной системы (BMM), необходимо выбрать план Defender для серверов в подписке Operator Nexus перед развертыванием. Дополнительные сведения см . здесь.

Предварительные требования к локальной среде

При развертывании локального экземпляра Operator Nexus в центре обработки данных различные команды, скорее всего, участвуют в выполнении различных ролей. Чтобы обеспечить успешную установку программного обеспечения платформы, необходимо точно выполнить следующие задачи.

Настройка физического оборудования

Оператор, который хочет воспользоваться преимуществами службы Operator Nexus, должен приобрести, установить, настроить и управлять аппаратными ресурсами. В этом разделе документа описываются необходимые компоненты и усилия по приобретению и реализации соответствующих аппаратных систем. В этом разделе рассматриваются счета за материалы, схема высот стойки и схема кабелей, а также шаги, необходимые для сборки оборудования.

Использование законопроекта о материалах (BOM)

Чтобы обеспечить простой интерфейс оператора, Оператор Nexus разработал BOM для приобретения оборудования, необходимого для службы. Это полный список необходимых компонентов и количества, необходимых для реализации среды для успешной реализации и обслуживания локального экземпляра. BOM структурирован для предоставления оператору ряда единиц хранения запасов (SKU), которые можно заказать у поставщиков оборудования. Номера SKU рассматриваются далее в документе.

Использование схемы повышения прав

Схема повышения высоты стойки — это графическая ссылка, демонстрирующая, как серверы и другие компоненты вписываются в собранные и настроенные стойки. Схема повышения высоты стойки предоставляется в рамках общих инструкций по сборке. Это поможет сотрудникам операторов правильно настроить и установить все компоненты оборудования, необходимые для работы службы.

Схема подключения

Схемы кабелей — это графическое представление кабелей, необходимых для предоставления сетевых служб компонентам, установленным в стойких. После схемы подключения обеспечивает правильную реализацию различных компонентов в сборке.

Порядок на основе номера SKU

Определение SKU

SKU — это метод управления инвентаризацией и отслеживания, позволяющий группировать несколько компонентов в один конструктор. Номер SKU позволяет оператору упорядочивать все необходимые компоненты с указанием одного номера SKU. Номер SKU ускоряет взаимодействие оператора и поставщика при уменьшении ошибок заказа из-за сложных списков частей.

Размещение заказа на основе SKU

Оператор Nexus создал ряд номеров SKU с поставщиками, такими как Dell, Pure служба хранилища и Arista, которые оператор может ссылаться при месте заказа. Таким образом, оператору просто нужно разместить заказ на основе сведений SKU, предоставленных оператором Nexus поставщику, чтобы получить правильный список частей для сборки.

Создание физического оборудования

Сборка физического оборудования выполняется с помощью ряда шагов, которые будут подробно описаны в этом разделе. Перед выполнением сборки необходимо выполнить три шага. В этом разделе также рассматриваются предположения, касающиеся навыков сотрудников оператора для выполнения сборки.

Заказ и получение номера SKU конкретной инфраструктуры оборудования

Порядок соответствующего номера SKU и доставка оборудования на сайт должен произойти до начала сборки. Достаточное время должно быть разрешено для этого шага. Мы рекомендуем оператору взаимодействовать с поставщиком оборудования в начале процесса, чтобы обеспечить и понять сроки доставки.

Подготовка места

Сайт установки может поддерживать аппаратную инфраструктуру с точки зрения пространства, питания и сети. Требования к конкретному сайту определяются номером SKU, приобретенным для сайта. Этот шаг можно выполнить после размещения заказа и до получения номера SKU.

Планирование ресурсов

В процессе сборки требуется несколько различных сотрудников для выполнения сборки, таких как инженеры, чтобы обеспечить питание, сетевой доступ и кабели, системный персонал для сборки стоек, коммутаторов и серверов, чтобы назвать несколько. Чтобы обеспечить своевременное выполнение сборки, рекомендуется заранее планировать этих участников группы на основе расписания доставки.

Предположения о создании навыков персонала

Сотрудники, выполняющие сборку, должны быть опытными при сборке оборудования систем, таких как стойки, коммутаторы, pdus и серверы. Приведенные инструкции будут обсуждать шаги процесса, ссылаясь на высоты стойки и схемы кабелей.

Обзор процесса сборки

Если подготовка сайта завершена и проверена для поддержки упорядоченного номера SKU, процесс сборки выполняется следующим образом:

  1. Соберите стойки на основе высот стоек номера SKU. Конкретные инструкции по сборке стойки будут предоставлены производителем стойки.
  2. После сборки стоек установите устройства структуры в стойки на схеме высот.
  3. Подключите сетевые интерфейсы к схеме кабелей устройства структуры.
  4. Сборка и установка серверов на схему повышения высоты стойки.
  5. Соберите и установите устройство хранения на схему повышения высоты стойки.
  6. Подключите серверные и запоминающие устройства, подключив сетевые интерфейсы на схеме кабелей.
  7. Кабельная мощность с каждого устройства.
  8. Проверка и проверка сборки с помощью списков проверка, предоставляемых оператором Nexus и другими поставщиками.

Как визуально проверить установку физического оборудования

Во время сборки рекомендуется пометить все кабели по стандартам ANSI/TIA 606 или стандартам оператора. Процесс сборки также должен создать обратное сопоставление для подключения из порта коммутатора к удаленному подключению. Обратное сопоставление можно сравнить с схемой кабелей для проверки установки.

Настройка массива хранилища и сервера терминалов

Теперь, когда физическая установка и проверка завершены, выполните следующие действия, связанные с настройкой параметров по умолчанию, необходимых перед установкой программного обеспечения платформы.

Настройка сервера терминала

Сервер терминала развернут и настроен следующим образом:

  • Сервер терминала настроен для управления внеполосным доступом
    • Учетные данные проверки подлинности настроены
    • DHCP-клиент включен в порте управления вне полосы
    • Http-доступ включен
  • Интерфейс сервера терминала подключен к операторам локальных маршрутизаторов Edge поставщика (PEs) и настраивается с IP-адресами и учетными данными
  • Сервер терминалов доступен из VPN управления

Шаг 1. Настройка имени узла

Чтобы настроить имя узла для сервера терминала, выполните следующие действия.

Используйте следующую команду в интерфейсе командной строки:

sudo ogcli update system/hostname hostname=\"$TS_HOSTNAME\"

Параметры:

имени параметра Description
TS_HOSTNAME Имя узла сервера терминала

Дополнительные сведения см. в справочнике по CLI.

Шаг 2. Настройка сети

Чтобы настроить параметры сети, выполните следующие действия.

Выполните следующие команды в интерфейсе командной строки:

sudo ogcli create conn << 'END'
  description="PE1 to TS NET1"
  mode="static"
  ipv4_static_settings.address="$TS_NET1_IP"
  ipv4_static_settings.netmask="$TS_NET1_NETMASK"
  ipv4_static_settings.gateway="$TS_NET1_GW"
  physif="net1"
  END
sudo ogcli create conn << 'END'
  description="PE2 to TS NET2"
  mode="static"
  ipv4_static_settings.address="$TS_NET2_IP"
  ipv4_static_settings.netmask="$TS_NET2_NETMASK"
  ipv4_static_settings.gateway="$TS_NET2_GW"
  physif="net2"
  END

Параметры:

имени параметра Description
TS_NET1_IP IP-адрес сервера терминала PE1 до TS NET1
TS_NET1_NETMASK Сервер терминала PE1 в TS NET1 netmask
TS_NET1_GW Шлюз TS NET1 сервера терминалов PE1 в шлюз TS NET1
TS_NET2_IP IP-адрес сервера терминалов PE2 до TS NET2
TS_NET2_NETMASK Сервер терминала PE2 в netmask TS NET2
TS_NET2_GW Шлюз PE2 сервера терминалов для шлюза TS NET2

Примечание.

Обязательно замените эти параметры соответствующими значениями.

Шаг 3. Очистка интерфейса net3 (если существует)

Чтобы очистить интерфейс net3, выполните следующие действия.

  1. Проверьте любой интерфейс, настроенный в физическом интерфейсе net3 и "Статический адрес IPv4 по умолчанию", используя следующую команду:
ogcli get conns 
**description="Default IPv4 Static Address"**
**name="$TS_NET3_CONN_NAME"**
**physif="net3"**

Параметры:

имени параметра Description
TS_NET3_CONN_NAME Имя сервера терминала NET3 Подключение ion
  1. Удалите интерфейс, если он существует:
ogcli delete conn "$TS_NET3_CONN_NAME"

Примечание.

Обязательно замените эти параметры соответствующими значениями.

Шаг 4. Настройка пользователя администратора поддержки

Чтобы настроить пользователя администратора поддержки, выполните следующие действия.

  1. Для каждого пользователя выполните следующую команду в CLI:
ogcli create user << 'END'
description="Support Admin User"
enabled=true
groups[0]="admin"
groups[1]="netgrp"
hashed_password="$HASHED_SUPPORT_PWD"
username="$SUPPORT_USER"
END

Параметры:

имени параметра Description
SUPPORT_USER Пользователь службы поддержки
HASHED_SUPPORT_PWD Закодированный пароль администратора поддержки

Примечание.

Обязательно замените эти параметры соответствующими значениями.

Шаг 5. Добавление поддержки sudo для пользователей администратора

Чтобы добавить поддержку sudo для администраторов, выполните следующие действия.

  1. Откройте файл конфигурации sudoers:
sudo vi /etc/sudoers.d/opengear
  1. Добавьте следующие строки для предоставления доступа к sudo:
%netgrp ALL=(ALL) ALL
%admin ALL=(ALL) NOPASSWD: ALL

Примечание.

Сохраните изменения после редактирования файла.

Эта конфигурация позволяет членам группы netgrp выполнять любую команду, так как любой пользователь и члены группы "администратор" выполняют любую команду, как любой пользователь, не требуя пароля.

Шаг 6. Обеспечение доступности службы LLDP

Чтобы убедиться, что служба LLDP доступна на сервере терминала, выполните следующие действия.

Проверьте, запущена ли служба LLDP:

sudo systemctl status lldpd

Вы должны увидеть выходные данные, аналогичные следующему, если служба запущена:

lldpd.service - LLDP daemon
   Loaded: loaded (/lib/systemd/system/lldpd.service; enabled; vendor preset: disabled)
   Active: active (running) since Thu 2023-09-14 19:10:40 UTC; 3 months 25 days ago
     Docs: man:lldpd(8)
 Main PID: 926 (lldpd)
    Tasks: 2 (limit: 9495)
   Memory: 1.2M
   CGroup: /system.slice/lldpd.service
           ├─926 lldpd: monitor.
           └─992 lldpd: 3 neighbors.
Notice: journal has been rotated since unit was started, output may be incomplete.

Если служба не активна (выполняется), запустите службу:

sudo systemctl start lldpd

Включите службу для запуска при перезагрузке:

sudo systemctl enable lldpd

Примечание.

Убедитесь, что служба LLDP всегда доступна и запускается автоматически при перезагрузке.

Шаг 7. Проверка даты и времени системы

Убедитесь, что системная дата и время правильно заданы, а часовой пояс для сервера терминала находится в формате UTC.

Проверьте параметр часового пояса:

Чтобы проверка текущий параметр часового пояса:

ogcli get system/timezone

Задайте часовой пояс в формате UTC:

Если часовой пояс не задан в формате UTC, его можно задать с помощью:

ogcli update system/timezone timezone=\"UTC\"

Проверьте текущую дату и время:

Проверьте текущую дату и время:

date

Исправление даты и времени, если неправильно:

Если дата и время неверны, его можно исправить с помощью:

ogcli replace system/time
Reading information from stdin. Press Ctrl-D to submit and Ctrl-C to cancel.
time="$CURRENT_DATE_TIME"

Параметры:

имени параметра Description
CURRENT_DATE_TIME Текущее время даты в формате hh:mmM DD, ГГГГ

Примечание.

Убедитесь, что система даты и времени является точной, чтобы предотвратить проблемы с приложениями или службами, зависящими от него.

Шаг 8. Присвоение меток портам сервера терминалов (если отсутствует или неправильно)

Чтобы наметить порты сервера терминалов, используйте следующую команду:

ogcli update port "port-<PORT_#>"  label=\"<NEW_NAME>\"	<PORT_#>

Параметры:

имени параметра Description
NEW_NAME Имя метки порта
ПОРТ_ # Номер порта сервера терминала

Шаг 9. Параметры, необходимые для последовательных подключений массива PURE

Для настройки последовательных подключений массива PURE используйте следующие команды:

ogcli update port ports-<PORT_#> 'baudrate="115200"' <PORT_#> Pure Storage Controller console
ogcli update port ports-<PORT_#> 'pinout="X1"' <PORT_#>	Pure Storage Controller console

Параметры:

имени параметра Description
ПОРТ_ # Номер порта сервера терминала

Эти команды задают baudrate и pinout для подключения к консоли контроллера Pure служба хранилища.

Шаг 10. Проверка параметров

Чтобы проверить параметры конфигурации, выполните следующие команды:

ping $PE1_IP -c 3  # Ping test to PE1 //TS subnet +2
ping $PE2_IP -c 3  # Ping test to PE2 //TS subnet +2
ogcli get conns     # Verify NET1, NET2, NET3 Removed
ogcli get users     # Verify support admin user
ogcli get static_routes  # Ensure there are no static routes
ip r                # Verify only interface routes
ip a                # Verify loopback, NET1, NET2
date                # Check current date/time
pmshell             # Check ports labelled

sudo lldpctl
sudo lldpcli show neighbors  # Check LLDP neighbors - should show data from NET1 and NET2

Примечание.

Убедитесь, что соседи LLDP должным образом указывают на успешные подключения к PE1 и PE2.

Пример выходных данных соседей LLDP:

-------------------------------------------------------------------------------
LLDP neighbors:
-------------------------------------------------------------------------------
Interface:    net2, via: LLDP, RID: 2, Time: 0 day, 20:28:36
  Chassis:     
    ChassisID:    mac 12:00:00:00:00:85
    SysName:      austx502xh1.els-an.att.net
    SysDescr:     7.7.2, S9700-53DX-R8
    Capability:   Router, on
  Port:         
    PortID:       ifname TenGigE0/0/0/0/3
    PortDescr:    GE10_Bundle-Ether83_austx4511ts1_net2_net2_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
    TTL:          120
-------------------------------------------------------------------------------
Interface:    net1, via: LLDP, RID: 1, Time: 0 day, 20:28:36
  Chassis:     
    ChassisID:    mac 12:00:00:00:00:05
    SysName:      austx501xh1.els-an.att.net
    SysDescr:     7.7.2, S9700-53DX-R8
    Capability:   Router, on
  Port:         
    PortID:       ifname TenGigE0/0/0/0/3
    PortDescr:    GE10_Bundle-Ether83_austx4511ts1_net1_net1_CircuitID__austxm1-AUSTX45_[CBB][MCGW][AODS]
    TTL:          120
-------------------------------------------------------------------------------

Примечание.

Убедитесь, что выходные данные соответствуют вашим ожиданиям и что все конфигурации верны.

Настройка массива хранилища

  1. Оператору необходимо установить оборудование массива хранилища, указанное bOM и повышением высоты стойки в стойке агрегирования.
  2. Оператору необходимо предоставить специалисту по массиву хранилища сведения, чтобы специалист по массиву хранилища прибыл на сайт, чтобы настроить (модуль).
  3. Обязательные данные, относящиеся к расположению, которые совместно используются специалистом по массиву хранилища:
    • Имя клиента:
    • Дата физической проверки:
    • Серийный номер корпуса:
    • имя узла массива массива служба хранилища:
    • Код CLLI (идентификатор расположения общего языка):
    • Адрес установки:
    • Расположение FIC/Rack/Grid:
  4. Данные, предоставляемые оператору и совместно используемые специалистом по массиву хранилища, которые будут общими для всех установок:
    • Уровень кода чистоты: 6.5.1
    • режим Сейф: отключен
    • Часовой пояс массива: UTC
    • IP-адрес СЕРВЕРА DNS (система доменных имен): 172.27.255.201
    • Суффикс домена DNS: не задан оператором во время установки
    • IP-адрес сервера NTP (протокол сетевого времени) или полное доменное имя: 172.27.255.212
    • Основной системный журнал: 172.27.255.210
    • Дополнительный системный журнал: 172.27.255.211
    • IP-адрес шлюза SMTP или полное доменное имя: не задан оператором во время установки.
    • Доменное имя отправителя электронной почты: доменное имя отправителя электронной почты (example.com)
    • Адреса электронной почты, которые должны быть оповещены: не задан оператором во время установки
    • Прокси-сервер и порт: не задан оператором во время установки
    • Управление: виртуальный интерфейс
      • IP-адрес: 172.27.255.200
      • Шлюз: 172.27.255.1
      • Маска подсети: 255.255.255.0
      • MTU: 1500
      • Связь: не задан оператором во время установки
    • Управление: контроллер 0
      • IP-адрес: 172.27.255.254
      • Шлюз: 172.27.255.1
      • Маска подсети: 255.255.255.0
      • MTU: 1500
      • Связь: не задан оператором во время установки
    • Управление: контроллер 1
      • IP-адрес: 172.27.255.253
      • Шлюз: 172.27.255.1
      • Маска подсети: 255.255.255.0
      • MTU: 1500
      • Связь: не задан оператором во время установки
    • Номер виртуальной локальной сети или префикс: 43
    • ct0.eth10: не задан оператором во время установки
    • ct0.eth11: не задан оператором во время установки
    • ct0.eth18: не задан оператором во время установки
    • ct0.eth19: не задан оператором во время установки
    • ct1.eth10: не задан оператором во время установки
    • ct1.eth11: не задан оператором во время установки
    • ct1.eth18: не задан оператором во время установки
    • ct1.eth19: не задан оператором во время установки
    • Чистый тонируемый для применения:
      • puretune -set PS_ENFORCE_IO_ORDERING 1 "PURE-209441";
      • puretune -set PS_STALE_IO_THRESH_SEC 4 "PURE-209441";
      • puretune -set PS_LANDLORD_QUORUM_LOSS_TIME_LIMIT_MS 0 "PURE-209441";
      • puretune -set PS_RDMA_STALE_OP_THRESH_MS 5000 "PURE-209441";
      • puretune -set PS_BDRV_REQ_MAXBUFS 128 "PURE-209441";

Назначение IP-адресов iDRAC

Перед развертыванием кластера Nexus лучше всего задать IP-адреса iDRAC при организации аппаратных стоек. Вот как сопоставить серверы с IP-адресами:

  • Назначьте IP-адреса на основе положения каждого сервера в стойке.
  • Используйте четвертый блок /24 из подсети /19, выделенной для Fabric.
  • Начните назначать IP-адреса с нижнего сервера вверх на каждой стойке, начиная с 0,11.
  • Продолжайте назначать IP-адреса в последовательности первому серверу в нижней части следующей стойки.

Пример

Диапазон структуры: 10.1.0.0-10.1.31.255 — подсеть iDRAC в четвертом /24 — 10.1.3.0/24.

Стойка Сервер IDRAC IP
Стойка 1 Рабочая роль 1 10.1.3.11/24
Стойка 1 Рабочая роль 2 10.1.3.12/24
Стойка 1 Рабочая роль 3 10.1.3.13/24
Стойка 1 Рабочая роль 4 10.1.3.14/24
Стойка 1 Рабочая роль 5 10.1.3.15/24
Стойка 1 Рабочая роль 6 10.1.3.16/24
Стойка 1 Рабочая роль 7 10.1.3.17/24
Стойка 1 Рабочая роль 8 10.1.3.18/24
Стойка 1 Контроллер 1 10.1.3.19/24
Стойка 1 Контроллер 2 10.1.3.20/24
Стойка 2 Рабочая роль 1 10.1.3.21/24
Стойка 2 Рабочая роль 2 10.1.3.22/24
Стойка 2 Рабочая роль 3 10.1.3.23/24
Стойка 2 Рабочая роль 4 10.1.3.24/24
Стойка 2 Рабочая роль 5 10.1.3.25/24
Стойка 2 Рабочая роль 6 10.1.3.26/24
Стойка 2 Рабочая роль 7 10.1.3.27/24
Стойка 2 Рабочая роль 8 10.1.3.28/24
Стойка 2 Контроллер 1 10.1.3.29/24
Стойка 2 Контроллер 2 10.1.3.30/24
Стойка 3 Рабочая роль 1 10.1.3.31/24
Стойка 3 Рабочая роль 2 10.1.3.32/24
Стойка 3 Рабочая роль 3 10.1.3.33/24
Стойка 3 Рабочая роль 4 10.1.3.34/24
Стойка 3 Рабочая роль 5 10.1.3.35/24
Стойка 3 Рабочая роль 6 10.1.3.36/24
Стойка 3 Рабочая роль 7 10.1.3.37/24
Стойка 3 Рабочая роль 8 10.1.3.38/24
Стойка 3 Контроллер 1 10.1.3.39/24
Стойка 3 Контроллер 2 10.1.3.40/24
Стойка 4 Рабочая роль 1 10.1.3.41/24
Стойка 4 Рабочая роль 2 10.1.3.42/24
Стойка 4 Рабочая роль 3 10.1.3.43/24
Стойка 4 Рабочая роль 4 10.1.3.44/24
Стойка 4 Рабочая роль 5 10.1.3.45/24
Стойка 4 Рабочая роль 6 10.1.3.46/24
Стойка 4 Рабочая роль 7 10.1.3.47/24
Стойка 4 Рабочая роль 8 10.1.3.48/24
Стойка 4 Контроллер 1 10.1.3.49/24
Стойка 4 Контроллер 2 10.1.3.50/24

Пример проектирования трех локальных экземпляров из одной пары NFC/CM с использованием последовательных сетей /19 в /16:

Экземпляр Диапазон структуры Подсеть iDRAC
Экземпляр 1 10.1.0.0-10.1.31.255 10.1.3.0/24
Экземпляр 2 10.1.32.0-10.1.63.255 10.1.35.0/24
Экземпляр 3 10.1.64.0-10.1.95.255 10.1.67.0/24

Настройка по умолчанию для других устройств, установленных

  • Для всех сетевых устройств (за исключением сервера терминалов) задан ZTP режим
  • Серверы имеют параметры фабрики по умолчанию

Правила брандмауэра между кластером Azure и Nexus.

Чтобы установить правила брандмауэра между Azure и кластером Nexus, оператор должен открыть указанные порты. Это обеспечивает надлежащее взаимодействие и подключение для необходимых служб с помощью протокола TCP (протокол управления передачей) и UDP (протокол пользовательской диаграммы данных).

Серийный номер Источник Назначение Порт (TCP/UDP) Двунаправленная репликация Назначение правила
1 Виртуальная сеть Azure Кластер 22 TCP No Для SSH-серверов в подоблачные серверы из подсети CM.
2 Виртуальная сеть Azure Кластер 443 TCP No Доступ к узлам подcloud iDRAC
3 Виртуальная сеть Azure Кластер 5900 TCP No Gnmi
4 Виртуальная сеть Azure Кластер 6030 TCP No Gnmi Certs
5 Виртуальная сеть Azure Кластер 6443 TCP No Доступ к кластеру K8S в cloud
6 Кластер Виртуальная сеть Azure 8080 TCP Да Для подключения ISO-образа к iDRAC обновление среды выполнения NNF
7 Кластер Виртуальная сеть Azure 3128 TCP No Прокси для подключения к глобальным конечным точкам Azure
8 Кластер Виртуальная сеть Azure 53 TCP и UDP No DNS
9 Кластер Виртуальная сеть Azure 123 UDP No NTP
10 Кластер Виртуальная сеть Azure 8888 TCP No Подключение в веб-службу Диспетчера кластеров
11 Кластер Виртуальная сеть Azure 514 TCP и UDP No Доступ к журналам undercloud из диспетчера кластеров

Установка расширений CLI и входа в подписку Azure

Установите последнюю версию необходимых расширений CLI.

Вход в подписку Azure

  az login
  az account set --subscription $SUBSCRIPTION_ID
  az account show

Примечание.

Учетная запись должна иметь разрешения на чтение и запись и публикацию в подписке