Поделиться через


Развертывание кластеров Azure Stack HCI и управление ими в VMM

В этой статье содержатся сведения о настройке кластера Azure Stack HCI в System Center диспетчер виртуальных машин (VMM). Кластер Azure Stack HCI можно развернуть путем подготовки на серверах без операционной системы или путем добавления существующих узлов. Подробнее о новой ОС Azure Stack HCI.

VMM 2022 поддерживает Azure Stack HCI версии 20H2; Azure Stack HCI версии 21H2; и Azure Stack HCI версии 22H2 (поддерживается vMM 2022 UR1).

В накопительном пакете обновления 3 (UR3) VMM 2019 поддерживается Azure Stack HCI версии 20H2. Текущим продуктом является Azure Stack HCI версии 21H2.

Внимание

Кластеры Azure Stack HCI, управляемые диспетчер виртуальных машин, еще не должны присоединиться к каналу предварительной версии. System Center (включая Virtual Machine Manager, Operations Manager и другие компоненты) в настоящее время не поддерживает предварительные версии Azure Stack. Последние обновления см. в блоге System Center.

Перед началом работы

Убедитесь, что вы используете VMM 2019 UR3 или более поздней версии.

Что поддерживается?

  • Добавление, создание и управление кластерами Azure Stack HCI. Подробные инструкции по созданию кластеров HCI и управлению ими.

  • Возможность подготавливать и развертывать виртуальные машины в кластерах Azure Stack HCI и выполнять операции жизненного цикла виртуальной машины. Виртуальные машины можно подготовить с помощью файлов VHD(x) или из существующей виртуальной машины. Подробнее.

  • Настройте сеть на основе виртуальной локальной сети в кластерах Azure Stack HCI.

  • Развертывание и управление сетевым контроллером SDN в кластерах Azure Stack HCI.

  • Управление параметрами пула носителей, созданием виртуальных дисков, созданием общих томов кластера (CSVS) и применением параметров качества обслуживания.

  • Перемещение виртуальных машин между кластерами Windows Server и Azure Stack HCI выполняется с помощью миграции сети и миграции виртуальной машины в автономном режиме .. В этом сценарии VMM экспортирует и импортирует под капюшоном, несмотря на то, что она выполняется как одна операция.

  • Командлеты PowerShell, используемые для управления кластерами Windows Server, также можно использовать для управления кластерами Azure Stack HCI.

Убедитесь, что вы используете VMM 2022 UR1 или более поздней версии.

Что поддерживается?

  • Добавление, создание и управление кластерами Azure Stack HCI. Подробные инструкции по созданию кластеров HCI и управлению ими.

  • Возможность подготавливать и развертывать виртуальные машины в кластерах Azure Stack HCI и выполнять операции жизненного цикла виртуальной машины. Виртуальные машины можно подготовить с помощью файлов VHD(x) или из существующей виртуальной машины. Подробнее.

  • Настройте сеть на основе виртуальной локальной сети в кластерах Azure Stack HCI.

  • Развертывание и управление сетевым контроллером SDN в кластерах Azure Stack HCI.

  • Управление параметрами пула носителей, созданием виртуальных дисков, созданием общих томов кластера (CSVS) и применением параметров качества обслуживания.

  • Перемещение виртуальных машин между кластерами Windows Server и Azure Stack HCI выполняется с помощью миграции сети и миграции виртуальной машины в автономном режиме .. В этом сценарии VMM экспортирует и импортирует под капюшоном, несмотря на то, что она выполняется как одна операция.

  • Командлеты PowerShell, используемые для управления кластерами Windows Server, также можно использовать для управления кластерами Azure Stack HCI.

Регистрация и отмена регистрации кластеров Azure Stack HCI

В VMM 2022 мы представляем командлеты PowerShell VMM для регистрации и отмены регистрации кластеров Azure Stack HCI.

Для регистрации кластера HCI используйте следующие командлеты:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Для отмены регистрации кластера используйте следующую команду:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Подробные сведения о поддерживаемом параметре см. в разделе Register-SCAzStackHCI и Unregister-SCAzStackHCI.

Что не поддерживается?

Примечание.

Динамическая миграция между кластерами Azure Stack HCI работает, а также между кластерами Windows Server.

  • Единственным типом хранилища, доступным для Azure Stack HCI, является Локальные дисковые пространства (S2D). Создание или управление кластером без S2D с узлами Azure Stack HCI не поддерживается. Если вам нужно использовать любой другой тип хранилища, например SAN, используйте Windows Server в качестве узла виртуализации.

Примечание.

При создании кластера Azure Stack HCI необходимо включить функцию S2D. Чтобы включить S2D, в мастере создания кластера перейдите в раздел "Общая конфигурация". В разделе "Укажите имя кластера и группу узлов" выберите "Включить Локальные дисковые пространства", как показано ниже:

Снимок экрана: включена S2D.

После включения кластера с S2D VMM выполняет следующие действия:

  • Включена функция отказоустойчивой кластеризации.
  • Реплика хранилища и дедупликация данных включены.
  • Кластер при необходимости проверяется и создается.
  • включается S2D и в VMM создается объект массива хранения с тем же именем, которое указано в мастере.

Если вы используете VMM для создания гиперконвергентного кластера, пул и уровни хранилища автоматически создаются путем запуска Enable-ClusterStorageSpacesDirect -Autoconfig $True.

После выполнения этих предварительных требований подготовьте кластер и настроите ресурсы хранилища на нем. Затем можно развернуть виртуальные машины в кластере.

Выполните следующие действия:

Шаг 1. Подготовка кластера

Кластер можно подготовить узлами Hyper-V и компьютерами без операционной системы:

Подготовка кластера из узлов Hyper-V

Если вам нужно добавить узлы Azure Stack HCI в структуру VMM, выполните эти действия. Если они уже в структуре VMM, перейдите к следующему шагу.

Примечание.

  • При настройке кластера выберите параметр "Включить Локальные дисковые пространства" на странице "Общая конфигурация" мастера создания кластера Hyper-V.
  • В поле "Тип ресурса" выберите существующие серверы под управлением операционной системы Windows Server и выберите узлы Hyper-V, которые нужно добавить в кластер.
  • Все выбранные узлы должны быть установлены в Azure Stack HCI.
  • Так как S2D включен, кластер должен быть проверен.

Подготовка кластера на компьютерах без операционной системы

Примечание.

Как правило, для узла S2D требуются параметры RDMA, QoS и SET. Чтобы настроить эти параметры для узла с помощью компьютеров без операционной системы, можно использовать возможность скрипта после развертывания в PCP. Ниже приведен пример скрипта после развертывания PCP. Этот скрипт также можно использовать для настройки RDMA, QoS и SET при добавлении нового узла в существующее развертывание S2D с компьютеров без операционной системы.

  1. Ознакомьтесь с предварительными условиями развертывания кластера без операционной системы.

Примечание.

  • Обобщенный VHD или VHDX в библиотеке VMM должен запускать Azure Stack HCI с последними обновлениями. Необходимо задать значения платформы операционной системы и виртуализации для жесткого диска.
  • Для развертывания без операционной системы необходимо добавить сервер среды выполнения предварительной загрузки (PXE) в структуру VMM. Сервер PXE предоставляется через службы развертывания Windows. VMM использует свой собственный образ WinPE, и необходимо убедиться, что это последняя версия. Для этого выберите образ Обновления инфраструктуры>Структуры>WinPE и убедитесь, что задание завершится.
  1. Следуйте инструкциям по подготовке кластера на компьютерах без операционной системы.

Шаг 2. Настройка сети для кластера

После подготовки и управления кластером в структуре VMM необходимо настроить сеть для узлов кластера.

  1. Сначала создайте логическую сеть для зеркального отображения физической сети управления.
  2. Необходимо настроить логический коммутатор с включенным параметром Switch Embedded Teaming (SET), чтобы коммутатор знал о виртуализации. Этот коммутатор подключен к логической сети управления и имеет все виртуальные адаптеры узла, необходимые для предоставления доступа к сети управления или настройки сети хранения. S2D использует сеть для обмена данными между узлами. Рекомендуется использовать адаптеры с поддержкой RDMA.
  3. Создание сетей виртуальных машин.

Шаг 3. Настройка параметров DCB в кластере Azure Stack HCI

Примечание.

Настройка параметров DCB является необязательным шагом для обеспечения высокой производительности во время рабочего процесса создания кластера S2D. Перейдите к шагу 4, если вы не хотите настраивать параметры DCB.

Рекомендации

  • Если у вас развернуты виртуальные сетевые адаптеры для оптимальной производительности, рекомендуется сопоставить все виртуальные сетевые адаптеры с соответствующими PNICs. Сходство между виртуальным сетевым адаптером и pNIC устанавливается случайным образом операционной системой, и могут возникнуть сценарии, в которых несколько виртуальных сетевых карт сопоставляются с одной и той же pNIC. Чтобы избежать таких сценариев, рекомендуется вручную задать сходство между виртуальным сетевым адаптером и pNIC, выполнив описанные здесь действия.

  • При создании профиля порта сетевого адаптера рекомендуется разрешить приоритет IEEE. Подробнее.

    Вы также можете задать приоритет IEEE с помощью следующих команд PowerShell:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Чтобы настроить параметры DCB, выполните следующие действия.

  1. Создайте новый кластер Hyper-V, выберите "Включить Локальные дисковые пространства". Параметр конфигурации DCB добавляется в рабочий процесс создания кластера Hyper-V.

    Снимок экрана: кластер Hyper-V.

  2. В конфигурации DCB выберите Настройка бриджинга Центра обработки данных.

  3. Укажите значения приоритета и пропускной способности для трафика SMB-Direct и Кластера Heartbeat.

Примечание.

Значения по умолчанию назначаются приоритету и пропускной способности. Настройте эти значения на основе потребностей вашей организации в среде.

Снимок экрана: пропускная способность приоритета.

Значения по умолчанию:

Класс трафика Приоритет Пропускная способность (%)
Пульс кластера 7 1
SMB-Direct 3 50
  1. Выберите сетевые адаптеры, используемые для трафика хранилища. RDMA включен в этих сетевых адаптерах.

    Примечание.

    В сценарии с конвергентным сетевым адаптером выберите виртуальные сетевые адаптеры хранилища. Базовые PNICs должны быть способными к отображению виртуальных RDMA и доступным для выбора.

    Снимок экрана: включение RMDS.

  2. Просмотрите сводку и нажмите кнопку "Готово".

    Кластер Azure Stack HCI будет создан, а параметры DCB настраиваются на всех узлах S2D.

    Примечание.

    • Параметры DCB можно настроить на существующих кластерах Hyper-V S2D, перейдя на страницу "Свойства кластера" и перейдя на страницу конфигурации DCB.
    • Любые внеполновые изменения параметров DCB на любом из узлов приведет к тому, что кластер S2D не соответствует VMM. Параметр исправления будет предоставлен на странице конфигурации DCB свойств кластера, которые можно использовать для принудительного применения параметров DCB, настроенных в VMM на узлах кластера.

Шаг 4. Регистрация кластера Azure Stack HCI в Azure

После создания кластера Azure Stack HCI его необходимо зарегистрировать в Azure в течение 30 дней после установки на условия службы Azure Online Service. Если вы используете System Center 2022, используйте Register-SCAzStackHCI командлет в VMM для регистрации кластера Azure Stack HCI в Azure. Вы также можете зарегистрировать кластер Azure Stack HCI в Azure по этим инструкциям.

Состояние регистрации будет отражено в VMM после успешного обновления кластера.

Шаг 5. Просмотр состояния регистрации кластеров Azure Stack HCI

  1. В консоли VMM можно просмотреть состояние регистрации и дату последнего подключения кластеров Azure Stack HCI.

  2. Выберите Fabric, щелкните правой кнопкой мыши кластер Azure Stack HCI и выберите "Свойства".

    Снимок экрана: состояние регистрации.

  3. Кроме того, запустите Get-SCVMHost и просмотрите свойства возвращаемого объекта, чтобы проверить состояние регистрации.

Шаг 6. Управление пулом и создание CSV

Теперь можно изменить параметры пула носителей и создать виртуальные диски и csvs.

  1. Выберите массивы хранилища>Fabric.>

  2. Щелкните кластер правой кнопкой мыши, выберите пункт Управление пулом и пул носителей, который был создан по умолчанию. Вы можете изменить имя по умолчанию и добавить классификацию.

  3. Чтобы создать том CSV, щелкните кластер правой кнопкой мыши и выберите Свойства>Общие тома.

  4. В типе хранилища мастера>создания томов укажите имя тома и выберите пул носителей.

  5. В емкости можно указать размер тома, файловую систему и устойчивость (сбои, которые не допускаются). Выберите "Настроить расширенные параметры хранилища и уровня", чтобы настроить эти параметры.

    Снимок экрана: параметры тома.

  6. В параметрах хранилища можно указать разделение уровня хранилища, емкость и устойчивость.

    Снимок экрана: настройка параметров хранилища.

  7. В окне "Сводка" проверьте параметры и завершите работу мастера. Виртуальный диск будет создан автоматически при создании тома.

Шаг 7. Развертывание виртуальных машин в кластере

В гиперконвергентной топологии виртуальные машины можно развертывать непосредственно в кластере. Их виртуальные жесткие диски размещаются на томах, созданных с помощью S2D. Вы создаете и развертываете эти виртуальные машины так же, как и любую другую виртуальную машину.

Внимание

Если кластер Azure Stack HCI не зарегистрирован в Azure или не подключен к Azure в течение более 30 дней после регистрации, создание виртуальной машины высокой доступности (HAVM) будет заблокировано в кластере. Сведения о регистрации кластера см. на шаге 4 и 5.

Шаг 8. Перенос виртуальных машин из Windows Server в кластер Azure Stack HCI

Используйте функции миграции сети в VMM для переноса рабочих нагрузок из Hyper-V (Windows Server 2019 и более поздних версий) в Azure Stack HCI.

Примечание.

Динамическая миграция между Windows Server и Azure Stack HCI не поддерживается. Миграция сети из Azure Stack HCI в Windows Server не поддерживается.

  1. Временно отключите динамическую миграцию на целевом узле Azure Stack HCI.
  2. Выберите виртуальные машины и все узлы служб>, а затем выберите исходный узел Hyper-V, из которого требуется перенести.
  3. Выберите виртуальную машину, которую требуется перенести. Виртуальная машина должна находиться в отключенном состоянии.
  4. Выберите "Перенести виртуальную машину".
  5. В разделе "Выбор узла" просмотрите и выберите целевой узел Azure Stack HCI.
  6. Нажмите кнопку "Далее ", чтобы инициировать миграцию сети. VMM выполнит импорт и экспорт в серверной части.
  7. Чтобы убедиться, что виртуальная машина успешно перенесена, проверьте список виртуальных машин на конечном узле. Включите виртуальную машину и включите динамическую миграцию на узле Azure Stack HCI.

Шаг 9. Перенос рабочих нагрузок VMware в кластер Azure Stack HCI с помощью SCVMM

VMM предоставляет простой интерфейс на основе мастера для преобразования V2V (virtual to Virtual) (Virtual to Virtual). Средство преобразования можно использовать для переноса рабочих нагрузок в масштабе от инфраструктуры VMware к инфраструктуре Hyper-V. Список поддерживаемых серверов VMware см. в разделе "Требования к системе".

Предварительные требования и ограничения для преобразования см. в статье "Преобразование виртуальной машины VMware в Hyper-V" в структуре VMM.

  1. Создайте учетную запись запуска от имени для роли администратора сервера vCenter Server в VMM. Эти учетные данные администратора используются для управления сервером vCenter и узлами ESXi. Снимок экрана: страница создания учетной записи запуска от имени.

  2. В консоли VMM в разделе Fabric выберите "Серверы>добавить VMware vCenter Server". Снимок экрана: добавление параметра VMware vCenter.

  3. На странице "Добавить VMware vCenter Server" сделайте следующее:

    1. Имя компьютера: укажите имя сервера vCenter.

    2. Учетная запись запуска от имени: выберите учетную запись запуска от имени, созданную для администратора vSphere.

      Снимок экрана: сведения о сервере.

  4. Выберите Готово.

  5. На странице импорта сертификата выберите "Импорт".

    Снимок экрана: параметр импорта сертификатов.

  6. После успешного добавления сервера vCenter все узлы ESXi в vCenter переносятся в VMM.

Добавление узлов

  1. В консоли VMM в разделе Fabric выберите "Серверы>" Добавить узлы и кластеры VMware ESX.
    Снимок экрана: параметр
  2. В мастере добавления ресурсов
    1. В разделе "Учетные данные" выберите учетную запись запуска от имени, используемую для порта, и нажмите кнопку "Далее".

      Снимок экрана: вкладка учетных данных.

    2. В разделе "Целевые ресурсы" выберите все кластеры ESX, которые необходимо добавить в VMM, и нажмите кнопку "Далее". Снимок экрана: вкладка целевых ресурсов.

    3. В разделе "Параметры узла" выберите расположение для добавления виртуальных машин и нажмите кнопку "Далее". Снимок экрана: вкладка

    4. В разделе " Сводка" просмотрите параметры и нажмите кнопку "Готово". Вместе с узлами связанные виртуальные машины также будут добавлены.

      Снимок экрана: вкладка сводки.

Проверка состояния узла ESXi

  1. Если состояние узла ESXi отражается как ОК (Ограничено), щелкните правой кнопкой мыши управление свойствами>, выберите учетную запись запуска от имени, используемую для порта, и импортируйте сертификаты для узла.
    Повторите один и тот же процесс для всех узлов ESXi.

    Снимок экрана: вкладка

После добавления кластеров ESXi все виртуальные машины, работающие в кластерах ESXi, автоматически обнаруживаются в VMM.

Просмотр виртуальных машин

  1. Перейдите к виртуальным машинам и службам , чтобы просмотреть виртуальные машины. Вы также можете управлять основными операциями жизненного цикла этих виртуальных машин из VMM.
    Снимок экрана: узлы ESXi.

  2. Щелкните правой кнопкой мыши виртуальную машину и выберите Power Off (миграции через Интернет не поддерживаются), которые необходимо перенести и удалить средства VMware из гостевой операционной системы.

  3. Выберите "Главная>создание" Виртуальные машины> Конверт виртуальной машины.

  4. В мастере преобразования виртуальных машин

    1. В разделе "Выбор источника" выберите виртуальную машину, запущенную на сервере ESXi, и нажмите кнопку "Далее". Снимок экрана: выбор параметра источника.
    2. В разделе "Указать удостоверение виртуальной машины" введите новое имя виртуальной машины, если вы хотите и нажмите кнопку "Далее".
      Снимок экрана: параметр имени виртуальной машины.
  5. В разделе "Выбор узла" выберите целевой узел Azure Stack HCI и укажите расположение на узле для файлов хранилища виртуальных машин и нажмите кнопку "Далее".

    Снимок экрана: выбор параметра узла.

  6. Выберите виртуальную сеть для виртуальной машины и нажмите кнопку "Создать ", чтобы завершить миграцию.
    Виртуальная машина, запущенная в кластере ESXi, успешно перенесена в кластер Azure Stack HCI. Для автоматизации используйте команды PowerShell для преобразования.

Следующие шаги