Развертывание и администрирование кластеров Azure Stack HCI в VMM
В этой статье показано, как настроить кластер Azure Stack HCI в System Center Virtual Machine Manager (VMM). Кластер Azure Stack HCI можно развернуть путем подготовки на серверах без операционной системы или путем добавления существующих узлов. Подробнее о новой ОС Azure Stack HCI.
В накопительном пакете обновления 3 (UR3) VMM 2019 поддерживается Azure Stack HCI версии 20H2. Текущим продуктом является Azure Stack HCI версии 21H2. Начиная с System Center 2022, VMM поддерживает Azure Stack HCI версии 20H2; Azure Stack HCI версии 21H2; и Azure Stack HCI версии 22H2 (поддерживается из VMM 2022 UR1).
Важно!
Кластеры Azure Stack HCI, управляемые Virtual Machine Manager, пока не должны присоединиться к каналу предварительной версии. System Center (включая Virtual Machine Manager, Operations Manager и другие компоненты) в настоящее время не поддерживает предварительные версии Azure Stack. Последние обновления см. в блоге System Center.
Перед началом работы
Убедитесь, что вы используете VMM 2019 UR3 или более поздней версии.
Поддерживаемые возможности
Добавление, создание кластеров Azure Stack HCI и управление ими. См. подробные инструкции по созданию кластеров HCI и управлению ими.
Возможность подготавливать и развертывать виртуальные машины в кластерах Azure Stack HCI и выполнять операции жизненного цикла виртуальной машины. Виртуальные машины можно подготовить с помощью файлов VHD(x), шаблонов или из существующей виртуальной машины. Подробнее.
Настройка сети на основе виртуальной локальной сети в кластерах Azure Stack HCI.
Развертывание и управление сетевым контроллером SDN в кластерах Azure Stack HCI.
Управление параметрами пула носителей, создание виртуальных дисков, создание общих томов кластера и применение параметров качества обслуживания.
Перемещение виртуальных машин между кластерами Windows Server и Azure Stack HCI выполняется с помощью сетевой миграции и миграции виртуальной машины в автономном режиме (завершение работы). В этом сценарии VMM выполняет экспорт и импорт под капотом, несмотря на то, что выполняется как одна операция.
Командлеты PowerShell, используемые для управления кластерами Windows Server, можно также использовать для управления кластерами Azure Stack HCI.
Регистрация и отмена регистрации кластеров Azure Stack HCI
В VMM 2022 мы представляем командлеты VMM PowerShell для регистрации и отмены регистрации кластеров Azure Stack HCI.
Для регистрации кластера HCI используйте следующие командлеты:
Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>
Для отмены регистрации кластера используйте следующую команду:
Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>
Подробные сведения о поддерживаемом параметре см. в разделах Register-SCAzStackHCI и Unregister-SCAzStackHCI.
Неподдерживаемые возможности
Управление растянутыми кластерами Azure Stack HCI сейчас не поддерживается в VMM.
Azure Stack HCI используется в качестве узла виртуализации, на котором выполняются все рабочие нагрузки в виртуальных машинах. Согласно условиям использования Azure Stack HCI вы можете выполнять только те действия, которые требуются для размещения виртуальных машин. Кластеры Azure Stack HCI не следует использовать для других целей, таких как серверы WSUS, серверы WDS или серверы библиотек. См. раздел Варианты использования Azure Stack HCI, Когда следует использовать Azure Stack HCI и Роли, которые можно запускать без виртуализации.
Динамическая миграция между любой версией Windows Server и кластерами Azure Stack HCI не поддерживается.
Примечание
Выполняется динамическая миграция между кластерами Azure Stack HCI, а также между кластерами Windows Server.
- Единственным типом хранилища, доступным для Azure Stack HCI, является Локальные дисковые пространства (S2D). Создание кластера, отличного от S2D, и управление ими с узлами Azure Stack HCI не поддерживается. Если необходимо использовать любой другой тип хранилища, например SAN, используйте Windows Server в качестве узла виртуализации.
Примечание
При создании кластера Azure Stack HCI необходимо включить функцию S2D. Чтобы включить S2D, в мастере создания кластера перейдите к разделу Общая конфигурация. В разделе Укажите имя кластера и группу узлов выберите Включить Локальные дисковые пространства, как показано ниже:
После включения кластера с локальными дисковыми пространствами VMM выполняет следующие задачи:
- включается функция отказоустойчивой кластеризации;
- Включены реплика хранилища и дедупликация данных.
- при необходимости выполняется проверка и создание кластера;
- включается S2D и в VMM создается объект массива хранения с тем же именем, которое указано в мастере.
Если вы используете VMM для создания гиперконвергентного кластера, пул и уровни хранилища автоматически создаются путем запуска Enable-ClusterStorageSpacesDirect -Autoconfig $True
.
После выполнения этих предварительных требований следует подготовить кластер и настроить в нем ресурсы хранилища. Затем можно развернуть виртуальные машины в кластере.
Выполните следующие действия.
Шаг 1. Подготовка кластера
Кластер можно подготавливать на узлах Hyper-V и компьютерах без операционной системы:
Подготовка кластера на основе узлов Hyper-V
Если вам нужно добавить узлы Azure Stack HCI в структуру VMM, выполните эти действия. Если они уже имеются в структуре VMM, перейдите к следующему шагу.
Примечание
- При настройке кластера выберите параметр Включить Локальные дисковые пространства на странице Общая конфигурация мастера Создание кластера Hyper-V.
- На странице Тип ресурса выберите параметр Существующие серверы, работающие под управлением операционной системы Windows Server, а затем выберите узлы Hyper-V для добавления в кластер.
- На всех выбранных узлах должна быть установлена ОС Azure Stack HCI.
- Так как вы включили S2D, необходимо проверить кластер.
Подготовка кластера на основе компьютеров без операционной системы
Примечание
Как правило, для узла S2D требуются параметры RDMA, QoS и SET. Чтобы настроить эти параметры для узла с помощью компьютеров без операционных систем, можно использовать возможность запуска скриптов, выполняемых после развертывания PCP. Ниже приведен пример сценария PCP после развертывания. Этот скрипт также можно использовать для настройки RDMA, QoS и SET при добавлении нового узла в существующее развертывание S2D с компьютеров без операционной системы.
- Ознакомьтесь с предварительными требованиями для развертывания кластера без операционной системы.
Примечание
- Универсальный образ VHD или VHDX в библиотеке VMM должен содержать Azure Stack HCI с последними обновлениями. Необходимо задать значения параметров Операционная система и Платформа виртуализации для жесткого диска.
- Для развертывания без операционной системы необходимо добавить в структуру VMM сервер протокола удаленной загрузки PXE. PXE-сервер предоставляется посредством служб развертывания Windows. VMM использует собственный образ WinPE, и вам нужно убедиться, что он является последним. Для этого выберитеWinPE-образ обновленияинфраструктуры>структуры> и убедитесь, что задание завершено.
- Выполните инструкции по подготовке кластера на основе компьютеров без операционной системы.
Шаг 2. Настройка сетевых подключений для кластера
После того как кластер будет подготовлен и настроен для управления в структуре VMM, необходимо настроить сетевые подключения для узлов кластера.
- Сначала создайте логическую сеть для отражения физической сети управления.
- Необходимо настроить логический коммутатор с включенным командированием switch Embedded Teaming (SET), чтобы коммутатор знал о виртуализации. Этот коммутатор подключен к логической сети управления и содержит все виртуальные адаптеры узла, необходимые для предоставления доступа к сети управления или настройки сети хранилища. Для обмена данными между узлами локальные дисковые пространства используют сеть. Рекомендуется использовать адаптеры с поддержкой RDMA.
- Создайте сети виртуальных машин.
Шаг 3. Настройка параметров DCB в кластере Azure Stack HCI
Примечание
Настройка параметров DCB является необязательным шагом для достижения высокой производительности в процессе создания кластера S2D. Перейдите к шагу 4, если вы не хотите настраивать параметры DCB.
Рекомендации
Если вы развернули виртуальные сетевые адаптеры, для оптимальной производительности рекомендуется сопоставить все виртуальные сетевые адаптеры с соответствующими PNIC. Соответствия между vNIC и pNIC задаются операционной системой случайным образом, и могут существовать сценарии, в которых несколько vNIC сопоставляются с одним и тем же pNIC. Чтобы избежать таких сценариев, рекомендуем задать сходство между vNIC и pNIC вручную, выполнив приведенные здесь действия.
При создании профиля порта сетевого адаптера рекомендуется разрешить приоритет IEEE. Подробнее.
Приоритет IEEE можно также задать с помощью следующих команд PowerShell:
Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
Выполните следующие действия,чтобы настроить параметры DCB.
Выполните действия в статье Подготовка кластера из автономных узлов Hyper-V в структуре VMM, выберите Включить локальные дисковые пространства кластера. В рабочий процесс создания кластера Hyper-V добавляется параметр Конфигурация DCB.
В Конфигурация DCB выберите Configure Data Center Bridging (Настроить мостовое соединение для центра обработки данных).
Укажите значения для пунктов Приоритет и Пропускная способность для трафика пульса SMB-Direct и кластера.
Примечание
Параметрам Приоритет и Пропускная способность назначаются значения по умолчанию. Настройте эти значения в соответствии с потребностями вашей организации.
Значения по умолчанию:
Класс трафика | Приоритет | Пропускная способность (%) |
---|---|---|
Пульс кластера | 7 | 1 |
SMB-Direct | 3 | 50 |
Выберите сетевые адаптеры, используемые для трафика хранилища. На этих сетевых адаптерах включен RDMA.
Примечание
В сценарии с согласованным сетевым адаптером выберите vNIC хранилища. Базовые pNIC должны поддерживать RDMA, чтобы vNIC отображался и был доступен для выбора.
Проверьте параметры и выберите Готово.
Будет создан кластер Azure Stack HCI, а на всех узлах S2D будут настроены параметры DCB.
Примечание
- Параметры DCB можно настроить в существующих кластерах S2D Hyper-V, перейдя на страницу Свойства кластера и перейдя на страницу конфигурации DCB .
- Все изменения, внесенные по внешнему каналу в параметры DCB на любом из узлов, приведут к тому, что кластер S2D не будет соответствовать требованиям VMM. На странице Конфигурация DCB свойств кластера будет предоставлен параметр "Исправить", который можно использовать для принудительного применения параметров DCB, настроенных в VMM на узлах кластера.
Шаг 4. Регистрация кластера Azure Stack HCI в Azure
Созданный кластер Azure Stack HCI должен быть зарегистрирован в Azure в течение 30 дней после установки согласно условиям использования веб-служб Azure. Если вы используете System Center 2022, используйте Register-SCAzStackHCI
командлет в VMM, чтобы зарегистрировать кластер Azure Stack HCI в Azure. Вы также можете зарегистрировать кластер Azure Stack HCI в Azure по этим инструкциям.
После обновления кластера состояние регистрации будет отражено в VMM.
Шаг 5. Просмотр состояния регистрации кластеров Azure Stack HCI
В консоли VMM можно просмотреть состояние регистрации и дату последнего подключения кластеров Azure Stack HCI.
Выберите Структура, щелкните правой кнопкой мыши кластер Azure Stack HCI и выберите Свойства.
Кроме того, запустите
Get-SCVMHost
и просмотрите свойства возвращаемого объекта, чтобы проверка состояние регистрации.
Шаг 6. Управление пулом и создание томов CSV
Теперь вы можете изменять параметры пула носителей и создавать виртуальные диски и csv-файлы.
ВыберитеМассивыхранилища>структуры>.
Щелкните кластер правой кнопкой мыши, выберите пункт Управление пулом и пул носителей, который был создан по умолчанию. Вы можете изменить имя по умолчанию и добавить классификацию.
Чтобы создать том CSV, щелкните кластер правой кнопкой мыши и выберите >>>.
В разделеТип хранилищамастера> создания томов укажите имя тома и выберите пул носителей.
На странице Емкость можно указать размер тома, файловую систему и параметры устойчивости (отказоустойчивости).
Выберите Настройка дополнительных параметров хранилища и распределения по уровням , чтобы настроить эти параметры.
В разделе Сводка проверьте параметры и завершите работу мастера. При создании тома будет автоматически создан виртуальный диск.
Шаг 7. Развертывание виртуальных машин в кластере
В гиперконвергентной топологии виртуальные машины можно развернуть непосредственно в кластере. Их виртуальные жесткие диски размещаются в томах, созданных с использованием локальных дисковых пространств. Эти виртуальные машины создаются и развертываются так же, как и любые другие.
Важно!
Если кластер Azure Stack HCI не зарегистрирован в Azure или не подключен к Azure более 30 дней после регистрации, создание виртуальной машины с высоким уровнем доступности (HAVM) будет заблокировано в кластере. Сведения о регистрации кластера см. в шагах 4 и 5.
Шаг 8. Перенос виртуальных машин из Windows Server в кластер Azure Stack HCI
Используйте функции миграции сети в VMM для переноса рабочих нагрузок из Hyper-V (Windows Server 2019 & более поздней версии) в Azure Stack HCI.
Примечание
Динамическая миграция между Windows Server и Azure Stack HCI не поддерживается. Миграция сети из Azure Stack HCI в Windows Server не поддерживается.
- Временно отключите динамическую миграцию на целевом узле Azure Stack HCI.
- Выберите Виртуальные машины и службы > Все узлы, а затем выберите исходный узел Hyper-V, с которого требуется выполнить миграцию.
- Выберите виртуальную машину, которую требуется перенести. Виртуальная машина должна находиться в отключенном состоянии.
- Выберите Миграция виртуальной машины.
- В разделе Выбор узла просмотрите и выберите целевой узел Azure Stack HCI.
- Нажмите кнопку Далее, чтобы инициировать миграцию сети. VMM будет выполнять импорт и экспорт в серверной части.
- Чтобы убедиться, что виртуальная машина успешно перенесена, проверка список виртуальных машин на конечном узле. Включите виртуальную машину и повторно включите динамическую миграцию на узле Azure Stack HCI.
Шаг 9. Перенос рабочих нагрузок VMware в кластер Azure Stack HCI с помощью SCVMM
VMM предлагает простой интерфейс на основе мастера для преобразования V2V (виртуальный в виртуальный). Вы можете использовать средство преобразования для переноса рабочих нагрузок в большом масштабе из инфраструктуры VMware в инфраструктуру Hyper-V. Список поддерживаемых серверов VMware см. в разделе Требования к системе.
Предварительные требования и ограничения для преобразования см. в статье Преобразование виртуальной машины VMware в Hyper-V в структуре VMM.
Создайте учетную запись запуска от имени для роли администратора vCenter Server в VMM. Эти учетные данные администратора используются для управления серверами vCenter Server и узлами ESXi.
В консоли VMM в разделе Структура выберите Серверы>Добавить сервер VMware vCenter Server.
На странице Добавление VMware vCenter Server сделайте следующее:
- Имя компьютера. Укажите имя сервера vCenter.
- Учетная запись запуска от имени. Выберите учетную запись запуска от имени, созданную для администратора vSphere.
Нажмите кнопку Завершить.
На странице Импорт сертификата выберите Импорт.
После успешного добавления сервера vCenter все узлы ESXi в vCenter переносятся в VMM.
Добавление узлов
- В консоли VMM в разделе Структура выберите Серверы>Добавить узлы и кластеры VMware ESX.
- В мастере добавления ресурсов:
В разделе Учетные данные выберите учетную запись запуска от имени, используемую для порта, и нажмите кнопку Далее.
В разделе Целевые ресурсы выберите все кластеры ESX, которые необходимо добавить в VMM, и нажмите кнопку Далее.
В разделе Параметры узла выберите расположение, в которое вы хотите добавить виртуальные машины, и нажмите кнопку Далее.
В разделе Сводка просмотрите параметры и нажмите кнопку Готово. Наряду с узлами также будут добавлены связанные виртуальные машины.
Проверка состояния узла ESXi
- Если состояние узла ESXi отображается как ОК (ограничено), щелкните правой кнопкой мышиУправление свойствами>, выберите Учетная запись запуска от имени, используемая для порта, и импортируйте сертификаты для узла.
Повторите тот же процесс для всех узлов ESXi. После добавления кластеров ESXi все виртуальные машины, работающие в кластерах ESXi, автоматически обнаруживаются в VMM.
Просмотр виртуальных машин
Перейдите в раздел Виртуальные машины и службы , чтобы просмотреть виртуальные машины. Вы также можете управлять основными операциями жизненного цикла этих виртуальных машин из VMM.
Щелкните правой кнопкой мыши виртуальную машину и выберите Выключение (миграции по сети не поддерживаются), которые необходимо перенести и удалить средства VMware из операционной системы на виртуальной машине.
Выберите Главная>Создать Виртуальные машины>Конвертировать виртуальную машину.
В мастере преобразования виртуальной машины выполните следующие действия:
- В разделе Выбор источника выберите виртуальную машину, запущенную на сервере ESXi, и нажмите кнопку Далее.
- В разделе Укажите удостоверение виртуальной машины введите новое имя виртуальной машины, если хотите, и нажмите кнопку Далее.
В разделе Выбор узла выберите целевой узел Azure Stack HCI, укажите расположение на узле для файлов хранилища виртуальных машин и нажмите кнопку Далее.
Выберите виртуальную сеть для виртуальной машины и нажмите кнопку Создать , чтобы завершить миграцию.
Виртуальная машина, работающая в кластере ESXi, успешно перенесена в кластер Azure Stack HCI. Для автоматизации используйте команды PowerShell для преобразования.