Поделиться через


Обзор виртуальных машин серии HBv3

Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Гибкие масштабируемые наборы ✔️ Универсальные масштабируемые наборы

Характеристики сервера серии HBv3: 2 * 64-ядерных процессора EPYC 7V73X, всего 128 физических ядер "Zen3" с помощью технологии AMD 3D V-Cache. Одновременная многопоточность (SMT) отключена для серии HBv3. Эти 128 ядер разделены на 16 разделов (8 на сокет), каждый раздел содержит 8 ядер процессора с равномерным доступом к кэшу третьего уровня 96 МБ. На серверах Azure HBv3 также используются следующие параметры для BIOS компании AMD:

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

В результате сервер загружается с 4 доменами NUMA (2 на сокет). Каждый домен имеет размер 32 ядер. Каждый NUMA имеет прямой доступ к 4 каналам физической DRAM, работающей в 3200 MT/s.

Чтобы работа гипервизора Azure не мешала работе виртуальной машины, мы резервируем 8 физических ядер для каждого сервера.

Топология виртуальной машины

На следующей схеме показана топология сервера. Мы зарезервировали 8 ядер узла гипервизора (желтый) симметрично в обоих сокетах ЦП, первые 2 ядра из которых взяты с конкретных устройств Core Complex Dies (ПЗС) в каждом домене NUMA, а оставшиеся ядра предназначены для виртуальной машины серии HBv3 (зеленый).

Топология сервера серии HBv3

Граница CCD не эквивалентна границе NUMA. В HBv3 группа из четырех последовательных (4) CCD настраивается как домен NUMA, как на уровне узла, так и на гостевой виртуальной машине. Таким образом, все размеры виртуальных машин HBv3 предоставляют 4 домена NUMA, которые отображаются в ОС и приложении, как показано ниже. 4 универсальных доменов NUMA, каждый из которых отличается от количества ядер в зависимости от конкретного размера виртуальной машины HBv3.

Топология виртуальной машины серии HBv3

Каждый размер виртуальной машины HBv3 аналогичен физическому макету, возможностям и производительности другого ЦП из серии AMD EPYC 7003, как показано ниже:

Размер виртуальной машины серии HBv3 Домены NUMA Количество ядер на домен NUMA Сходство с AMD EPYC
Standard_HB120rs_v3 4 30 Два разъема EPYC 7773X
Standard_HB120-96rs_v3 4 24 Два разъема EPYC 7643
Standard_HB120-64rs_v3 4 16 Два разъема EPYC 7573X
Standard_HB120-32rs_v3 4 8 Два разъема EPYC 7373X
Standard_HB120-16rs_v3 4 4 Два разъема EPYC 72F3

Примечание.

Размеры виртуальных машин с ограниченным количеством ядер уменьшают только количество физических ядер, предоставленных виртуальной машине. Все глобальные общие ресурсы (ОЗУ, пропускная способность памяти, кэш третьего уровня, подключение GMI и xGMI, InfiniBand, сеть Ethernet Azure, локальный SSD) остаются постоянными. Эта возможность позволяет клиенту выбрать размер виртуальной машины, оптимальный для определенного набора рабочих нагрузок или лицензирование программного обеспечения.

Виртуальное сопоставление NUMA для каждого размера виртуальной машины HBv3 сопоставляется с базовой физической топологией NUMA. Топология оборудования показана непосредственно без потенциально вводящей в заблуждение абстракции.

Точная топология для различных размеров виртуальной машины HBv3 выглядит следующим образом, если использовать выходные данные lstopo:

lstopo-no-graphics --no-io --no-legend --of txt

Щелкните, чтобы посмотреть выходные данные lstopo для Standard_HB120rs_v3

Выходные данные lstopo для виртуальной машины HBv3-120

Щелкните, чтобы посмотреть выходные данные lstopo для Standard_HB120rs-96_v3

Выходные данные lstopo для виртуальной машины HBv3-96

Щелкните, чтобы посмотреть выходные данные lstopo для Standard_HB120rs-64_v3

Выходные данные lstopo для виртуальной машины HBv3-64

Щелкните, чтобы посмотреть выходные данные lstopo для Standard_HB120rs-32_v3

Выходные данные lstopo для виртуальной машины HBv3-32

Щелкните, чтобы посмотреть выходные данные lstopo для Standard_HB120rs-16_v3

Выходные данные lstopo для виртуальной машины HBv3-16

Сеть InfiniBand

Виртуальные машины HBv3 также имеют сетевые адаптеры NVIDIA Mellanox HDR InfiniBand (ConnectX-6), работающие до 200 Гигабит/с. Сетевой адаптер передается виртуальной машине через SRIOV, что позволяет сетевому трафику обойти гипервизор. В результате клиенты загружают стандартные драйверы Mellanox OFED на виртуальные машины HBv3 так же, как и на физическую систему.

Виртуальные машины серии HBv3 поддерживают адаптивную маршрутизацию, динамический подключенный транспорт (DCT, а также стандартные транспорты RC и UD), а также разгрузку на аппаратном уровне коллективных операций MPI на встроенный процессор адаптера ConnectX-6. Эти функции повышают производительность приложений, масштабируемость и согласованность и рекомендуется использовать их.

Временное хранилище

Виртуальные машины HBv3 оснащены 3 физическими локальными устройствами SSD. Одно устройство предварительно отформатировано, чтобы служить файлом страницы, и он появился в виртуальной машине в качестве универсального устройства SSD.

Два других более крупных устройства SSD предоставляются в виде неформатированных блочных устройств NVMe через NVMeDirect. Устройство NVMe блока обходит гипервизор, что обеспечивает более высокую пропускную способность, большее количество операций ввода-вывода в секунду и меньшую задержку на операцию ввода-вывода.

При соединении в полосатом массиве NVMe SSD обеспечивает скорость чтения до 7 ГБ/с и запись до 3 ГБ/с, а также до 186000 IOPS для чтения и 201000 IOPS для записи при глубокой очереди.

Характеристики оборудования

Характеристики оборудования Виртуальные машины серии HBv3
Ядра 120, 96, 64, 32 или 16 (SMT отключено)
ЦП AMD EPYC 7V73X
Частота ЦП (без AVX) 3,0 ГГц (все ядра), 3,5 ГГц (до 10 ядер)
Память 448 ГБ (ОЗУ на ядро зависит от размера виртуальной машины)
Локальный диск Два NVMe емкостью 960 ГБ (блок), SSD емкостью 480 ГБ (файл подкачки)
Infiniband 200 Гбит/с Mellanox ConnectX-6 HDR InfiniBand
Сеть Ethernet 50 Гбит/с (доступно 40 Гбит/с) Azure SmartNIC второго поколения

Характеристики программного обеспечения

Характеристики программного обеспечения Виртуальные машины серии HBv3
Максимальный размер задания MPI 36 000 ядер (300 виртуальных машин в одном масштабируемом наборе виртуальных машин с singlePlacementGroup=true)
Поддержка MPI HPC-X, Intel MPI, OpenMPI, MVAPICH2, MPICH
Дополнительные платформы UCX, libfabric, PGAS
Поддержка службы хранилища Microsoft Azure Диски уровня "Стандартный" и "Премиум" (максимум 32 диска)
Поддержка ОС для SRIOV RDMA RHEL 7.9+, Ubuntu 18.04+, SLES 15.4, WinServer 2016+
Рекомендуемая операционная система для повышения производительности Windows Server 2019+
Поддержка Оркестратор Azure CycleCloud, пакетная служба Azure, AKS; параметры конфигурации кластера

Примечание.

Windows Server 2012 R2 не поддерживается в HBv3 и других виртуальных машинах с более чем 64 (виртуальными или физическими) ядрами. Дополнительные сведения см. в статье "Поддерживаемые гостевые операционные системы Windows" для Hyper-V на Windows Server.

Внимание

Этот документ ссылается на версию Linux, которая приближается или находится на стадии снятия с поддержки (EOL). Рассмотрите возможность обновления до более текущей версии.

Следующие шаги