Серия HBv3
Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы
Виртуальные машины серии HBv3 оптимизированы для приложений высокопроизводительных вычислений, включая гидродинамику, явный и неявный анализ конечных элементов, моделирование погоды, обработку сейсмических данных, симуляторы резервуаров и технических границ коллектора. Виртуальные машины HBv3 имеют до 120 ядер ЦП AMD EPYC™ 7V73X (Milan-X), 448 ГБ ОЗУ и отсутствие одновременной многопоточности. Виртуальные машины серии HBv3 обеспечивают пропускную способность памяти в 350 ГБ/с (с возможностью увеличения до 630 ГБ/с) с кэш-памятью третьего уровня на ядро, производительность твердотельного накопителя до 7 ГБ/с и тактовые частоты до 3,5 ГГц.
Все виртуальные машины серии HBv3 имеют HDR InfiniBand на 200 Гбит/с от NVIDIA Networking, что позволяет выполнять крупномасштабные рабочие нагрузки MPI. Эти виртуальные машины подключены в неблокирующем дереве FAT для обеспечения оптимальной и стабильной производительности RDMA. Структура HDR InfiniBand также поддерживает адаптивную маршрутизацию и динамический подключенный транспорт (DCT, дополнительно к стандартным транспортам RC и UD). Эти функции улучшают производительность, масштабируемость и согласованность приложений. Их использование настоятельно рекомендуется.
Хранилище класса Premium: поддерживается
Кэширование в хранилище класса Premium: поддерживается
Диски ценовой категории "Ультра": не поддерживается
Динамическая миграция: не поддерживается
Обновления с сохранением памяти: не поддерживается
Поддержка создания виртуальных машин: поколения 1 и 2
Ускорение сети: поддерживается (подробнее о производительности и потенциальных проблемах)
Временные диски ОС: поддерживаются
Размер | vCPU | Процессор | Память, ГиБ | Пропускная способность памяти (ГБ/с) | Базовая частота ЦП (ГГц) | Частота всех ядер (ГГц, пик) | Частота одного ядра (ГГц, пик) | Производительность RDMA (ГБ/с) | Поддержка MPI | Временное хранилище, Гиб | Максимальное число дисков данных | Макс. vNIC Ethernet |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Standard_HB120rs_v3 | 120 | AMD EPYC 7V73X | 448 | 350 | 1,9 | 3.0 | 3.5 | 200 | Все | 2 * 960 | 32 | 8 |
Standard_HB120-96rs_v3 | 96 | AMD EPYC 7V73X | 448 | 350 | 1,9 | 3.0 | 3.5 | 200 | Все | 2 * 960 | 32 | 8 |
Standard_HB120-64rs_v3 | 64 | AMD EPYC 7V73X | 448 | 350 | 1,9 | 3.0 | 3.5 | 200 | Все | 2 * 960 | 32 | 8 |
Standard_HB120-32rs_v3 | 32 | AMD EPYC 7V73X | 448 | 350 | 1,9 | 3.0 | 3.5 | 200 | Все | 2 * 960 | 32 | 8 |
Standard_HB120-16rs_v3 | 16 | AMD EPYC 7V73X | 448 | 350 | 1,9 | 3.0 | 3.5 | 200 | Все | 2 * 960 | 32 | 8 |
Дополнительные сведения о:
- Архитектура и топология виртуальных машин
- Поддерживаемый стек программного обеспечения, включая поддерживаемые ОС
- Ожидаемая производительность виртуальной машины серии HBv3
Начало работы
- Обзор HPC на виртуальных машинах серии HB и N с поддержкой InfiniBand.
- Настройка виртуальных машин и поддерживаемые Образы ОС и виртуальных машин.
- Включение InfiniBand с помощью образов высокопроизводительных виртуальных машин, расширений ВМ или установки вручную.
- Настройка MPI, включая фрагменты кода и рекомендации.
- Параметры конфигурации кластера.
- Рекомендации по развертыванию.
Определение размера
Емкость хранилища отображается в единицах ГиБ (1 ГиБ = 1024^3 байтов). При сравнении емкости дисков в ГБ (1000^3 байтов) с емкостью дисков в ГиБ (1024^3 байтов) помните, что значения емкости в ГиБ могут казаться меньше, чем в ГБ. Например, 1023 ГиБ = 1098,4 ГБ.
Пропускная способность дисков измеряется в операциях ввода-вывода в секунду (IOPS) и МБит/с, где 1 МБит/с = 10^6 байтов в секунду.
Диски данных могут работать в режиме кэширования и в режиме без кэширования. Чтобы использовать кэширование диска данных, для режима кэширования узла следует задать значение ReadOnly или ReadWrite. Чтобы не использовать кэширование диска данных, для режима кэширования узла следует задать значение None.
Сведения о том, как получить оптимальную производительность хранилища для виртуальных машин, см. в статье Производительность диска и виртуальной машины.
Ожидаемая пропускная способность сети — это максимальная совокупная пропускная способность, выделенная на каждый тип виртуальной машины по всем сетевым адаптерам для всех назначений. Чтобы получить дополнительную информацию, см. Пропускная способность сети для виртуальных машин.
Верхние пределы не гарантированы. Пределы предлагают руководство по выбору типа виртуальной машины, подходящего для предполагаемого приложения. Фактическая производительность сети зависит от нескольких факторов, в том числе загрузки сети и приложения, а также параметров сети. Сведения об оптимизации пропускной способности см. в статье Оптимизация пропускной способности сети для виртуальных машин Azure. Чтобы обеспечить ожидаемую производительность сети на виртуальных машинах Linux или Windows, возможно, потребуется выбрать определенную версию виртуальной машины или оптимизировать ее. Чтобы получить дополнительную информацию, см. Проверка пропускной способности (NTTTCP).
Другие размеры и сведения
- Универсальные
- Оптимизированные для памяти
- Оптимизированные для хранилища
- Оптимизированные для GPU
- Для высокопроизводительных вычислений
- Предыдущие поколения
Калькулятор цен: калькулятор цен.
Дополнительные сведения о типах дисков см. в статье Какие типы дисков доступны в Azure.
Дальнейшие действия
- Ознакомьтесь с последними объявлениями, примерами рабочей нагрузки HPC, а также результатами оценки производительности в блогах технического сообщества Вычислений Azure.
- Сведения о более высоком уровне архитектурного представления выполнения рабочих нагрузок HPC см. в статье Высокопроизводительные вычисления (HPC) в Azure.
- Узнайте больше о том, как с помощью единиц вычислений Azure (ACU) сравнить производительность вычислений для различных номеров SKU Azure.