Примечание
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы
Ниже приведены ожидаемые показатели производительности на основе стандартных микротестов производительности HPC.
Рабочая нагрузка | HBv3 |
---|---|
STREAM Triad | 330-350 ГБ/с (с возможностью увеличения до 630 ГБ/с) |
High-Performance Linpack (HPL) | 4 TF (Rpeak, FP64), 8 TF (Rpeak, FP32) для виртуальных машин со 120 ядрами |
Задержка и пропускная способность RDMA | 1.2 микросекунда (1 байт), 192 ГБ/с (односторонняя версия) |
FIO на локальном твердотельном накопителе NVMe (RAID0) | 7 ГБ/с (чтение), 3 ГБ/с (запись); 186 тыс. операций ввода-вывода в секунду (чтение), 201 тыс. операций ввода-вывода в секунду (запись) |
Закрепление процессов
Виртуальные машины серии HBv3 поддерживают закрепление процессов, так как для гостевой виртуальной машины мы предоставляем базовый чип "как есть". Мы настоятельно рекомендуем закреплять процесс для обеспечения оптимальной производительности и согласованности.
Задержка MPI
Тест задержки MPI из набора микробнхмарков OSU можно выполнить, как показано ниже. Примеры использованных скриптов выложены на GitHub.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
Пропускная способность MPI
Тестирование пропускной способности MPI из набора микротестов производительности OSU можно выполнить в соответствии с приведенными ниже инструкциями. Примеры использованных скриптов выложены на GitHub.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Пакет Mellanox Perftest включает много тестов для InfiniBand, в том числе тесты задержки (ib_send_lat) и пропускной способности (ib_send_bw). Ниже приведен пример такой команды.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Следующие шаги
- Узнайте больше о масштабировании приложений MPI.
- Ознакомьтесь с результатами производительности и масштабируемости приложений HPC на виртуальных машинах HBv3 в статье технического сообщества.
- Ознакомьтесь с последними объявлениями, примерами рабочей нагрузки HPC, а также результатами оценки производительности в блогах технического сообщества Вычислений Azure.
- Общие сведения об архитектурном представлении выполнения рабочих нагрузок HPC см. в статье Высокопроизводительные вычисления (HPC) в Azure.