Производительность виртуальных машин серии HX
Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы
Ниже приведены ожидаемые показатели производительности на основе стандартных микротестов производительности HPC.
Рабочая нагрузка | HX |
---|---|
STREAM Triad | 750-780 ГБ/с DDR5, до 5,7 ТБ/с пропускной способности кэша 3D-V |
High-Performance Linpack (HPL) | До 7,6 TF (Rpeak, FP64) для 144-ядра виртуальной машины |
Задержка и пропускная способность RDMA | < 2 микросекунда (1 байт), 400 Гб/с (односторонняя версия) |
FIO на локальном твердотельном накопителе NVMe (RAID0) | 12 ГБ/с операций чтения, 7 ГБ/с записи; Операции чтения операций ввода-вывода в секунду 186k, операции записи операций ввода-вывода в секунду 201k |
Тест пропускной способности памяти
Тест памяти STREAM можно запустить с помощью скриптов в этом репозитории GitHub.
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/stream/
sh build_stream.sh
sh stream_run_script.sh $PWD “hbrs_v4”
Тест производительности вычислений
Тест HPL можно запустить с помощью скрипта в этом репозитории GitHub.
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/hpl
sh hpl_build_script.sh
sh hpl_run_scr_hbv4.sh $PWD
Задержка MPI
Тест задержки MPI из набора микробнхмарков OSU можно выполнить, как показано ниже. Примеры использованных скриптов выложены на GitHub.
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency
Пропускная способность MPI
Тест пропускной способности MPI из набора микробнчмарков OSU можно выполнить, как показано ниже. Примеры использованных скриптов выложены на GitHub.
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw
[! ПРИМЕЧАНИЕ] Определение источников и назначения (dst).
Mellanox Perftest
Пакет Mellanox Perftest включает много тестов для InfiniBand, в том числе тесты задержки (ib_send_lat) и пропускной способности (ib_send_bw). Показана примерная команда.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
[! ПРИМЕЧАНИЕ] Сходство узлов NUMA для сетевого адаптера InfiniBand — NUMA0.
Следующие шаги
- Узнайте больше о масштабировании приложений MPI.
- Просмотрите результаты производительности и масштабируемости приложений HPC на виртуальных машинах HX в статье TechCommunity.
- Ознакомьтесь с последними объявлениями, примерами рабочих нагрузок HPC и результатами производительности в Центре сообщества Microsoft HpC Azure.
- Общие сведения об архитектурном представлении выполнения рабочих нагрузок HPC см. в статье Высокопроизводительные вычисления (HPC) в Azure.