你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

HX 系列虚拟机性能

适用于:✔️ Linux VM ✔️ Windows VM ✔️ 灵活规模集 ✔️ 统一规模集

使用常见 HPC 微基准测试程序的性能预期如下:

工作负荷 HX
STREAM Triad 750-780GB/秒的 DDR5,高达 5.7 TB/秒的 3D-V 缓存带宽
高性能 Linpack (HPL) 对于 144 核的 VM 大小,最高可达 7.6 TF (Rpeak,FP64)
RDMA 延迟和带宽 < 2 微秒(1 字节),400 Gb/s(单向)
本地 NVMe SSD 上的 FIO (RAID0) 12 GB/s 的读取速度,7 GB/s 的写入速度;186,000 的 IOPS 读取速度,201,000 的 IOPS 写入速度

内存带宽测试

可以使用此 GitHub 存储库中的脚本运行 STREAM 内存测试。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/stream/ 
sh build_stream.sh 
sh stream_run_script.sh $PWD “hbrs_v4” 

计算性能测试

可以使用此 GitHub 存储库中的脚本运行 HPL 基准。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/hpl 
sh hpl_build_script.sh 
sh hpl_run_scr_hbv4.sh $PWD 

MPI 延迟

可执行 OSU 微基准测试程序套件中的 MPI 延迟测试,如下所示。 示例脚本位于 GitHub 上。

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency

MPI 带宽

可按如下所示执行 OSU 微基准测试程序套件中的 MPI 带宽测试。 示例脚本位于 GitHub 上。

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw

[!注意] 定义源 (src) 和目标 (dst)。

Mellanox Perftest

Mellanox Perftest 包具有许多 InfiniBand 测试,如延迟 (ib_send_lat) 和带宽 (ib_send_bw)。 显示了一个示例命令。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

[!注意] InfiniBand NIC 的 NUMA 节点相关性为 NUMA0。

后续步骤