你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
适用于:✔️ Linux VM ✔️ Windows VM ✔️ 灵活规模集 ✔️ 统一规模集
使用常见 HPC 微基准测试程序的性能预期如下:
工作负荷 | HX |
---|---|
STREAM Triad | 750-780GB/秒的 DDR5,高达 5.7 TB/秒的 3D-V 缓存带宽 |
高性能 Linpack (HPL) | 对于 144 核的 VM 大小,最高可达 7.6 TF (Rpeak,FP64) |
RDMA 延迟和带宽 | < 2 微秒(1 字节),400 Gb/s(单向) |
本地 NVMe SSD 上的 FIO (RAID0) | 12 GB/s 的读取速度,7 GB/s 的写入速度;186,000 的 IOPS 读取速度,201,000 的 IOPS 写入速度 |
内存带宽测试
可以使用此 GitHub 存储库中的脚本运行 STREAM 内存测试。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/stream/
sh build_stream.sh
sh stream_run_script.sh $PWD “hbrs_v4”
计算性能测试
可以使用此 GitHub 存储库中的脚本运行 HPL 基准。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/hpl
sh hpl_build_script.sh
sh hpl_run_scr_hbv4.sh $PWD
MPI 延迟
可执行 OSU 微基准测试程序套件中的 MPI 延迟测试,如下所示。 示例脚本位于 GitHub 上。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency
MPI 带宽
可按如下所示执行 OSU 微基准测试程序套件中的 MPI 带宽测试。 示例脚本位于 GitHub 上。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw
[!注意] 定义源 (src) 和目标 (dst)。
Mellanox Perftest
Mellanox Perftest 包具有许多 InfiniBand 测试,如延迟 (ib_send_lat) 和带宽 (ib_send_bw)。 显示了一个示例命令。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
[!注意] InfiniBand NIC 的 NUMA 节点相关性为 NUMA0。
后续步骤
- 了解有关缩放 MPI 应用程序的信息。
- 有关 HX VM 上的 HPC 应用程序的性能和可伸缩性结果,请参阅技术社区文章。
- 在 Azure HPC Microsoft 社区中心阅读最新公告、HPC 工作负载示例和性能结果。
- 若要从体系结构角度更概略性地看待如何运行 HPC 工作负载,请参阅 Azure 上的高性能计算 (HPC)。