適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集
使用常見 HPC 微基準測試的效能預期如下:
工作負載 | HBv4 |
---|---|
STREAM Triad | DDR5 可達 750-780 GB/秒,3D V-Cache 頻寬高達 5.7 TB/秒 |
高效能 Linpack (HPL) | 高達 7.6 TF (Rpeak, FP64) 適用於 144 核心 VM 大小 |
RDMA 延遲與頻寬 | < 2 微秒 (1 位元組),400 Gb/秒 (單向) |
本機 NVMe SSD (RAID0) 上的 FIO | 12 GB/秒讀取、7 GB/秒寫入;186,000 IOPS 讀取、201,000 IOPS 寫入 |
處理程序釘選
因為會依原樣向客體 VM 公開基礎晶片,因此處理程序釘選可在 HBv4 系列 VM 上順利執行。 強烈建議進行程序釘選以獲得最佳效能和一致性。
記憶體頻寬測試
您可以使用此 GitHub 存放庫中的指令碼,執行 STREAM 記憶體測試。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/stream/
sh build_stream.sh
sh stream_run_script.sh $PWD “hbrs_v4”
計算效能測試
您可以使用此 GitHub 存放庫中的指令碼,執行 HPL 基準測試。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/hpl
sh hpl_build_script.sh
sh hpl_run_scr_hbv4.sh $PWD
MPI 延遲
您可以從 OSU 微基準測試套件執行 MPI 延遲測試,如下所示。 範例指令碼位於 GitHub。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency
MPI 頻寬
您可以從 OSU 微基準測試套件執行 MPI 頻寬測試,如下所示。 範例指令碼位於 GitHub。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw
[!注意] 定義 source(src) 和 destination(dst)。
Mellanox Perftest
Mellanox Perftest 套件有許多 InfiniBand 測試,例如延遲 (ib_send_lat) 和頻寬 (ib_send_bw)。 範例命令如下所示。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
注意
[!注意] InfiniBand NIC 的 NUMA 節點親和性為 NUMA0。
下一步
- 了解調整 MPI 應用程式。
- 有關 HBv4 VM 上 HPC 應用程式的效能和可擴縮性結果,請參閱 TechCommunity 文章。
- 請參閱 Azure HPC Microsoft 社群中樞的最新公告、HPC 工作負載範例和效能結果。
- 如需執行中 HPC 工作負載的較高層級架構檢視,請參閱 Azure 上的高效能運算 (HPC)。