共用方式為


HBv4 系列虛擬機器效能

適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集

使用常見 HPC 微基準測試的效能預期如下:

工作負載 HBv4
STREAM Triad DDR5 可達 750-780 GB/秒,3D V-Cache 頻寬高達 5.7 TB/秒
高效能 Linpack (HPL) 高達 7.6 TF (Rpeak, FP64) 適用於 144 核心 VM 大小
RDMA 延遲與頻寬 < 2 微秒 (1 位元組),400 Gb/秒 (單向)
本機 NVMe SSD (RAID0) 上的 FIO 12 GB/秒讀取、7 GB/秒寫入;186,000 IOPS 讀取、201,000 IOPS 寫入

處理程序釘選

因為會依原樣向客體 VM 公開基礎晶片,因此處理程序釘選可在 HBv4 系列 VM 上順利執行。 強烈建議進行程序釘選以獲得最佳效能和一致性。

記憶體頻寬測試

您可以使用此 GitHub 存放庫中的指令碼,執行 STREAM 記憶體測試。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/stream/ 
sh build_stream.sh 
sh stream_run_script.sh $PWD “hbrs_v4” 

計算效能測試

您可以使用此 GitHub 存放庫中的指令碼,執行 HPL 基準測試。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/hpl 
sh hpl_build_script.sh 
sh hpl_run_scr_hbv4.sh $PWD 

MPI 延遲

您可以從 OSU 微基準測試套件執行 MPI 延遲測試,如下所示。 範例指令碼位於 GitHub

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency

MPI 頻寬

您可以從 OSU 微基準測試套件執行 MPI 頻寬測試,如下所示。 範例指令碼位於 GitHub

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw

[!注意] 定義 source(src) 和 destination(dst)。

Mellanox Perftest

Mellanox Perftest 套件有許多 InfiniBand 測試,例如延遲 (ib_send_lat) 和頻寬 (ib_send_bw)。 範例命令如下所示。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

注意

[!注意] InfiniBand NIC 的 NUMA 節點親和性為 NUMA0。

下一步