HBv3 系列虛擬機器效能
適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集
使用常見 HPC 微基準測試的效能預期如下:
工作負載 | HBv3 |
---|---|
STREAM Triad | 330-350 GB/秒 (最多放大 630 GB/秒) |
高效能 Linpack (HPL) | 4 TF (Rpeak,FP64)、8 TF (Rpeak,FP32) 適用於 120 核心 VM 大小 |
RDMA 延遲與頻寬 | 1.2 微秒 (1 位元組),192 GB/秒 (單向) |
本機 NVMe SSD (RAID0) 上的 FIO | 7 GB/秒讀取、3 GB/秒寫入;186k IOPS 讀取、201k IOPS 寫入 |
處理程序釘選
處理程序釘選會在 HBv3 系列 VM 上運作,因為我們會依原樣向客體 VM 公開基礎晶片。 強烈建議進行程序釘選以獲得最佳效能和一致性。
MPI 延遲
您可以從 OSU 微基準測試套件執行 MPI 延遲測試,如下所示。 範例指令碼位於 GitHub。
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI 頻寬
您可以從 OSU 微基準測試套件執行 MPI 頻寬測試,如下所示。 範例指令碼位於 GitHub。
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Mellanox Perftest 套件有許多 InfiniBand 測試,例如延遲 (ib_send_lat) 和頻寬 (ib_send_bw)。 範例命令如下所示。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
下一步
- 了解調整 MPI 應用程式。
- 在 TechCommunity 文章中,檢閱 HBv3 VM 上 HPC 應用程式的效能和可擴縮性結果。
- 請參閱 Azure 計算技術社群部落格的最新公告、HPC 工作負載範例和效能結果。
- 如需執行中 HPC 工作負載的較高層級架構檢視,請參閱 Azure 上的高效能運算 (HPC)。