HBv5 シリーズの仮想マシンのパフォーマンス

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ ユニフォーム スケール セット

一般的な HPC マイクロベンチマークを使用したパフォーマンスの期待値は次のとおりです。

ワークロード HBv5
STREAM Triad ≈ 6.6 TB/秒
High-Performance Linpack (HPL) 368 コア VM サイズで最大 16 TF (Rpeak、FP64)
RDMA 待機時間と帯域幅 < 2 マイクロ秒 (1 バイト)、800 Gb/秒 (一方向)
ローカル NVMe SSD 上の FIO (RAID0) 50 GB/秒の読み取り、30 GB/秒の書き込み

プロセス固定

基になるシリコン as-is をゲスト VM に公開するため、プロセスのピン留めは HBv5 シリーズの VM で適切に機能します。 最適なパフォーマンスと一貫性を得るためのプロセスピン留めを強くお勧めします。

STREAM メモリ帯域幅テスト

STREAM メモリ テストは、この GitHub リポジトリのスクリプトを使用して実行できます。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/stream/ 
sh build_stream.sh 
sh stream_run_script.sh $PWD “hbrs_v5” 

コンピューティング パフォーマンス テスト

この GITHub リポジトリのスクリプトを使用して、HPL ベンチマークを実行できます。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/hpl 
sh hpl_build_script.sh 
sh hpl_run_scr_HBv5.sh $PWD 

MPI 待機時間

OSU microbenchmark スイートからの MPI 待機時間テストは、次のように実行できます。 サンプル スクリプトは GitHub にあります

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency

source(src) と destination(dst) を定義します。

MPI 帯域幅

OSU microbenchmark スイートからの MPI 帯域幅テストは、以下に従って実行できます。 サンプル スクリプトは GitHub にあります

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw

次のステップ