適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ ユニフォーム スケール セット
一般的な HPC マイクロベンチマークを使用したパフォーマンスの期待値は次のとおりです。
| ワークロード | HBv5 |
|---|---|
| STREAM Triad | ≈ 6.6 TB/秒 |
| High-Performance Linpack (HPL) | 368 コア VM サイズで最大 16 TF (Rpeak、FP64) |
| RDMA 待機時間と帯域幅 | < 2 マイクロ秒 (1 バイト)、800 Gb/秒 (一方向) |
| ローカル NVMe SSD 上の FIO (RAID0) | 50 GB/秒の読み取り、30 GB/秒の書き込み |
プロセス固定
基になるシリコン as-is をゲスト VM に公開するため、プロセスのピン留めは HBv5 シリーズの VM で適切に機能します。 最適なパフォーマンスと一貫性を得るためのプロセスピン留めを強くお勧めします。
STREAM メモリ帯域幅テスト
STREAM メモリ テストは、この GitHub リポジトリのスクリプトを使用して実行できます。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/stream/
sh build_stream.sh
sh stream_run_script.sh $PWD “hbrs_v5”
コンピューティング パフォーマンス テスト
この GITHub リポジトリのスクリプトを使用して、HPL ベンチマークを実行できます。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/hpl
sh hpl_build_script.sh
sh hpl_run_scr_HBv5.sh $PWD
MPI 待機時間
OSU microbenchmark スイートからの MPI 待機時間テストは、次のように実行できます。 サンプル スクリプトは GitHub にあります。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency
注
source(src) と destination(dst) を定義します。
MPI 帯域幅
OSU microbenchmark スイートからの MPI 帯域幅テストは、以下に従って実行できます。 サンプル スクリプトは GitHub にあります。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw
次のステップ
- MPI アプリケーションのスケーリングについて説明します。
- Azure HPC Microsoft Community Hub での最新のお知らせ、HPC ワークロードの例、パフォーマンスの結果について説明します。
- アーキテクチャの面から見た HPC ワークロードの実行の概要については、「Azure でのハイ パフォーマンス コンピューティング (HPC)」を参照してください。