適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット
一般的な HPC マイクロベンチマークを使用したパフォーマンスの予測は次のとおりです。
| ワークロード | HX |
|---|---|
| STREAM Triad | DDR5 の 750 から 780 GB/秒、最大 5.7 TB/秒の 3D-V キャッシュ帯域幅 |
| High-Performance Linpack (HPL) | 144 コア VM サイズで最大 7.6 TF (Rpeak、FP64) |
| RDMA の待機時間と帯域幅 | < 2 マイクロ秒 (1 バイト)、400 GB/秒 (一方向) |
| ローカル NVMe SSD の FIO (RAID0) | 12 GB/秒の読み取り、7 GB/秒の書き込み。186k IOPS 読み取り、201k IOPS 書き込み |
メモリ帯域幅テスト
STREAM メモリ テストは、この GitHub リポジトリのスクリプトを使用して実行できます。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/stream/
sh build_stream.sh
sh stream_run_script.sh $PWD “hbrs_v4”
コンピューティング パフォーマンス テスト
HPL ベンチマークは、この GitHub リポジトリのスクリプトを使用して実行できます。
git clone https://github.com/Azure/woc-benchmarking
cd woc-benchmarking/apps/hpc/hpl
sh hpl_build_script.sh
sh hpl_run_scr_hbv4.sh $PWD
MPI 待機時間
OSU マイクロベンチマーク スイートの MPI 待機時間テストは、ご覧のように実行できます。 サンプル スクリプトは GitHub にあります。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency
MPI 帯域幅
OSU マイクロベンチマーク スイートの MPI 帯域幅テストは、次に示すように実行できます。 サンプル スクリプトは GitHub にあります。
module load mpi/hpcx
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw
[! 注] source(src) と destination(dst) を定義してください。
Mellanox Perftest
Mellanox Perftest パッケージには、待機時間 (ib_send_lat) や帯域幅 (ib_send_bw) などの多くの InfiniBand テストがあります。 コマンドの例を示します。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
[! 注] InfiniBand NIC の NUMA ノード アフィニティは NUMA0 です。
次の手順
- MPI アプリケーションのスケーリングについて学習する。
- HX VM での HPC アプリケーションのパフォーマンスとスケーラビリティの結果については、TechCommunity の記事を参照してください。
- Azure HPC Microsoft コミュニティ ハブで、最新の発表、HPC ワークロードの例、パフォーマンスの結果についてご覧ください。
- アーキテクチャの面から見た HPC ワークロードの実行の概要については、「Azure でのハイ パフォーマンス コンピューティング (HPC)」を参照してください。