HBv3 シリーズの仮想マシンのパフォーマンス
適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット
一般的な HPC マイクロベンチマークを使用したパフォーマンスの予測は次のとおりです。
ワークロード | HBv3 |
---|---|
STREAM Triad | 330 から 350 GB/秒 (最大 630 GB/秒まで増幅) |
High-Performance Linpack (HPL) | 4 TF (Rpeak、FP64)、120 コア VM サイズで 8 TF (Rpeak、FP32) |
RDMA の待機時間と帯域幅 | 1.2 マイクロ秒 (1 バイト)、192 GB/秒 (一方向) |
ローカル NVMe SSD の FIO (RAID0) | 7 GB/秒の読み取り、3 GB/秒の書き込み。186k IOPS 読み取り、201k IOPS 書き込み |
プロセス固定
プロセス固定が HBv3 シリーズ VM 上でうまく機能する理由は、基になるシリコンをそのままゲスト VM に公開しているからです。 最適なパフォーマンスと一貫性のために、プロセス固定を強くお勧めします。
MPI 待機時間
OSU マイクロベンチマーク スイートの MPI 待機時間テストは、ご覧のように実行できます。 サンプル スクリプトは GitHub にあります。
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI 帯域幅
OSU マイクロベンチマーク スイートの MPI 帯域幅テストは、次のように実行できます。 サンプル スクリプトは GitHub にあります。
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Mellanox Perftest パッケージには、待機時間 (ib_send_lat) や帯域幅 (ib_send_bw) などの多くの InfiniBand テストがあります。 コマンドの例を次に示します。
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
次の手順
- MPI アプリケーションのスケーリングについて学習する。
- HBv3 VM での HPC アプリケーションのパフォーマンスとスケーラビリティの結果については、TechCommunity の記事を照してください。
- Azure Compute Tech Community のブログで、最新の発表、HPC ワークロードの例、およびパフォーマンスの結果について参照します。
- アーキテクチャの面から見た HPC ワークロードの実行の概要については、「Azure でのハイ パフォーマンス コンピューティング (HPC)」を参照してください。