Share via


HBv3 シリーズの仮想マシンのパフォーマンス

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット

一般的な HPC マイクロベンチマークを使用したパフォーマンスの予測は次のとおりです。

ワークロード HBv3
STREAM Triad 330 から 350 GB/秒 (最大 630 GB/秒まで増幅)
High-Performance Linpack (HPL) 4 TF (Rpeak、FP64)、120 コア VM サイズで 8 TF (Rpeak、FP32)
RDMA の待機時間と帯域幅 1.2 マイクロ秒 (1 バイト)、192 GB/秒 (一方向)
ローカル NVMe SSD の FIO (RAID0) 7 GB/秒の読み取り、3 GB/秒の書き込み。186k IOPS 読み取り、201k IOPS 書き込み

プロセス固定

プロセス固定が HBv3 シリーズ VM 上でうまく機能する理由は、基になるシリコンをそのままゲスト VM に公開しているからです。 最適なパフォーマンスと一貫性のために、プロセス固定を強くお勧めします。

MPI 待機時間

OSU マイクロベンチマーク スイートの MPI 待機時間テストは、ご覧のように実行できます。 サンプル スクリプトは GitHub にあります。

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

MPI 帯域幅

OSU マイクロベンチマーク スイートの MPI 帯域幅テストは、次のように実行できます。 サンプル スクリプトは GitHub にあります。

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Mellanox Perftest

Mellanox Perftest パッケージには、待機時間 (ib_send_lat) や帯域幅 (ib_send_bw) などの多くの InfiniBand テストがあります。 コマンドの例を次に示します。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

次の手順