次の方法で共有


HB シリーズの仮想マシンのサイズ

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット

HB シリーズのサイズについては、いくつかのパフォーマンス テストが実行されています。 このパフォーマンス テストの結果の一部を次に示します。

ワークロード HB
STREAM Triad 260 GB/秒 (CCX あたり 32-33 GB/秒)
High-Performance Linpack (HPL) 1,000 GigaFLOPS (Rpeak)、860 GigaFLOPS (Rmax)
RDMA の待機時間と帯域幅 1.27 マイクロ秒、99.1 Gb/秒
ローカル NVMe SSD 上の FIO 1.7 GB/秒の読み取り、1.0 GB/秒の書き込み
4 * Azure Premium SSD 上の IOR (P30 マネージド ディスク、RAID0)** 725 MB/秒の読み取り、780 MB/秒の書き込み

MPI 待機時間

OSU マイクロベンチマーク スイートからの MPI 待機時間テストが実行されます。 サンプル スクリプトは GitHub にあります

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

MPI 待機時間のスクリーンショット。

MPI 帯域幅

OSU マイクロベンチマーク スイートからの MPI 帯域幅テストが実行されます。 サンプル スクリプトは GitHub にあります

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

MPI 帯域幅のスクリーンショット。

Mellanox Perftest

Mellanox Perftest パッケージには、待機時間 (ib_send_lat) や帯域幅 (ib_send_bw) などの多くの InfiniBand テストがあります。 コマンドの例を次に示します。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

次の手順