次の方法で共有


HX シリーズの仮想マシンのパフォーマンス

適用対象: ✔️ Linux VM ✔️ Windows VM ✔️ フレキシブル スケール セット ✔️ 均一スケール セット

一般的な HPC マイクロベンチマークを使用したパフォーマンスの予測は次のとおりです。

ワークロード HX
STREAM Triad DDR5 の 750 から 780 GB/秒、最大 5.7 TB/秒の 3D-V キャッシュ帯域幅
High-Performance Linpack (HPL) 144 コア VM サイズで最大 7.6 TF (Rpeak、FP64)
RDMA の待機時間と帯域幅 < 2 マイクロ秒 (1 バイト)、400 GB/秒 (一方向)
ローカル NVMe SSD の FIO (RAID0) 12 GB/秒の読み取り、7 GB/秒の書き込み。186k IOPS 読み取り、201k IOPS 書き込み

メモリ帯域幅テスト

STREAM メモリ テストは、この GitHub リポジトリのスクリプトを使用して実行できます。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/stream/ 
sh build_stream.sh 
sh stream_run_script.sh $PWD “hbrs_v4” 

コンピューティング パフォーマンス テスト

HPL ベンチマークは、この GitHub リポジトリのスクリプトを使用して実行できます。

git clone https://github.com/Azure/woc-benchmarking 
cd woc-benchmarking/apps/hpc/hpl 
sh hpl_build_script.sh 
sh hpl_run_scr_hbv4.sh $PWD 

MPI 待機時間

OSU マイクロベンチマーク スイートの MPI 待機時間テストは、ご覧のように実行できます。 サンプル スクリプトは GitHub にあります。

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_latency

MPI 帯域幅

OSU マイクロベンチマーク スイートの MPI 帯域幅テストは、次に示すように実行できます。 サンプル スクリプトは GitHub にあります。

module load mpi/hpcx 
mpirun -np 2 --host $src,$dst --map-by node -x LD_LIBRARY_PATH $HPCX_OSU_DIR/osu_bw

[! 注] source(src) と destination(dst) を定義してください。

Mellanox Perftest

Mellanox Perftest パッケージには、待機時間 (ib_send_lat) や帯域幅 (ib_send_bw) などの多くの InfiniBand テストがあります。 コマンドの例を示します。

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

[! 注] InfiniBand NIC の NUMA ノード アフィニティは NUMA0 です。

次の手順