Delen via


Prestaties van virtuele machines uit de HBv3-serie

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️

Prestatie verwachtingen met behulp van algemene HPC microbenchmarks zijn als volgt:

Workload HBv3
STREAM Triad 330-350 GB/s (versterkt tot 630 GB/s)
High Performance Linpack (HPL) 4 TF (Rpeak, FP64), 8 TF (Rpeak, FP32) voor VM-grootte van 120 kernen
RDMA-latentie en bandbreedte 1,2 microseconden (1 byte), 192 GB/s (eenrichtings)
FIO op lokale NVMe-SCHIJVEN (RAID0) 7 GB/s leesbewerkingen, 3 GB/s schrijfbewerkingen; 186k IOPS-leesbewerkingen, 201k IOPS-schrijfbewerkingen

Procespinning

Procespinning werkt goed op VM's uit de HBv3-serie, omdat we het onderliggende silicium als zodanig beschikbaar maken voor de gast-VM. We raden het vastmaken van processen ten zeerste aan voor optimale prestaties en consistentie.

MPI-latentie

De MPI-latentietest van de OSU microbenchmark-suite kan worden uitgevoerd zoals wordt weergegeven. Voorbeeldscripts bevinden zich op GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

MPI-bandbreedte

De MPI-bandbreedtetest van de OSU microbenchmark suite kan per onderstaande worden uitgevoerd. Voorbeeldscripts bevinden zich op GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Mellanox Perftest

Het Mellanox Perftest-pakket heeft veel InfiniBand-tests, zoals latentie (ib_send_lat) en bandbreedte (ib_send_bw). Hieronder ziet u een voorbeeldopdracht.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Volgende stappen