Delen via


Grootten van virtuele machines van de HBv2-serie

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️

Er zijn verschillende prestatietests uitgevoerd op VM's uit de HBv2-serie . Hier volgen enkele van de resultaten van deze prestatietests.

Workload HBv2
STREAM Triad 350 GB/s (21-23 GB/s per CCX)
High Performance Linpack (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32)
RDMA-latentie en bandbreedte 1,2 microseconden, 190 Gb/s
FIO op lokale NVMe SSD 2,7 GB/s leesbewerkingen, 1,1 GB/s schrijfbewerkingen; 102k IOPS-leesbewerkingen, 115 IOPS-schrijfbewerkingen
IOR op 8 * Azure Premium SSD (P40 Managed Disks, RAID0)** 1,3 GB/s leesbewerkingen, 2,5 GB/schrijfbewerkingen; 101k IOPS-leesbewerkingen, 105.000 IOPS-schrijfbewerkingen

MPI-latentie

MPI-latentietest van de OSU microbenchmark-suite wordt uitgevoerd. Voorbeeldscripts bevinden zich op GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Schermopname van MPI-latentie.

MPI-bandbreedte

MPI-bandbreedtetest van de OSU microbenchmark suite wordt uitgevoerd. Voorbeeldscripts bevinden zich op GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Schermopname van MPI-bandbreedte.

Mellanox Perftest

Het Mellanox Perftest-pakket heeft veel InfiniBand-tests, zoals latentie (ib_send_lat) en bandbreedte (ib_send_bw). Hieronder ziet u een voorbeeldopdracht.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Volgende stappen