Partage via


Tailles des machines virtuelles de la série HC

S’applique à : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Jeux d’échelles flexibles ✔️ Jeux d’échelles uniformes

Différents tests de performances ont été effectués sur les machines de série HC de différentes tailles. Voici certains des résultats obtenus.

Charge de travail HB
STREAM Triad 190 Go/s (Intel MLC AVX-512)
Linpack hautes performances (HPL) 3520 GigaFLOPS (Rpeak), 2970 GigaFLOPS (Rmax)
Latence et bande passante RDMA 1,05 microseconde, 96,8 Gbits/s
FIO sur des disques SSD NVMe locaux 1,3 Go/s de lectures, 900 Mo/s d’écritures
IOR sur 4 disques SSD Azure Premium (disques P30 managés, RAID0)** 780 Mo/s de lectures, 780 Mo/s d’écritures

Latence MPI

Le test de latence MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

Capture d’écran de la latence MPI.

Bande passante MPI

Le test de bande passante MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Capture d’écran de la bande passante MPI.

Mellanox Perftest

Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Étapes suivantes