Partager via


Tailles des machines virtuelles de la série HB

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Différents tests de performances ont été effectués sur les machines de série HB de différentes tailles. Voici certains des résultats obtenus.

Charge de travail HB
STREAM Triad 260 Go/s (32-33 Go/s par CCX)
Linpack hautes performances (HPL) 1 000 GigaFLOPS (Rpeak), 860 GigaFLOPS (Rmax)
Latence et bande passante RDMA 1,27 microseconde, 99,1 Gbits/s
FIO sur des disques SSD NVMe locaux 1,7 Gbit/s de lectures, 1 Gbit/s d’écritures
IOR sur 4* disques SSD Azure Premium (disques P30 managés, RAID0)** 725 Mo/s de lectures, 780 Mo/s d’écritures

Latence MPI

Le test de latence MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

Capture d’écran de la latence MPI.

Bande passante MPI

Le test de bande passante MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Capture d’écran de la bande passante MPI.

Mellanox Perftest

Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Étapes suivantes