Partage via


Tailles des machines virtuelles de la série HBv2

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Plusieurs tests de performance ont été exécutés sur des machines virtuelles de HBv2 taille. Voici certains des résultats obtenus.

Charge de travail HBv2
STREAM Triad 350 Go/s (21-23 Go/s par CCX)
Linpack hautes performances (HPL) 4 téraflops (Rpeak, FP64), 8 téraflops (Rmax, FP32)
Latence et bande passante RDMA 1,2 microsecondes, 190 Go/s
FIO sur des disques SSD NVMe locaux 2,7 Go/s lectures, 1,1 Go/s écrits ; lectures d’e/s par seconde de 102 000, 115 écritures IOPS
IOR sur 8 * SSD Premium Azure (P40 Managed Disks, RAID0) ** 1,3 Go/s lectures, 2,5 Go/écritures; lectures IOPS 101 000, écritures IOPS 105 000

Latence MPI

Le test de latence MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Capture d’écran de la latence MPI.

Bande passante MPI

Le test de bande passante MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Capture d’écran de la bande passante MPI.

Mellanox Perftest

Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Étapes suivantes