Partager via


Performances de la taille de machine virtuelle de la série HBv3

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Les attentes en matière de performances à l’aide des microbenchmarks HPC courants sont les suivantes :

Charge de travail HBv3
STREAM Triad 330 à 350 Go/s (amplifié jusqu’à 630 Go/s)
Linpack hautes performances (HPL) 4 TF (Rpeak, FP64),8 TF (Rpeak, FP32) pour la taille de machine virtuelle 120 cœurs
Latence et bande passante RDMA 1,2 microseconde (1 octet), 192 Gbits/s (unidirectionnel)
FIO sur des disques SSD NVMe locaux (RAID0) 7 Go/s lectures, 3 Go/s écritures ; 186 000 IOPS lectures, 201 000 IOPS écritures

Épinglage de processus

L’épinglage de processus fonctionne bien sur les machines virtuelles de la série HBv3, car nous exposons le silicium sous-jacent tel quel à la machine virtuelle invitée. Nous recommandons vivement l’épinglage de processus (process pinning) à des fins de performances optimales.

Latence MPI

Le test de latence MPI à partir de la suite de microtest OSU peut être exécuté comme illustré. Les exemples de scripts se trouvent sur GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Bande passante MPI

Le test de bande passante MPI à partir de la suite de microtest OSU peut être exécuté comme indiqué ci-dessous. Les exemples de scripts se trouvent sur GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Mellanox Perftest

Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Étapes suivantes