Performances de la taille de machine virtuelle de la série HBv3
S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes
Les attentes en matière de performances à l’aide des microbenchmarks HPC courants sont les suivantes :
Charge de travail | HBv3 |
---|---|
STREAM Triad | 330 à 350 Go/s (amplifié jusqu’à 630 Go/s) |
Linpack hautes performances (HPL) | 4 TF (Rpeak, FP64),8 TF (Rpeak, FP32) pour la taille de machine virtuelle 120 cœurs |
Latence et bande passante RDMA | 1,2 microseconde (1 octet), 192 Gbits/s (unidirectionnel) |
FIO sur des disques SSD NVMe locaux (RAID0) | 7 Go/s lectures, 3 Go/s écritures ; 186 000 IOPS lectures, 201 000 IOPS écritures |
Épinglage de processus
L’épinglage de processus fonctionne bien sur les machines virtuelles de la série HBv3, car nous exposons le silicium sous-jacent tel quel à la machine virtuelle invitée. Nous recommandons vivement l’épinglage de processus (process pinning) à des fins de performances optimales.
Latence MPI
Le test de latence MPI à partir de la suite de microtest OSU peut être exécuté comme illustré. Les exemples de scripts se trouvent sur GitHub.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
Bande passante MPI
Le test de bande passante MPI à partir de la suite de microtest OSU peut être exécuté comme indiqué ci-dessous. Les exemples de scripts se trouvent sur GitHub.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Étapes suivantes
- En savoir plus sur la mise à l’échelle des applications MPI.
- Vérifiez les résultats des performances et de l’évolutivité des applications HPC sur les machines virtuelles HBv3 en consultant l’article TechCommunity.
- Consultez les dernières annonces, des exemples de charge de travail HPC et les résultats des performances sur les blogs de la communauté Azure Compute Tech.
- Pour une vision plus globale de l’architecture d’exécution des charges de travail HPC, consultez Calcul haute performance (HPC) sur Azure.