Performances de la taille de machine virtuelle de la série HBv3
S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes
Les attentes en matière de performances à l’aide des microbenchmarks HPC courants sont les suivantes :
Charge de travail | HBv3 |
---|---|
STREAM Triad | 330 à 350 Go/s (amplifié jusqu’à 630 Go/s) |
Linpack hautes performances (HPL) | 4 TF (Rpeak, FP64),8 TF (Rpeak, FP32) pour la taille de machine virtuelle 120 cœurs |
Latence et bande passante RDMA | 1,2 microseconde (1 octet), 192 Gbits/s (unidirectionnel) |
FIO sur des disques SSD NVMe locaux (RAID0) | 7 Go/s lectures, 3 Go/s écritures ; 186 000 IOPS lectures, 201 000 IOPS écritures |
Épinglage de processus
L’épinglage de processus fonctionne bien sur les machines virtuelles de la série HBv3, car nous exposons le silicium sous-jacent tel quel à la machine virtuelle invitée. Nous recommandons vivement l’épinglage de processus (process pinning) à des fins de performances optimales.
Latence MPI
Le test de latence MPI à partir de la suite de microtest OSU peut être exécuté comme illustré. Les exemples de scripts se trouvent sur GitHub.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
Bande passante MPI
Le test de bande passante MPI à partir de la suite de microtest OSU peut être exécuté comme indiqué ci-dessous. Les exemples de scripts se trouvent sur GitHub.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Étapes suivantes
- En savoir plus sur la mise à l’échelle des applications MPI.
- Vérifiez les résultats des performances et de l’évolutivité des applications HPC sur les machines virtuelles HBv3 en consultant l’article TechCommunity.
- Consultez les dernières annonces, des exemples de charge de travail HPC et les résultats des performances sur les blogs de la communauté Azure Compute Tech.
- Pour une vision plus globale de l’architecture d’exécution des charges de travail HPC, consultez Calcul haute performance (HPC) sur Azure.
Commentaires
https://aka.ms/ContentUserFeedback.
Prochainement : Tout au long de l'année 2024, nous supprimerons progressivement les GitHub Issues en tant que mécanisme de retour d'information pour le contenu et nous les remplacerons par un nouveau système de retour d'information. Pour plus d’informations, voir:Soumettre et afficher des commentaires pour