Tailles des machines virtuelles de la série HBv2
S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes
Plusieurs tests de performance ont été exécutés sur des machines virtuelles de HBv2 taille. Voici certains des résultats obtenus.
Charge de travail | HBv2 |
---|---|
STREAM Triad | 350 Go/s (21-23 Go/s par CCX) |
Linpack hautes performances (HPL) | 4 téraflops (Rpeak, FP64), 8 téraflops (Rmax, FP32) |
Latence et bande passante RDMA | 1,2 microsecondes, 190 Go/s |
FIO sur des disques SSD NVMe locaux | 2,7 Go/s lectures, 1,1 Go/s écrits ; lectures d’e/s par seconde de 102 000, 115 écritures IOPS |
IOR sur 8 * SSD Premium Azure (P40 Managed Disks, RAID0) ** | 1,3 Go/s lectures, 2,5 Go/écritures; lectures IOPS 101 000, écritures IOPS 105 000 |
Latence MPI
Le test de latence MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
Bande passante MPI
Le test de bande passante MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Étapes suivantes
- Consultez les dernières annonces, des exemples de charge de travail HPC et les résultats des performances sur les blogs de la communauté Azure Compute Tech.
- Pour une vision plus globale de l’architecture d’exécution des charges de travail HPC, consultez Calcul haute performance (HPC) sur Azure.