Tailles des machines virtuelles de la série HB
S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes
Différents tests de performances ont été effectués sur les machines de série HB de différentes tailles. Voici certains des résultats obtenus.
Charge de travail | HB |
---|---|
STREAM Triad | 260 Go/s (32-33 Go/s par CCX) |
Linpack hautes performances (HPL) | 1 000 GigaFLOPS (Rpeak), 860 GigaFLOPS (Rmax) |
Latence et bande passante RDMA | 1,27 microseconde, 99,1 Gbits/s |
FIO sur des disques SSD NVMe locaux | 1,7 Gbit/s de lectures, 1 Gbit/s d’écritures |
IOR sur 4* disques SSD Azure Premium (disques P30 managés, RAID0)** | 725 Mo/s de lectures, 780 Mo/s d’écritures |
Latence MPI
Le test de latence MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
Bande passante MPI
Le test de bande passante MPI de la suite de microbenchmark OSU est exécuté. Les exemples de scripts se trouvent sur GitHub
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Le package Mellanox Peretpt comporte de nombreux tests InfiniBand tels que la latence (ib_send_lat) et la bande passante (ib_send_bw). Vous trouverez ci-dessous un exemple de commande.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Étapes suivantes
- Consultez les dernières annonces, des exemples de charge de travail HPC et les résultats des performances sur les blogs de la communauté Azure Compute Tech.
- Pour une vision plus globale de l’architecture d’exécution des charges de travail HPC, consultez Calcul haute performance (HPC) sur Azure.