Condividi tramite


Dimensioni delle macchine virtuali serie HBv2

Si applica a: ✔️ macchine virtuali Linux ✔️ macchine virtuali Windows ✔️ set di scalabilità flessibili ✔️ set di scalabilità uniformi

Sono stati eseguiti diversi test delle prestazioni nelle macchine virtuali con dimensioni della serie HBv2. Di seguito sono riportati alcuni dei risultati di questo test delle prestazioni.

Carico di lavoro HBv2
Triade STREAM 350 GB/s (21-23 GB/s per CCX)
Linpack ad alte prestazioni (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32)
Latenza e larghezza di banda RDMA 1,2 microsecondi, 190 Gb/s
FIO nell'unità SSD NVMe locale Letture da 2,7 GB/s, 1,1 GB/s; Letture di 102.000 operazioni di I/O al secondo, 115 operazioni di I/O al secondo
IOR su 8 * UNITÀ SSD Premium di Azure (P40 Managed Disks, RAID0)** Letture da 1,3 GB/s, 2,5 GB/scrittura; Letture di 101.000 operazioni di I/O al secondo, 105.000 scritture di I/O al secondo

Latenza MPI

Viene eseguito il test di latenza MPI della suite microbenchmark OSU. Gli script di esempio sono disponibili in GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Screenshot della latenza MPI.

Larghezza di banda MPI

Viene eseguito il test della larghezza di banda MPI della suite microbenchmark OSU. Gli script di esempio sono disponibili in GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot della larghezza di banda MPI.

Mellanox Perftest

Il pacchetto Mellanox Perftest include molti test InfiniBand, ad esempio latenza (ib_send_lat) e larghezza di banda (ib_send_bw). Di seguito è riportato un comando di esempio.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Passaggi successivi