Dimensioni delle macchine virtuali serie HBv2

Si applica a: ✔️ Macchine virtuali ✔️ Linux Macchine virtuali ✔️ Windows Set di scalabilità flessibili Set ✔️ di scalabilità uniformi

Sono stati eseguiti diversi test delle prestazioni nelle macchine virtuali con dimensioni della serie HBv2. Di seguito sono riportati alcuni dei risultati di questo test delle prestazioni.

Carico di lavoro HBv2
Triade STREAM 350 GB/s (21-23 GB/s per CCX)
Linpack ad alte prestazioni (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32)
Latenza e larghezza di banda RDMA 1,2 microsecondi, 190 Gb/s
FIO nell'unità SSD NVMe locale Letture da 2,7 GB/s, 1,1 GB/s; Letture di 102.000 operazioni di I/O al secondo, 115 operazioni di I/O al secondo
IOR su 8 * UNITÀ SSD Premium di Azure (P40 Managed Disks, RAID0)** Letture da 1,3 GB/s, 2,5 GB/scrittura; Letture di 101.000 operazioni di I/O al secondo, 105.000 scritture di I/O al secondo

Latenza MPI

Viene eseguito il test di latenza MPI della suite microbenchmark OSU. Gli script di esempio sono disponibili in GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Screenshot of MPI latency.

Larghezza di banda MPI

Viene eseguito il test della larghezza di banda MPI della suite microbenchmark OSU. Gli script di esempio sono disponibili in GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot of MPI bandwidth.

Mellanox Perftest

Il pacchetto Mellanox Perftest include molti test InfiniBand, ad esempio latenza (ib_send_lat) e larghezza di banda (ib_send_bw). Di seguito è riportato un comando di esempio.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Passaggi successivi

  • Per informazioni sugli annunci più recenti, sugli esempi di carico di lavoro HPC e sui risultati delle prestazioni, vedere i blog della community tecnica di calcolo di Azure.
  • Per una vista architetturale di livello superiore dell'esecuzione di carichi di lavoro HPC, vedere High Performance Computing (HPC) in Azure.