Share via


VM-Größen der HBv2-Serie

Gilt für: ✔️ Linux VMs ✔️ Windows VMs ✔️ Flexible Skalensätze ✔️ Einheitliche Skalensätze

Für die VM-Größen der HBv2-Serie wurden zahlreiche Leistungstests durchgeführt. Im Anschluss finden Sie einige der Ergebnisse dieser Leistungstests:

Workload HBv2
STREAM Triad 350 GBit/s (21–23 GBit/s pro CCX)
High-Performance Linpack (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32)
RDMA-Wartezeit und -Bandbreite 1,2 Mikrosekunden, 190 GBit/s
FIO auf lokaler NVMe-SSD 2,7 GBit/s Lesevorgänge, 1,1 GBit/s Schreibvorgänge; 102.000 IOPS-Lesevorgänge, 115.000 IOPS-Schreibvorgänge
IOR auf acht* Azure SSD Premium-Datenträgern (verwaltete Datenträger vom Typ „P40“, RAID0)** 1,3 GBit/s Lesevorgänge, 2,5 GBit/s Schreibvorgänge; 101.000 IOPS-Lesevorgänge, 105.000 IOPS-Schreibvorgänge

MPI-Latenz

Der MPI-Latenztest von der OSU-Microbenchmark-Suite wird ausgeführt. Beispielskripts finden Sie auf GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Screenshot of MPI latency.

MPI-Bandbreite

Der MPI-Bandbreitentest von der OSU-Microbenchmark-Suite wird ausgeführt. Beispielskripts finden Sie auf GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot of MPI bandwidth.

Mellanox Perftest

Das Paket Mellanox Perftest enthält viele InfiniBand-Tests, z. B. Latenz (ib_send_lat) und Bandbreite (ib_send_bw). Im Folgenden finden Sie einen Beispielbefehl.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Nächste Schritte