Teilen über


VM-Größen der HB-Serie

Gilt für: ✔️ Linux-VMs ✔️ Windows-VMs ✔️ Flexible Skalierungsgruppen ✔️ Einheitliche Skalierungsgruppen

Für die Größen der HB-Serie wurden zahlreiche Leistungstests durchgeführt. Im Anschluss finden Sie einige der Ergebnisse dieser Leistungstests:

Workload HB
STREAM Triad 260 GB/s (32–33 GB/s pro CCX)
High-Performance Linpack (HPL) 1\.000 GigaFLOPs (Rpeak), 860 GigaFLOPs (Rmax)
RDMA-Wartezeit und -Bandbreite 1,27 Mikrosekunden, 99,1 GBit/s
FIO auf lokaler NVMe-SSD 1,7 GB/s Lesen, 1,0 GB/s Schreiben
IOR auf vier* Azure SSD Premium-Datenträgern (verwaltete Datenträger vom Typ „P30“, RAID0)** 725 MB/s Lesen, 780 MB/s Schreiben

MPI-Latenz

Der MPI-Latenztest von der OSU-Microbenchmark-Suite wird ausgeführt. Beispielskripts finden Sie auf GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

Screenshot der MPI-Latenz.

MPI-Bandbreite

Der MPI-Bandbreitentest von der OSU-Microbenchmark-Suite wird ausgeführt. Beispielskripts finden Sie auf GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot der MPI-Bandbreite.

Mellanox Perftest

Das Paket Mellanox Perftest enthält viele InfiniBand-Tests, z. B. Latenz (ib_send_lat) und Bandbreite (ib_send_bw). Im Folgenden finden Sie einen Beispielbefehl.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Nächste Schritte