VM-Größen der HBv2-Serie
Gilt für: ✔️ Linux VMs ✔️ Windows VMs ✔️ Flexible Skalensätze ✔️ Einheitliche Skalensätze
Für die VM-Größen der HBv2-Serie wurden zahlreiche Leistungstests durchgeführt. Im Anschluss finden Sie einige der Ergebnisse dieser Leistungstests:
Workload | HBv2 |
---|---|
STREAM Triad | 350 GBit/s (21–23 GBit/s pro CCX) |
High-Performance Linpack (HPL) | 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32) |
RDMA-Wartezeit und -Bandbreite | 1,2 Mikrosekunden, 190 GBit/s |
FIO auf lokaler NVMe-SSD | 2,7 GBit/s Lesevorgänge, 1,1 GBit/s Schreibvorgänge; 102.000 IOPS-Lesevorgänge, 115.000 IOPS-Schreibvorgänge |
IOR auf acht* Azure SSD Premium-Datenträgern (verwaltete Datenträger vom Typ „P40“, RAID0)** | 1,3 GBit/s Lesevorgänge, 2,5 GBit/s Schreibvorgänge; 101.000 IOPS-Lesevorgänge, 105.000 IOPS-Schreibvorgänge |
MPI-Latenz
Der MPI-Latenztest von der OSU-Microbenchmark-Suite wird ausgeführt. Beispielskripts finden Sie auf GitHub.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI-Bandbreite
Der MPI-Bandbreitentest von der OSU-Microbenchmark-Suite wird ausgeführt. Beispielskripts finden Sie auf GitHub.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Das Paket Mellanox Perftest enthält viele InfiniBand-Tests, z. B. Latenz (ib_send_lat) und Bandbreite (ib_send_bw). Im Folgenden finden Sie einen Beispielbefehl.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Nächste Schritte
- Informieren Sie sich über die neuesten Ankündigungen, HPC-Workloadbeispiele und Leistungsergebnisse in den Tech Community-Blogs zu Azure Compute.
- Eine allgemeinere Übersicht über die Architektur für die Ausführung von HPC-Workloads finden Sie unter High Performance Computing (HPC) in Azure.