Grootten van virtuele machines van de HBv2-serie
Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️
Er zijn verschillende prestatietests uitgevoerd op VM's uit de HBv2-serie . Hier volgen enkele van de resultaten van deze prestatietests.
Workload | HBv2 |
---|---|
STREAM Triad | 350 GB/s (21-23 GB/s per CCX) |
High Performance Linpack (HPL) | 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32) |
RDMA-latentie en bandbreedte | 1,2 microseconden, 190 Gb/s |
FIO op lokale NVMe SSD | 2,7 GB/s leesbewerkingen, 1,1 GB/s schrijfbewerkingen; 102k IOPS-leesbewerkingen, 115 IOPS-schrijfbewerkingen |
IOR op 8 * Azure Premium SSD (P40 Managed Disks, RAID0)** | 1,3 GB/s leesbewerkingen, 2,5 GB/schrijfbewerkingen; 101k IOPS-leesbewerkingen, 105.000 IOPS-schrijfbewerkingen |
MPI-latentie
MPI-latentietest van de OSU microbenchmark-suite wordt uitgevoerd. Voorbeeldscripts bevinden zich op GitHub.
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
MPI-bandbreedte
MPI-bandbreedtetest van de OSU microbenchmark suite wordt uitgevoerd. Voorbeeldscripts bevinden zich op GitHub.
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
Het Mellanox Perftest-pakket heeft veel InfiniBand-tests, zoals latentie (ib_send_lat) en bandbreedte (ib_send_bw). Hieronder ziet u een voorbeeldopdracht.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Volgende stappen
- Lees meer over de nieuwste aankondigingen, voorbeelden van HPC-werkbelastingen en prestatieresultaten in de Blogs van de Azure Compute Tech Community.
- Zie High Performance Computing (HPC) in Azure voor een architectuurweergave op een hoger niveau van het uitvoeren van HPC-workloads.