Rozmiary maszyn wirtualnych z serii HBv2

Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Maszyny ✔️ wirtualne z systemem Windows ✔️ — elastyczne zestawy ✔️ skalowania

Na maszynach wirtualnych o rozmiarze HBv2 uruchomiono kilka testów wydajnościowych. Poniżej przedstawiono niektóre wyniki tego testu wydajnościowego.

Obciążenie HBv2
STREAM Triad 350 GB/s (21–23 GB/s na CCX)
Linpack o wysokiej wydajności (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (Rmax, FP32)
Opóźnienie i przepustowość RDMA 1,2 mikrosekundy, 190 Gb/s
FiO na lokalnym dysku NVMe SSD Odczyty 2,7 GB/s, zapisy 1,1 GB/s; Odczyty operacji we/wy na sekundę 102k, 115 operacji we/wy na sekundę
IOR na 8 * Azure Premium SSD (P40 Dyski zarządzane, RAID0)** Odczyty 1,3 GB/s, 2,5 GB/zapisy; Odczyty operacji we/wy na sekundę 101 tys. operacji we/wy na sekundę, 105 tys. operacji we/wy na sekundę

Opóźnienie MPI

Test opóźnienia MPI z zestawu mikrobenchmark jednostek organizacyjnych jest uruchamiany. Przykładowe skrypty znajdują się w witrynie GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Screenshot of MPI latency.

Przepustowość MPI

Test przepustowości MPI z zestawu mikrobenchmark jednostek organizacyjnych jest uruchamiany. Przykładowe skrypty znajdują się w witrynie GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot of MPI bandwidth.

Mellanox Perftest

Pakiet Mellanox Perftest zawiera wiele testów InfiniBand, takich jak opóźnienie (ib_send_lat) i przepustowość (ib_send_bw). Poniżej znajduje się przykładowe polecenie.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Następne kroki