Tamanhos de máquina virtual da série HBv2

Aplica-se a: ✔️ VMs do Linux ✔️ VMs do Windows ✔️ Conjuntos de dimensionamento flexíveis ✔️ Conjuntos de dimensionamento uniformes

Vários testes de desempenho foram executados em VMs de tamanho da série HBv2. A seguir estão alguns dos resultados desse teste de desempenho.

Carga de trabalho HBv2
Tríade de STREAM 350 GB/s (21-23 GB/s por CCX)
Linpack de Alto Desempenho (HPL) 4 TeraFLOPS (Rpeak, FP64), 8 TeraFLOPS (RMAX, FP32)
Largura de banda e latência de RDMA 1,2 microssegundos, 190 GB/s
FIO no SSD NVMe local 2,7 GB/s leituras, 1,1 GB/s gravações; leituras de IOPS de 102 mil, 115 gravações de IOPS
IOR em 8 * SSD Premium do Azure (P40 Managed Disks, RAID0) * * 1,3 GB/s de leituras, 2,5 GB/gravações; leituras de IOPS de 101 mil, gravações de IOPS de 105 mil

Latência de MPI

O teste de latência de MPI do conjunto de microbenchmarks da OSU é executado. Os scripts de exemplo estão no GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Screenshot of MPI latency.

Largura de banda de MPI

O teste de largura de banda de MPI do conjunto de microbenchmarks da OSU é executado. Os scripts de exemplo estão no GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Screenshot of MPI bandwidth.

Mellanox Perftest

O pacote Mellanox Perftest tem muitos testes de InfiniBand, como latência (ib_send_lat) e largura de banda (ib_send_bw). Um comando de exemplo é mostrado abaixo.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Próximas etapas