Compartilhar via


Monitorando o desempenho da máquina virtual da série HBv3

Aplica-se a: ✔️ VMs do Linux ✔️ VMs do Windows ✔️ Conjuntos de dimensionamento flexíveis ✔️ Conjuntos de dimensionamento uniformes

As expectativas de desempenho usando o HPC comum são as seguintes:

Carga de trabalho HBv3
STREAM Triad 330-350 GB/s (amplificado até 630 GB/s)
High-Performance Linpack (HPL) 4 TF (Rpeak, FP64), 8 TF (Rpeak, FP32) para o tamanho de VM de 120 núcleos
Largura de banda e latência de RDMA 1,2 microssegundos (1 byte), 192 GB/s (unidirecional)
FIO em SSDs de NVMe local (RAID0) Leituras de 7 GB/s, gravações de 3 GB/s; leituras de IOPS de 186k, gravações de IOPS de 201k

Fixação de processo

A fixação de processo funciona bem em VMs de série HBv3, pois expomos o silício subjacente como está para a VM convidada. É altamente recomendável fixar o processo para desempenho e consistência ideais.

Latência de MPI

O teste de latência de MPI do OSU Microbenchmark Suite pode ser executado conforme mostrado. Os scripts de exemplo estão no GitHub.

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency

Largura de banda de MPI

O teste de largura de banda de MPI do OSU Microbenchmark Suite pode ser executado conforme mostrado abaixo. Os scripts de exemplo estão no GitHub.

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Mellanox Perftest

O pacote Mellanox Perftest tem muitos testes de InfiniBand, como latência (ib_send_lat) e largura de banda (ib_send_bw). Um comando de exemplo é mostrado abaixo.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Próximas etapas