Tamaños de las máquinas virtuales de la serie HC

Se aplica a: ✔️ Máquinas virtuales Linux ✔️ Máquinas virtuales Windows ✔️ Conjuntos de escalado flexibles ✔️ Conjuntos de escalado uniformes

Las pruebas de rendimiento se realizaron en varios tamaños de serie HC. En la tabla siguiente se resumen los resultados clave de estas pruebas.

Carga de trabajo HC
STREAM Triad 190 GB/s (Intel MLC AVX-512)
High-Performance Linpack (HPL) 3520 GigaFLOPS (Rpeak), 2970 GigaFLOPS (Rmax)
Latencia y ancho de banda de RDMA 1,05 microsegundos; 96,8 Gb/s
FIO en SSD NVMe local 1,3 GB/s lecturas; 900 MB/s escrituras
IOR en 4 SSD Premium de Azure (discos administrados P30, RAID0)** 780 MB/s lecturas, 780 MB/escrituras

Latencia de MPI

Se ejecuta la prueba de latencia de MPI del conjunto de micro puntos de referencia de OSU (OMB). Los scripts de ejemplo se encuentran en GitHub

./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency 

Captura de pantalla del gráfico de latencia de MPI para máquinas virtuales de la serie HC.

Ancho de banda de MPI

Se ejecuta la prueba de ancho de banda de MPI del conjunto de microbenchmarks de OSU. Los scripts de ejemplo se encuentran en GitHub

./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw

Captura de pantalla del gráfico de ancho de banda de MPI para máquinas virtuales de la serie HC.

Mellanox Perftest

El paquete Mellanox Perftest tiene muchas pruebas de InfiniBand, como la de latencia (ib_send_lat) y la de ancho de banda (ib_send_bw). El siguiente es un ejemplo de comando.

numactl --physcpubind=[INSERT CORE #]  ib_send_lat -a

Pasos siguientes