Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Se aplica a: ✔️ Máquinas virtuales Linux ✔️ Máquinas virtuales Windows ✔️ Conjuntos de escalado flexibles ✔️ Conjuntos de escalado uniformes
Las pruebas de rendimiento se realizaron en varios tamaños de serie HC. En la tabla siguiente se resumen los resultados clave de estas pruebas.
| Carga de trabajo | HC |
|---|---|
| STREAM Triad | 190 GB/s (Intel MLC AVX-512) |
| High-Performance Linpack (HPL) | 3520 GigaFLOPS (Rpeak), 2970 GigaFLOPS (Rmax) |
| Latencia y ancho de banda de RDMA | 1,05 microsegundos; 96,8 Gb/s |
| FIO en SSD NVMe local | 1,3 GB/s lecturas; 900 MB/s escrituras |
| IOR en 4 SSD Premium de Azure (discos administrados P30, RAID0)** | 780 MB/s lecturas, 780 MB/escrituras |
Latencia de MPI
Se ejecuta la prueba de latencia de MPI del conjunto de micro puntos de referencia de OSU (OMB). Los scripts de ejemplo se encuentran en GitHub
./bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./osu_latency
Ancho de banda de MPI
Se ejecuta la prueba de ancho de banda de MPI del conjunto de microbenchmarks de OSU. Los scripts de ejemplo se encuentran en GitHub
./mvapich2-2.3.install/bin/mpirun_rsh -np 2 -hostfile ~/hostfile MV2_CPU_MAPPING=[INSERT CORE #] ./mvapich2-2.3/osu_benchmarks/mpi/pt2pt/osu_bw
Mellanox Perftest
El paquete Mellanox Perftest tiene muchas pruebas de InfiniBand, como la de latencia (ib_send_lat) y la de ancho de banda (ib_send_bw). El siguiente es un ejemplo de comando.
numactl --physcpubind=[INSERT CORE #] ib_send_lat -a
Pasos siguientes
- Lea sobre los anuncios más recientes, ejemplos de cargas de trabajo HPC y resultados de rendimiento en los blogs de la comunidad técnica de Azure Compute.
- Si quiere una visión general de la arquitectura de la ejecución de cargas de trabajo de HPC, consulte Informática de alto rendimiento (HPC) en Azure.