Informática de alto rendimiento en máquinas virtuales de las series HB y N habilitadas con InfiniBand

Se aplica a: ✔️ Máquinas virtuales Linux ✔️ Máquinas virtuales Windows ✔️ Conjuntos de escalado flexibles ✔️ Conjuntos de escalado uniformes

Las máquinas virtuales de las series H y N habilitadas con InfiniBand de Azure están diseñadas para ofrecer rendimiento de primer nivel, escalabilidad de la interfaz de paso de mensajes (MPI) y rentabilidad para diversas cargas de trabajo de HPC e inteligencia artificial del mundo real. Estas máquinas virtuales optimizadas de informática de alto rendimiento (HPC) se usan para resolver algunos de los problemas de la ciencia e ingeniería que hacen un uso más intensivo de la informática, como la dinámica de fluidos, el modelado terrestre o las simulaciones meteorológicas.

En estos artículos se describen los primeros pasos con las máquinas virtuales de las series H y N habilitadas con InfiniBand en Azure, así como la configuración óptima de las cargas de trabajo de HPC e inteligencia artificial en dichas máquinas para ofrecer escalabilidad.

Características y funcionalidades

Las máquinas virtuales de las series HB y N habilitadas con InfiniBand están diseñadas para proporcionar el mejor rendimiento de HPC, escalabilidad de MPI y rentabilidad para cargas de trabajo de HPC. Consulte las máquinas virtuales de la serie HB y de la serie N para más información sobre las características y capacidades de las máquinas virtuales.

RDMA e InfiniBand

Las máquinas virtuales de la serie HB y la serie Ncompatibles con RDMA se comunican a través de la red InfiniBand de latencia baja y ancho de banda alto. La funcionalidad de RDMA sobre dicha interconexión es crítica para potenciar la escalabilidad y el rendimiento de las cargas de trabajo de inteligencia artificial y HPC de nodos distribuidos. Las máquinas virtuales de las series H y S habilitadas con InfiniBand se conectan en una estructura de árbol grueso sin bloqueos y con poco diámetro para lograr un rendimiento de RDMA coherente y optimizado. Consulte Habilitación de InfiniBand para más información sobre la configuración de InfiniBand en las máquinas virtuales habilitadas con InfiniBand.

Interfaz de paso de mensajes

Tanto la serie HB como la serie N, habilitadas con SR-IOV, admiten casi todas las bibliotecas y versiones de MPI. Algunas de las bibliotecas MPI más utilizadas son: Intel MPI, OpenMPI, HPC-X, MVAPICH2, MPICH y Platform MPI. Se admiten todos los verbos de acceso directo remoto a memoria (RDMA). Para más información sobre la instalación de varias bibliotecas de MPI compatibles, así como sobre su configuración óptima, consulte el artículo Configuración de la interfaz de paso de mensajes para HPC.

Primeros pasos

El primer paso consiste en seleccionar el tipo de máquina virtual de la serie HB y de la serie N óptima para la carga de trabajo en función de las especificaciones de la máquina virtual y de la capacidad de RDMA. El segundo consiste en configurar la máquina virtual mediante la habilitación de InfiniBand. Hay varios métodos para hacerlo, entre los que se incluye el uso de imágenes de máquina virtual optimizadas con controladores preparados; para más información, consulte Optimización para Linux y Habilitación de InfiniBand. El tercer paso, para cargas de trabajo de nodos distribuidos, es crítico y consiste en elegir y configurar correctamente la interfaz de paso de mensajes. Para más información, consulte Configuración de la interfaz de paso de mensajes para HPC. El cuarto, con el fin de mejorar el rendimiento y la escalabilidad, consiste en configurar las cargas de trabajo de manera óptima siguiendo las instrucciones específicas de la familia de máquinas virtuales, como por ejemplo Introducción a las máquinas virtuales de la serie HBv3 e Introducción a las máquinas virtuales de la serie HC.

Pasos siguientes