Partager via


Calcul haute performance sur des machines virtuelles des séries HB et N avec InfiniBand

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Les machines virtuelles Azure des séries H et N avec InfiniBand sont conçues pour offrir des performances, une scalabilité MPI et une rentabilité exceptionnelles adaptées à un vaste éventail de charges de travail HPC et IA du monde réel. Ces machines virtuelles optimisées pour le calcul hautes performances (HPC) sont utilisées pour résoudre certains des problèmes nécessitant le plus de puissance de calcul dans la science et l’ingénierie, comme la dynamique des fluides, la modélisation terrestre, les simulations météorologiques, etc.

Ces articles décrivent comment bien démarrer avec les machines virtuelles des séries H et N avec InfiniBand sur Azure ainsi que la configuration optimale des charges de travail HPC et IA sur les machines virtuelles pour la scalabilité.

Fonctionnalités et capacités

Les machines virtuelles des séries HB et N avec InfiniBand sont conçues pour fournir les meilleures performances HPC, une scalabilité de l’interface de passage de messages (MPI) et un bon rapport coût-efficacité pour les charges de travail HPC. Pour plus d’informations sur les fonctionnalités et les capacités des machines virtuelles, consultez Machines virtuelles Série HB et Série N.

RDMA et InfiniBand

Les VMs des séries HB et N compatibles RDMA communiquent sur le réseau InfiniBand à faible latence et à bande passante élevée. La fonctionnalité RDMA sur une telle interconnexion est critique pour améliorer la scalabilité et les performances des charges de travail HPC et IA sur les nœuds distribués. Les machines virtuelles des séries H et N avec InfiniBand sont connectées sont connectées dans un réseau fat-tree avec une conception à faible diamètre pour des performances RDMA optimisées et cohérentes. Pour plus d’informations sur la configuration d’InfiniBand sur les machines virtuelles avec InfiniBand, consultez Activer InfiniBand.

Interface de transmission de messages (MPI)

Les séries HB et N avec SR-IOV prennent en charge quasiment toutes les bibliothèques et versions de MPI. Voici quelques-unes des bibliothèques MPI les plus couramment utilisées : Intel MPI, OpenMPI, HPC-X, MVAPICH2, MPICH, Platform MPI. Tous les verbes d’accès direct à la mémoire à distance (RDMA) sont pris en charge. Pour plus d’informations sur l’installation des différentes bibliothèques MPI prises en charge et leur configuration optimale, consultez Configurer MPI.

Bien démarrer

La première étape consiste à sélectionner le type optimal de machine virtuelle de Série HB et de Série N pour la charge de travail, en fonction des spécifications de la machine virtuelle et des capacités RDMA. Ensuite, configurez la machine virtuelle en activant InfiniBand. Vous pouvez faire cela de différentes façon, notamment en utilisant des images de machine virtuelle optimisées avec des pilotes intégrés. Pour plus d’informations, consultez Optimisation pour Linux et Activer InfiniBand. Troisièmement, pour les charges de travail des nœud distribués, le choix et la configuration appropriés de MPI sont critiques. Pour plus d’informations, consultez Configurer MPI. Quatrièmement, pour les performances et la scalabilité, configurez de façon optimale les charges de travail en suivant les instructions spécifiques à la famille de machines virtuelles, par exemple dans Vue d’ensemble de la série HBv3 et Vue d’ensemble de la série HC.

Étapes suivantes