NDm A100 v4-series

Attention

Cet article fait référence à CentOS, une distribution Linux proche de l’état EOL (End Of Life). Faites le point sur votre utilisation et organisez-vous en conséquence. Pour plus d’informations, consultez l’aide sur la fin de vie de CentOS.

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

La machine virtuelle de série NDm A100 v4 est une nouveauté phare de la famille de processeurs graphiques Azure. Il est conçu pour l’entraînement Deep Learning haut de gamme et les charges de travail HPC avec montée en puissance parallèle et scale-out.

La série NDm A100 v4 commence avec une machine virtuelle unique et huit GPU NVIDIA Ampere A100 80 GB Tensor Core. Les déploiements basé sur NDm A100 v4 peuvent monter en puissance jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 1,6 To/s par machine virtuelle. Chaque GPU au sein de la machine virtuelle est fourni avec sa propre connexion indépendante de la topologie NVIDIA Mellanox HDR InfiniBand 200 Go/s. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA.

Chaque GPU est doté de la connectivité NVLINK 3.0 pour la communication au sein de la machine virtuelle, et l’instance s’appuie sur 96 cœurs de processeur physiques AMD Epyc™ 7V12 (Rome) de 2e génération.

Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de ML et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d’autres frameworks. En outre, l’interconnexion InfiniBand avec montée en puissance parallèle est prise en charge par un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL2 de NVIDIA pour le clustering transparent des GPU.

Important

Pour vous familiariser avec les machines virtuelles NDm A100 v4, reportez-vous à Configuration et optimisation des charges de travail HPC pour connaître les étapes, notamment la configuration du pilote et du réseau. En raison de l’augmentation de l’empreinte E/S de la mémoire GPU, la NDm A100 v4 nécessite l’utilisation de machines virtuelles de génération 2 et d’images de la place de marché. Les images Azure HPC sont vivement recommandées. Les images Azure HPC Ubuntu 18.04, 20.04 et Azure HPC CentOS 7.9 sont prises en charge.


Stockage Premium : Pris en charge
Mise en cache du Stockage Premium : Pris(e) en charge
Disques Ultra : pris en charge (En savoir plus sur la disponibilité, l’utilisation et les performances)
Migration dynamique : Non pris en charge
Mises à jour avec préservation de la mémoire : Non pris en charge
Génération de machine virtuelle prise en charge : Génération 2
Performances réseau accélérées : Pris en charge
Disques de système d’exploitation éphémères : Pris en charge
InfiniBand : pris en charge, GPUDirect RDMA, 8 x 200 Gigabit HDR
Interconnexion Nvidia/NVLink : Pris en charge
Virtualisation imbriquée : non pris en charge

La série NDm A100 v4 prend en charge les versions de noyau suivantes :
CentOS 7.9 HPC : 3.10.0-1160.24.1.el7.x86_64
Ubuntu 18.04 : 5.4.0-1043-azure
Ubuntu 20.04 : 5.4.0-1046-azure

Taille Processeurs virtuels Mémoire : Gio Stockage temporaire (SSD) : Gio GPU Mémoire GPU : Gio Disques de données max. Débit du disque non mis en cache max. : IOPS / MBps Bande passante réseau maximale Nombre max de cartes réseau
Standard_ND96amsr_A100_v4 96 1900 6 400 8 GPU 80 Go A100 (NVLink 3.0) 80 32 80 000 / 800 24 000 Mbits/s 8

Définitions des tailles de tables

  • La capacité de stockage est indiquée en unités de Gio ou 1 024^3 octets. Lorsque vous comparez des disques mesurés en Go (1 000^3 octets) à des disques mesurés en Gio (1 024^3), n’oubliez pas que les nombres de capacité donnés en Gio peuvent paraitre inférieurs. Par exemple, 1 023 Gio = 1 098,4 Go.

  • Le débit de disque est mesuré en opérations d’entrée/sortie par seconde (IOPS) et Mbit/s où Mbit/s = 10^6 octets par seconde.

  • Les disques de données peuvent fonctionner en mode avec ou sans mise en cache. En cas de fonctionnement du disque de données avec mise en cache, le mode de mise en cache hôte est défini sur ReadOnly ou ReadWrite. En cas de fonctionnement du disque de données sans mise en cache, le mode de mise en cache hôte est défini sur Aucun.

  • Pour découvrir comment obtenir les meilleures performances de stockage pour vos machines virtuelles, consultez Performances des disques et des machines virtuelles.

  • La bande passante réseau attendue est la bande passante agrégée maximale qui est allouée par type de machine virtuelle entre toutes les cartes réseau, pour toutes les destinations. Pour plus d’informations, consultez Bande passante réseau des machines virtuelles.

    Les limites supérieures ne sont pas garanties. Les limites permettent de sélectionner le type de machine virtuelle approprié pour l’application prévue. Les performances réseau réelles dépendent de nombreux facteurs, notamment la congestion du réseau, les charges de l’application, ainsi que les paramètres réseau. Pour plus d’informations sur l’optimisation du débit du réseau, consultez Optimiser le débit du réseau pour les machines virtuelles Azure. Pour atteindre la performance réseau attendue sous Linux ou Windows, il peut être nécessaire de sélectionner une version spécifique ou d’optimiser votre machine virtuelle. Pour plus d’informations, consultez Test de bande passante/débit (NTTTCP).

Autres tailles et informations

Calculatrice de prix : Calculatrice de prix

Pour plus d’informations sur les types de disques, consultez Quels sont les types de disque disponibles dans Azure ?

Étapes suivantes

Lisez-en davantage sur les Unités de calcul Azure (ACU) pour découvrir comment comparer les performances de calcul entre les références Azure.