ND A100 v4-series

S’applique à : ✔️ Machines virtuelles Linux ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes.

La machine virtuelle de série ND A100 v4 est une nouveauté phare de la famille de processeurs graphiques Azure. Il est conçu pour l’entraînement Deep Learning haut de gamme et les charges de travail HPC avec montée en puissance parallèle et scale-out.

La série ND A100 v4 commence avec une machine virtuelle unique et huit GPU NVIDIA Ampere A100 Tensor Core de 40 Go. Les déploiements A100 v4 peuvent monter en puissance jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 1,6 To/s par machine virtuelle. Chaque GPU au sein de la machine virtuelle est fourni avec sa propre connexion indépendante de la topologie NVIDIA Mellanox HDR InfiniBand 200 Go/s. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA.

Chaque GPU est doté de la connectivité NVLINK 3.0 pour la communication au sein de la machine virtuelle, et l’instance s’appuie sur 96 cœurs de processeur physiques AMD Epyc™ 7V12 (Rome) de 2e génération.

Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de ML et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d’autres frameworks. En outre, l’interconnexion InfiniBand avec montée en puissance parallèle est prise en charge par un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL2 de NVIDIA pour le clustering transparent des GPU.

Important

Pour vous familiariser avec les machines virtuelles A100 v4, reportez-vous à Configuration et optimisation des charges de travail HPC pour connaître les étapes, notamment la configuration du pilote et du réseau. En raison de l’augmentation de l’empreinte E/S de la mémoire GPU, le ND A100 v4 nécessite l’utilisation de machines virtuelles de génération 2 et d’images de la Place de marché.

Azure prend en charge Ubuntu 20.04/22.04, RHEL 7.9/8.7/9.3, AlmaLinux 8.8/9.2 et SLES 15 pour les machines virtuelles ND A100 v4. Sur la Place de marché Azure, il existe des offres d’images de machine virtuelle Linux optimisées et préconfigurées pour les charges de travail HPC/IA avec de nombreux outils et bibliothèques HPC installés ; elles sont donc fortement recommandées. Actuellement, les images de machine virtuelle Ubuntu-HPC 20.04/22.04 et AlmaLinux-HPC 8.6/8.7 sont prises en charge.


Stockage Premium : Pris(e) en charge
Mise en cache du Stockage Premium : Pris(e) en charge
Disques Ultra : pris en charge (En savoir plus sur la disponibilité, l’utilisation et les performances)
Migration dynamique : Non pris en charge
Mises à jour avec préservation de la mémoire : Non pris en charge
Génération de machine virtuelle prise en charge : Génération 2
Performances réseau accélérées : Pris en charge
Disques de système d’exploitation éphémères : Pris en charge
InfiniBand : pris en charge, GPUDirect RDMA, 8 x 200 Gigabit HDR
Interconnexion NVIDIA/NVLink : Pris en charge
Virtualisation imbriquée : non pris en charge

Taille Processeurs virtuels Mémoire : Gio Stockage temporaire (SSD) : Gio GPU Mémoire GPU : Gio Disques de données max. Débit du disque non mis en cache max. : IOPS / MBps Bande passante réseau maximale Nombre max de cartes réseau
Standard_ND96asr_A100_v4 96 900 6000 8 GPU 40 Go A100 (NVLink 3.0) 320 32 80 000 / 800 24 000 Mbits/s 8

Définitions des tailles de tables

  • La capacité de stockage est indiquée en unités de Gio ou 1 024^3 octets. Lorsque vous comparez des disques mesurés en Go (1 000^3 octets) à des disques mesurés en Gio (1 024^3), n’oubliez pas que les nombres de capacité donnés en Gio peuvent paraitre inférieurs. Par exemple, 1 023 Gio = 1 098,4 Go.

  • Le débit de disque est mesuré en opérations d’entrée/sortie par seconde (IOPS) et Mbit/s où Mbit/s = 10^6 octets par seconde.

  • Les disques de données peuvent fonctionner en mode avec ou sans mise en cache. En cas de fonctionnement du disque de données avec mise en cache, le mode de mise en cache hôte est défini sur ReadOnly ou ReadWrite. En cas de fonctionnement du disque de données sans mise en cache, le mode de mise en cache hôte est défini sur Aucun.

  • Pour découvrir comment obtenir les meilleures performances de stockage pour vos machines virtuelles, consultez Performances des disques et des machines virtuelles.

  • La bande passante réseau attendue est la bande passante agrégée maximale qui est allouée par type de machine virtuelle entre toutes les cartes réseau, pour toutes les destinations. Pour plus d’informations, consultez Bande passante réseau des machines virtuelles.

    Les limites supérieures ne sont pas garanties. Les limites permettent de sélectionner le type de machine virtuelle approprié pour l’application prévue. Les performances réseau réelles dépendent de nombreux facteurs, notamment la congestion du réseau, les charges de l’application, ainsi que les paramètres réseau. Pour plus d’informations sur l’optimisation du débit du réseau, consultez Optimiser le débit du réseau pour les machines virtuelles Azure. Pour atteindre la performance réseau attendue sous Linux ou Windows, il peut être nécessaire de sélectionner une version spécifique ou d’optimiser votre machine virtuelle. Pour plus d’informations, consultez Test de bande passante/débit (NTTTCP).

Autres tailles et informations

Calculatrice de prix : Calculatrice de prix

Pour plus d’informations sur les types de disques, consultez Quels sont les types de disque disponibles dans Azure ?

Étapes suivantes

Lisez-en davantage sur les Unités de calcul Azure (ACU) pour découvrir comment comparer les performances de calcul entre les références Azure.