Partage via


Sous-famille « ND » Série de tailles de machines virtuelles accélérées par le GPU

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Les séries de tailles de machines virtuelles de la famille « ND » sont une des instances de machines virtuelles accélérées par GPU d’Azure. Elles sont conçues pour le Deep Learning, la recherche sur l’IA et les tâches de calcul hautes performances qui bénéficient d’une accélération GPU puissante. Équipées de GPU NVIDIA, les machines virtuelles de la série ND offrent des capacités spécialisées pour l’apprentissage et l’inférence de modèles Machine Learning complexes, permettant des calculs plus rapides et facilitant une gestion efficace des grands jeux de données. Ceci les rend donc particulièrement bien adaptées aux applications universitaires et commerciales dans le développement et la simulation dans le domaine de l’IA, où la technologie GPU de pointe est cruciale pour obtenir des résultats rapides et exacts dans le traitement des réseaux neuronaux et d’autres tâches nécessitant du calcul intensif.

Charges de travail et cas d’usage

IA et Deep Learning : les machines virtuelles de la famille ND sont idéales pour l’apprentissage et le déploiement de modèles Deep Learning complexes. Équipées de GPU NVIDIA puissants, elles fournissent la puissance de calcul nécessaire pour gérer l’apprentissage de réseaux neuronaux étendus avec des grands jeux de données, réduisant considérablement les temps d’apprentissage.

Calcul haute performance (HPC) : les machines virtuelles de la famille ND sont adaptées aux applications HPC qui nécessitent une accélération GPU. Des domaines comme la recherche scientifique, les simulations dans l’ingénierie (par exemple les calculs liés à la dynamique des fluides) et le traitement génomique peuvent tirer parti des capacités de calcul à haut débit des machines virtuelles de la série ND.

Séries de la famille

Série ND V1

Les machines virtuelles de la série ND sont nouvelles dans la famille de GPU et sont conçues pour les charges de travail d’intelligence artificielle et d’apprentissage profond. Elles offrent d’excellentes performances pour l’apprentissage et l’inférence. Les instances ND sont pilotées par des GPU Tesla P40 de NVIDIA et des processeurs Intel Xeon E5-2690 v4 (Broadwell). Ces instances offrent d’excellentes performances pour les opérations à virgule flottante simple précision, et pour les charges de travail d’intelligence artificielle utilisant Microsoft Cognitive Toolkit, TensorFlow, Caffe et d’autres infrastructures. La série ND offre également une taille de mémoire GPU beaucoup plus importante (24 Go), ce qui permet d’adapter des modèles de réseaux neuronaux beaucoup plus volumineux. À l’instar de la série NC, la série ND offre une configuration avec un réseau à faible latence secondaire et à haut débit grâce à l’accès direct à la mémoire à distance (RDMA), ainsi que la connectivité InfiniBand, de sorte que vous pouvez exécuter des travaux de formation à grande échelle s’étendant sur de nombreux GPU.

Voir la page complète de la série ND.

Élément Quantité
Compter des unités
Spécifications
ID de la référence SKU, unités de performance, etc.
Processeur 6 à 24 processeurs virtuels Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Mémoire 112 à 448 Gio
Stockage local 1 disque 736 à 2 948 Gio
Stockage à distance 12 – 32 disques 20 000 à 80 000 IOPS
200 – 800 Mo/s
Network (Réseau) 4 – 8 Cartes réseau
Accélérateurs 1 – 4 GPUs GPU Nvidia Tesla P40 (24 Go)

Série NDv2

Les machines virtuelles de la série NDv2 rejoignent la famille des processeurs graphiques (GPU) pour répondre aux besoins de l’IA accélérée par GPU, de l’apprentissage automatique, de la simulation et des charges de travail HPC les plus exigeantes.

NDv2 est alimenté par 8 GPU NVIDIA Tesla V100 NVLINK, doté chacun de 32 Go de mémoire. Chaque machine virtuelle NDv2 possède également 40 cœurs Intel Xeon Platinum 8168 (Skylake) non hyperthread et 672 Gio de mémoire système.

Les instances NDv2 offrent d’excellentes performances pour les charges de travail HPC et IA à l’aide de noyaux de calcul optimisés pour le GPU CUDA, ainsi que de nombreux outils d’intelligence artificielle et d’analyse prenant en charge l’accélération GPU prêts à l’emploi, tels que TensorFlow, Pytorch, Caffe, Digital et autres infrastructures.

Il est essentiel que NDv2 soit conçu pour répondre à la fois à des charges de travail de scale-up (8 GPU par machine virtuelle) et de scale-out (plusieurs machines virtuelles travaillant ensemble) qui sont gourmandes en calcul. La série NDv2 prend désormais en charge le réseau back-end EDR InfiniBand 100 Gigabits, similaire à celui disponible dans la série HB de HPC VM, afin de permettre un clustering haute performance pour les scénarios parallèles, notamment l’entraînement distribué pour l’IA et le ML. Ce réseau principal prend en charge tous les principaux protocoles InfiniBand, y compris ceux utilisés par les bibliothèques NCCL2 de NVIDIA, ce qui permet une mise en grappe transparente des GPU.

Voir la page complète de la série NDv2

Élément Quantité
Compter des unités
Spécifications
ID de la référence SKU, unités de performance, etc.
Processeur 40 processeurs virtuels Intel Xeon Platinum 8168 (Skylake) [x86-64]
Mémoire 672 Gio
Stockage local 1 disque 2 948 Gio
Stockage à distance 32 disques 80 000 IOPS
800 Mo/s
Network (Réseau) 8 cartes réseau 24 000 Mbits/s
Accélérateurs Aucune

Série ND A100 v4

La machine virtuelle de série ND A100 v4 est une nouveauté phare de la famille de processeurs graphiques Azure. Ces tailles sont conçues pour l’entraînement Deep Learning hautes performances, et pour des charges de travail HPC avec scale-up et scale-out étroitement couplées.

La série ND A100 v4 commence avec une machine virtuelle unique et huit GPU NVIDIA Ampere A100 Tensor Core de 40 Go. Les déploiements A100 v4 peuvent monter en puissance jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 1,6 To/s par machine virtuelle. Chaque GPU au sein de la machine virtuelle est fourni avec sa propre connexion indépendante de la topologie NVIDIA Mellanox HDR InfiniBand 200 Go/s. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPU Direct RDMA.

Chaque GPU est doté d’une connectivité NVLINK 3.0 pour la communication au sein de la machine virtuelle, en s’appuyant sur 96 cœurs de processeur physiques AMD Epyc™ 7V12 (Rome) de 2e génération.

Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de ML et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d’autres frameworks. En outre, l’interconnexion InfiniBand avec scale-out prend en charge un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL2 de NVIDIA pour un clustering facilité des GPU.

Voir la page complète de la série ND A100 v4.

Élément Quantité
Compter des unités
Spécifications
ID de la référence SKU, unités de performance, etc.
Processeur 96 processeurs virtuels AMD EPYC 7V12 (Rome) [x86-64]
Mémoire 900 Gio
Stockage local 1 disque 6 000 Gio
Stockage à distance 32 disques 80 000 IOPS
800 Mo/s
Network (Réseau) 8 cartes réseau 24 000 Mbits/s
Accélérateurs 8 GPU GPU Nvidia A100 (40 Go)

NDm_A100_v4-series

La machine virtuelle de série NDm A100 v4 est une nouveauté phare de la famille de processeurs graphiques Azure. Ces tailles sont conçues pour l’apprentissage Deep Learning hautes performances, et pour des charges de travail HPC avec scale-up et scale-out étroitement couplées.

La série NDm A100 v4 commence avec une machine virtuelle unique et huit GPU NVIDIA Ampere A100 80 GB Tensor Core. Les déploiements basé sur NDm A100 v4 peuvent monter en puissance jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 1,6 To/s par machine virtuelle. Chaque GPU au sein de la machine virtuelle est fourni avec sa propre connexion indépendante de la topologie NVIDIA Mellanox HDR InfiniBand 200 Go/s. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPU Direct RDMA.

Chaque GPU est doté d’une connectivité NVLINK 3.0 pour la communication au sein de la machine virtuelle, en s’appuyant sur 96 cœurs de processeur physiques AMD Epyc™ 7V12 (Rome) de 2e génération.

Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de ML et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d’autres frameworks. En outre, l’interconnexion InfiniBand avec scale-out prend en charge un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL2 de NVIDIA pour un clustering facilité des GPU.

Voir la page complète de la série NDm A100 v4.

Élément Quantité
Compter des unités
Spécifications
ID de la référence SKU, unités de performance, etc.
Processeur 96 processeurs virtuels AMD EPYC 7V12 (Rome) [x86-64]
Mémoire 1 900 Gio
Stockage local 1 disque 6 400 Gio
Stockage à distance 32 disques 80 000 IOPS
800 Mo/s
Network (Réseau) 8 cartes réseau 24 000 Mbits/s
Accélérateurs 8 GPU GPU Nvidia A100 (80 Go)

Série ND H100 v5

La machine virtuelle (VM) de la série ND H100 v5 est un nouvel ajout phare à la famille Azure GPU. Cette série a été conçue pour la formation haute performance Deep Learning, et pour les charges de travail d’IA générative et HPC avec scale-up et scale-out étroitement couplées.

La série ND H100 v5 commence avec une seule machine virtuelle et huit GPU NVIDIA H100 Tensor Core. Les déploiements basés sur ND H100 v5 peuvent faire l’objet d’un scale-up jusqu’à des milliers de GPU avec 3,2 Tbits/s de bande passante d’interconnexion par VM. Chaque GPU de la machine virtuelle est fourni avec sa propre connexion NVIDIA Quantum-2 CX7 InfiniBand dédiée et indépendante de la topologie. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPU Direct RDMA.

Chaque GPU dispose d’une connectivité NVLINK 4.0 pour la communication au sein de la machine virtuelle, et l’instance a 96 cœurs de processeur Intel Xeon Scalable de 4e génération.

Ces instances offrent d'excellentes performances pour de nombreux outils d'IA, de ML et d'analyse qui prennent en charge l'accélération GPU « prête à l'emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d'autres frameworks. En outre, l’interconnexion InfiniBand avec scale-out prend en charge un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL de NVIDIA pour un clustering facilité des GPU.

Voir la page complète de la série ND H100 v5.

Élément Quantité
Compter des unités
Spécifications
ID de la référence SKU, unités de performance, etc.
Processeur 96 processeurs virtuels Intel Xeon (Sapphire Rapids) [x86-64]
Mémoire 1 900 Gio
Stockage local 1 disque 28 000 Gio
Stockage à distance 32disques
Network (Réseau) 8 cartes réseau
Accélérateurs 8 GPU GPU Nvidia H100 (80 Go)

Série ND_MI300X_v5

La machine virtuelle de la série ND MI300X v5 est un nouvel ajout phare à la famille Azure GPU. Elle a été conçue pour la formation Deep Learning haut de gamme et les charges de travail IA générative et HPC Scale-up et Scale-out étroitement couplées.

La machine virtuelle de la série ND MI300X v5 commence par huit GPU AMD Instinct MI300 et deux processeurs Intel Xeon Scalable de quatrième génération pour un total de 96 cœurs physiques. Chaque GPU au sein de la machine virtuelle est ensuite connecté aux autres via des liaisons AMD Infinity Fabric de quatrième génération avec une bande passante de 128 Go/s par GPU et 896 Go/s de bande passante agrégée.

Les déploiements ND MI300X v5 peuvent effectuer un scale-up jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 3,2 Tbit/s par machine virtuelle. Chaque GPU de la machine virtuelle est fourni avec sa propre connexion NVIDIA Quantum-2 CX7 InfiniBand dédiée et indépendante de la topologie. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA.

Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de Machine Learning et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch et d’autres infrastructures. En outre, l’interconnexion InfiniBand de Scale-out prend en charge un grand ensemble d’outils IA et HPC existants basés sur la bibliothèque RCCL (ROCm Communication Collectives Library) d’AMD pour un clustering transparent des GPU.

Affichez la page complète de la série ND_MI300X_v5.

Élément Quantité
Compter des unités
Spécifications
ID de la référence SKU, unités de performance, etc.
Processeur 96 processeurs virtuels Intel Xeon (Sapphire Rapids) [x86-64]
Mémoire 1850 Gio
Stockage local 1 disque temporaire
8 disques NVMe
Disque temporaire de 1 000 Gio
Disques NVMe de 28 000 Gio
Stockage à distance 32 disques 80 000 IOPS
1 200 Mo/s
Network (Réseau) 8 cartes réseau
Accélérateurs 8 GPU GPU AMD Instinct MI300X (192 Go)

Série de familles ND de la génération précédente

Pour connaître les tailles antérieures, consultez les tailles de la génération précédente.

Autres informations de taille

Liste de toutes les tailles disponibles : Tailles

Calculatrice de prix : Calculatrice de prix

Informations sur les types de disques : Types de disques

Étapes suivantes

Lisez-en davantage sur les Unités de calcul Azure (ACU) pour découvrir comment comparer les performances de calcul entre les références Azure.

Consultez Hôtes Azure Dedicated Host pour connaître les serveurs physiques capables d’héberger une ou plusieurs machines virtuelles attribuées à un abonnement Azure.

Commencez ici pour découvrir comment Superviser les machines virtuelles Azure.