Partager via


Sous-famille « ND » Série de tailles de machines virtuelles accélérées par le GPU

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Les séries de tailles de machines virtuelles de la famille « ND » sont une des instances de machines virtuelles accélérées par GPU d’Azure. Elles sont conçues pour le Deep Learning, la recherche sur l’IA et les tâches de calcul hautes performances qui bénéficient d’une accélération GPU puissante. Équipées de GPU NVIDIA, les machines virtuelles de la série ND offrent des capacités spécialisées pour l’apprentissage et l’inférence de modèles Machine Learning complexes, permettant des calculs plus rapides et facilitant une gestion efficace des grands jeux de données. Ceci les rend donc particulièrement bien adaptées aux applications universitaires et commerciales dans le développement et la simulation dans le domaine de l’IA, où la technologie GPU de pointe est cruciale pour obtenir des résultats rapides et exacts dans le traitement des réseaux neuronaux et d’autres tâches nécessitant du calcul intensif.

Charges de travail et cas d’usage

IA et Deep Learning : les machines virtuelles de la famille ND sont idéales pour l’apprentissage et le déploiement de modèles Deep Learning complexes. Équipées de GPU NVIDIA puissants, elles fournissent la puissance de calcul nécessaire pour gérer l’apprentissage de réseaux neuronaux étendus avec des grands jeux de données, réduisant considérablement les temps d’apprentissage.

Calcul haute performance (HPC) : les machines virtuelles de la famille ND sont adaptées aux applications HPC qui nécessitent une accélération GPU. Des domaines comme la recherche scientifique, les simulations dans l’ingénierie (par exemple les calculs liés à la dynamique des fluides) et le traitement génomique peuvent tirer parti des capacités de calcul à haut débit des machines virtuelles de la série ND.

Rendu graphique : les GPU de la famille ND en font un bon choix pour les tâches intensives en affichage graphique, notamment le rendu en temps réel pour la production d’animations et de vidéos, ainsi que les simulations haute fidélité pour les environnements de réalité virtuelle.

Visualisation à distance : les machines virtuelles de la famille ND peuvent être utilisées pour la visualisation à distance de tâches nécessitant beaucoup de données, où les capacités haut de gamme des GPU sont nécessaires pour traiter et afficher des visualisations complexes via le cloud, facilitant l’accès depuis des machines clientes moins puissantes.

Séries de la famille

Série ND V1

Les machines virtuelles de la série ND sont nouvelles dans la famille de GPU et sont conçues pour les charges de travail d’intelligence artificielle et d’apprentissage profond. Elles offrent d’excellentes performances pour l’apprentissage et l’inférence. Les instances ND sont pilotées par des GPU Tesla P40 de NVIDIA et des processeurs Intel Xeon E5-2690 v4 (Broadwell). Ces instances offrent d’excellentes performances pour les opérations à virgule flottante simple précision, et pour les charges de travail d’intelligence artificielle utilisant Microsoft Cognitive Toolkit, TensorFlow, Caffe et d’autres infrastructures. La série ND offre également une taille de mémoire GPU beaucoup plus importante (24 Go), ce qui permet d’adapter des modèles de réseaux neuronaux beaucoup plus volumineux. À l’instar de la série NC, la série ND offre une configuration avec un réseau à faible latence secondaire et à haut débit grâce à l’accès direct à la mémoire à distance (RDMA), ainsi que la connectivité InfiniBand, de sorte que vous pouvez exécuter des travaux de formation à grande échelle s’étendant sur de nombreux GPU.

Voir la page complète de la série ND.

Élément Quantité
Nombre Unités
Spécifications
ID de référence SKU, Niveau de performance Unités, etc.
Processeur 6 – 24vCores Intel® Xeon® E5-2690 v4 (Broadwell)
Mémoire 112 – 448Gio
Disques de données 12 – 32Disques 20 000 – 80 000IOPS / 200 – 800Mbits/s
Network (Réseau) 4 – 8cartes réseau
Accélérateurs 1 – 4GPU NVIDIA Tesla P40 24Gio
24 – 96Gio par machine virtuelle

Série NDv2

Les machines virtuelles de la série NDv2 rejoignent la famille des processeurs graphiques (GPU) pour répondre aux besoins de l’IA accélérée par GPU, de l’apprentissage automatique, de la simulation et des charges de travail HPC les plus exigeantes. NDv2 est alimenté par 8 GPU NVIDIA Tesla V100 NVLINK, doté chacun de 32 Go de mémoire. Chaque machine virtuelle NDv2 possède également 40 cœurs Intel Xeon Platinum 8168 (Skylake) non hyperthread et 672 Gio de mémoire système. Les instances NDv2 offrent d’excellentes performances pour les charges de travail HPC et IA à l’aide de noyaux de calcul optimisés pour le GPU CUDA, ainsi que de nombreux outils d’intelligence artificielle et d’analyse prenant en charge l’accélération GPU prêts à l’emploi, tels que TensorFlow, Pytorch, Caffe, Digital et autres infrastructures. Il est essentiel que NDv2 soit conçu pour répondre à la fois à des charges de travail de scale-up (8 GPU par machine virtuelle) et de scale-out (plusieurs machines virtuelles travaillant ensemble) qui sont gourmandes en calcul. La série NDv2 prend désormais en charge le réseau back-end EDR InfiniBand 100 Gigabits, similaire à celui disponible dans la série HB de HPC VM, afin de permettre un clustering haute performance pour les scénarios parallèles, notamment l’entraînement distribué pour l’IA et le ML. Ce réseau principal prend en charge tous les principaux protocoles InfiniBand, y compris ceux utilisés par les bibliothèques NCCL2 de NVIDIA, ce qui permet une mise en grappe transparente des GPU.

Voir la page complète de la série NDv2

Élément Quantité
Nombre Unités
Spécifications
ID de référence SKU, Niveau de performance Unités, etc.
Processeur 40vCores Intel® Xeon® Platinum 8168 (Skylake)
Mémoire 672Gio
Disques de données 32disques 80 000IOPS / 800Mbits/s
Network (Réseau) 8cartes réseau 24 000Mbits/s
Accélérateurs 8GPU NVIDIA V100 (NVLink) 32Gio
256Gio par machine virtuelle

Série ND A100 v4

La machine virtuelle de série ND A100 v4 est une nouveauté phare de la famille de processeurs graphiques Azure. Il est conçu pour l’entraînement Deep Learning haut de gamme et les charges de travail HPC avec montée en puissance parallèle et scale-out. La série ND A100 v4 commence avec une machine virtuelle unique et huit GPU NVIDIA Ampere A100 Tensor Core de 40 Go. Les déploiements A100 v4 peuvent monter en puissance jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 1,6 To/s par machine virtuelle. Chaque GPU au sein de la machine virtuelle est fourni avec sa propre connexion indépendante de la topologie NVIDIA Mellanox HDR InfiniBand 200 Go/s. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA. Chaque GPU est doté de la connectivité NVLINK 3.0 pour la communication au sein de la machine virtuelle, et l’instance s’appuie sur 96 cœurs de processeur physiques AMD Epyc™ 7V12 (Rome) de 2e génération. Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de ML et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d’autres frameworks. En outre, l’interconnexion InfiniBand avec montée en puissance parallèle est prise en charge par un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL2 de NVIDIA pour le clustering transparent des GPU.

Voir la page complète de la série ND A100 v4.

Élément Quantité
Nombre Unités
Spécifications
ID de référence SKU, Niveau de performance Unités, etc.
Processeur 96vCores AMD Epyc™ 7V12 (Rome)
Mémoire 900Gio
Disques de données 32disques 80 000IOPS / 800Mbits/s
Network (Réseau) 8 cartes réseau 24 000Mbits/s
Accélérateurs 8GPU NVIDIA A100 (NVLink) 40Gio
320Gio par machine virtuelle

NDm_A100_v4-series

La machine virtuelle de série NDm A100 v4 est une nouveauté phare de la famille de processeurs graphiques Azure. Il est conçu pour l’entraînement Deep Learning haut de gamme et les charges de travail HPC avec montée en puissance parallèle et scale-out. La série NDm A100 v4 commence avec une machine virtuelle unique et huit GPU NVIDIA Ampere A100 80 GB Tensor Core. Les déploiements basé sur NDm A100 v4 peuvent monter en puissance jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 1,6 To/s par machine virtuelle. Chaque GPU au sein de la machine virtuelle est fourni avec sa propre connexion indépendante de la topologie NVIDIA Mellanox HDR InfiniBand 200 Go/s. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA. Chaque GPU est doté de la connectivité NVLINK 3.0 pour la communication au sein de la machine virtuelle, et l’instance s’appuie sur 96 cœurs de processeur physiques AMD Epyc™ 7V12 (Rome) de 2e génération. Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de ML et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d’autres frameworks. En outre, l’interconnexion InfiniBand avec montée en puissance parallèle est prise en charge par un grand nombre d’outils IA et HPC existants basés sur les bibliothèques de communication NCCL2 de NVIDIA pour le clustering transparent des GPU.

Voir la page complète de la série NDm A100 v4.

Élément Quantité
Nombre Unités
Spécifications
ID de référence SKU, Niveau de performance Unités, etc.
Processeur 96vCores AMD Epyc™ 7V12 (Rome)
Mémoire 900Gio
Disques de données 32disques 80 000IOPS / 800Mbits/s
Network (Réseau) 8cartes réseau 24 000Mbits/s
Accélérateurs 8GPU NVIDIA A100 (NVLink) 80Gio
640Gio par machine virtuelle

Série ND H100 v5

La machine virtuelle (VM) de la série ND H100 v5 est un nouvel ajout phare à la famille Azure GPU. Il est conçu pour la formation Deep Learning haut de gamme et les charges de travail IA générative et HPC étroitement couplées. La série ND H100 v5 commence avec une seule machine virtuelle et huit GPU NVIDIA H100 Tensor Core. Les déploiements basés sur ND H100 v5 peuvent évoluer jusqu'à des milliers de GPU avec 3,2 To/s de bande passante d'interconnexion par VM. Chaque GPU de la machine virtuelle est fourni avec sa propre connexion NVIDIA Quantum-2 CX7 InfiniBand dédiée et indépendante de la topologie. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA. Chaque GPU dispose d'une connectivité NVLINK 4.0 pour la communication au sein de la machine virtuelle, et l'instance est soutenue par 96 cœurs de processeur Intel Xeon Scalable de 4e génération. Ces instances offrent d'excellentes performances pour de nombreux outils d'IA, de ML et d'analyse qui prennent en charge l'accélération GPU « prête à l'emploi », tels que TensorFlow, Pytorch, Caffe, RAPIDS et d'autres frameworks. De plus, l'interconnexion InfiniBand scale-out est prise en charge par un large ensemble d'outils IA et HPC existants qui sont basés sur les bibliothèques de communication NCCL de NVIDIA pour un clustering transparent des GPU.

Voir la page complète de la série ND H100 v5.

Élément Quantité
Nombre Unités
Spécifications
ID de référence SKU, Niveau de performance Unités, etc.
Processeur 96vCores Intel® Xeon® Scalable (Sapphire Rapids)
Mémoire 1900Gio
Disques de données 32disques 40 800IOPS / 612Mbits/s
Network (Réseau) 8cartes réseau 80 000Mbits/s
Accélérateurs 8GPU NVIDIA H100 (NVLink) 80Gio
640Gio par machine virtuelle

Série ND_MI300X_v5

La machine virtuelle de la série ND MI300X v5 est un nouvel ajout phare à la famille Azure GPU. Elle a été conçue pour la formation Deep Learning haut de gamme et les charges de travail IA générative et HPC Scale-up et Scale-out étroitement couplées.

La machine virtuelle de la série ND MI300X v5 commence par huit GPU AMD Instinct MI300 et deux processeurs Intel Xeon Scalable de quatrième génération pour un total de 96 cœurs physiques. Chaque GPU au sein de la machine virtuelle est ensuite connecté aux autres via des liaisons AMD Infinity Fabric de quatrième génération avec une bande passante de 128 Go/s par GPU et 896 Go/s de bande passante agrégée.

Les déploiements ND MI300X v5 peuvent effectuer un scale-up jusqu’à des milliers de GPU avec une bande passante d’interconnexion de 3,2 Tbit/s par machine virtuelle. Chaque GPU de la machine virtuelle est fourni avec sa propre connexion NVIDIA Quantum-2 CX7 InfiniBand dédiée et indépendante de la topologie. Ces connexions sont configurées automatiquement entre les machines virtuelles occupant le même groupe de machines virtuelles identiques, et prennent en charge GPUDirect RDMA.

Ces instances offrent d’excellentes performances pour de nombreux outils d’IA, de Machine Learning et d’analyse qui prennent en charge l’accélération GPU « prêts à l’emploi », tels que TensorFlow, Pytorch et d’autres infrastructures. En outre, l’interconnexion InfiniBand de Scale-out prend en charge un grand ensemble d’outils IA et HPC existants basés sur la bibliothèque RCCL (ROCm Communication Collectives Library) d’AMD pour un clustering transparent des GPU.

Affichez la page complète de la série ND_MI300X_v5.

Élément Quantité
Nombre Unités
Spécifications
ID de référence SKU, Niveau de performance Unités, etc.
Processeur 96 vCores Intel® Xeon® Scalable (Sapphire Rapids)
Mémoire 1850 Gio
Stockage local 1 disque 1 000 Gio
Disques distants 32 disques 40800 IOPS
612 Mo/s
Network (Réseau) 8 cartes réseau 80000 Mbits/s
Accélérateurs 8 GPU AMD MI300X 192 Gio
1535 Gio par machine virtuelle

Série de familles ND de la génération précédente

Pour connaître les tailles antérieures, consultez les tailles de la génération précédente.

Autres informations de taille

Liste de toutes les tailles disponibles : Tailles

Calculatrice de prix : Calculatrice de prix

Informations sur les types de disques : Types de disques

Étapes suivantes

Lisez-en davantage sur les Unités de calcul Azure (ACU) pour découvrir comment comparer les performances de calcul entre les références Azure.

Consultez Hôtes Azure Dedicated Host pour connaître les serveurs physiques capables d’héberger une ou plusieurs machines virtuelles attribuées à un abonnement Azure.

Commencez ici pour découvrir comment Superviser les machines virtuelles Azure.