Série ND

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Les machines virtuelles de la série ND sont nouvelles dans la famille de GPU et sont conçues pour les charges de travail d’intelligence artificielle et d’apprentissage profond. Elles offrent d’excellentes performances pour l’apprentissage et l’inférence. Les instances ND sont pilotées par des GPU Tesla P40 de NVIDIA et des processeurs Intel Xeon E5-2690 v4 (Broadwell). Ces instances offrent d’excellentes performances pour les opérations à virgule flottante simple précision, et pour les charges de travail d’intelligence artificielle utilisant Microsoft Cognitive Toolkit, TensorFlow, Caffe et d’autres infrastructures. La série ND offre également une taille de mémoire GPU beaucoup plus importante (24 Go), ce qui permet d’adapter des modèles de réseaux neuronaux beaucoup plus volumineux. À l’instar de la série NC, la série ND offre une configuration avec un réseau à faible latence secondaire et à haut débit grâce à l’accès direct à la mémoire à distance (RDMA), ainsi que la connectivité InfiniBand, de sorte que vous pouvez exécuter des travaux de formation à grande échelle s’étendant sur de nombreux GPU.

Stockage Premium : Pris(e) en charge
Mise en cache du Stockage Premium : Pris(e) en charge
Disques Ultra : pris en charge (En savoir plus sur la disponibilité, l’utilisation et les performances)
Migration dynamique : Non pris en charge
Mises à jour avec préservation de la mémoire : Non pris en charge
Génération de machine virtuelle prise en charge : Génération 1 et 2
Performances réseau accélérées : Non pris en charge
Disques de système d’exploitation éphémères : Pris en charge
Interconnexion Nvidia/NVLink : Non pris en charge
Virtualisation imbriquée : non pris en charge

Important

Pour cette série de machines virtuelles, le quota de processeurs virtuels (cœurs) par région dans votre abonnement est initialement défini sur 0. Demandez une augmentation du quota de processeurs virtuels pour cette série dans une région disponible.

Taille Processeurs virtuels Mémoire : Gio Stockage temporaire (SSD) en Gio GPU Mémoire GPU : Gio Disques de données max. Débit du disque non mis en cache max. : IOPS/Mbits/s Nombre max de cartes réseau
Standard_ND6s 6 112 736 1 24 12 20 000/200 4
Standard_ND12s 12 224 1474 2 48 24 40 000/400 8
Standard_ND24s 24 448 2948 4 96 32 80 000/800 8
Standard_ND24rs* 24 448 2948 4 96 32 80 000/800 8

1 GPU = une carte P40.

*Prenant en charge RDMA

Systèmes d’exploitation et pilotes pris en charge

Pour tirer parti des fonctionnalités GPU de machines virtuelles de la série N Azure, installez des pilotes GPU NVIDIA.

L’extension du pilote GPU NVIDIA installe les pilotes CUDA ou GRID NVIDIA appropriés sur une machine virtuelle de série N. Installez ou gérez l’extension à l’aide du portail Azure ou d’outils tels qu’Azure PowerShell ou les modèles Azure Resource Manager. Consultez la documentation sur l’extension du pilote GPU NVIDIA pour connaître les systèmes d’exploitation pris en charge et les étapes de déploiement. Pour des informations générales sur les extensions de machine virtuelle, consultez Extensions et fonctionnalités des machines virtuelles Azure.

Si vous choisissez d’installer manuellement les pilotes GPU NVIDIA, voir Configuration des pilotes GPU de série N pour Windows ou Configuration des pilotes GPU de série N pour Linux pour connaître les systèmes d’exploitation et pilotes pris en charge, ainsi que les étapes d’installation et de vérification.

Définitions des tailles de tables

  • La capacité de stockage est indiquée en unités de Gio ou 1 024^3 octets. Lorsque vous comparez des disques mesurés en Go (1 000^3 octets) à des disques mesurés en Gio (1 024^3), n’oubliez pas que les nombres de capacité donnés en Gio peuvent paraitre inférieurs. Par exemple, 1 023 Gio = 1 098,4 Go.

  • Le débit de disque est mesuré en opérations d’entrée/sortie par seconde (IOPS) et Mbit/s où Mbit/s = 10^6 octets par seconde.

  • Les disques de données peuvent fonctionner en mode avec ou sans mise en cache. En cas de fonctionnement du disque de données avec mise en cache, le mode de mise en cache hôte est défini sur ReadOnly ou ReadWrite. En cas de fonctionnement du disque de données sans mise en cache, le mode de mise en cache hôte est défini sur Aucun.

  • Pour découvrir comment obtenir les meilleures performances de stockage pour vos machines virtuelles, consultez Performances des disques et des machines virtuelles.

  • La bande passante réseau attendue est la bande passante agrégée maximale qui est allouée par type de machine virtuelle entre toutes les cartes réseau, pour toutes les destinations. Pour plus d’informations, consultez Bande passante réseau des machines virtuelles.

    Les limites supérieures ne sont pas garanties. Les limites permettent de sélectionner le type de machine virtuelle approprié pour l’application prévue. Les performances réseau réelles dépendent de nombreux facteurs, notamment la congestion du réseau, les charges de l’application, ainsi que les paramètres réseau. Pour plus d’informations sur l’optimisation du débit du réseau, consultez Optimiser le débit du réseau pour les machines virtuelles Azure. Pour atteindre la performance réseau attendue sous Linux ou Windows, il peut être nécessaire de sélectionner une version spécifique ou d’optimiser votre machine virtuelle. Pour plus d’informations, consultez Test de bande passante/débit (NTTTCP).

Autres tailles et informations

Calculatrice de prix : Calculatrice de prix

Pour plus d’informations sur les types de disques, consultez Quels sont les types de disque disponibles dans Azure ?

Étapes suivantes

Lisez-en davantage sur les Unités de calcul Azure (ACU) pour découvrir comment comparer les performances de calcul entre les références Azure.