Série NCv3

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Les machines virtuelles de série NCv3 sont optimisées par les GPU NVIDIA Tesla V100. Ces GPU peuvent fournir des performances de calcul une fois et demie supérieures à celles de la série NCv2. Les clients peuvent tirer parti de ces GPU mis à jour pour les charges de travail HPC traditionnelles telles que la modélisation de gisements, le séquençage de l’ADN, l’analyse des protéines, les simulations de Monte-Carlo, etc. La configuration NC24rs v3 fournit une interface réseau à haut débit et à faible latence optimisée pour les charges de travail d’informatique parallèle fortement couplées. Outre les GPU, les machines virtuelles de la série NCv3 sont également pilotées par des processeurs Intel Xeon E5-2690 v4 (Broadwell).

Stockage Premium : Pris en charge
Mise en cache du Stockage Premium : Pris(e) en charge
Disques Ultra : pris en charge (En savoir plus sur la disponibilité, l'utilisation et les performances)
Migration dynamique : Non pris en charge
Mises à jour avec préservation de la mémoire : Non pris en charge
Prise en charge de la génération de machine virtuelle : générations 1 et 2*
Performances réseau accélérées : Non pris en charge
Disques de système d’exploitation éphémères : Pris en charge
Interconnexion Nvidia/NVLink : Non pris en charge
Virtualisation imbriquée : non pris en charge

*Standard_NC24rs_v3 n’est pas prise en charge sur des machines virtuelles de 2e génération.

Important

Pour cette série de machines virtuelles, le quota de processeurs virtuels (cœurs) dans votre abonnement est initialement défini sur 0 dans chaque région. Demandez une augmentation du quota de processeurs virtuels pour cette série dans une région disponible. Ces références SKU ne sont pas disponibles pour évaluation ou les abonnements Azure Visual Studio. Votre niveau d’abonnement ne prend peut-être pas en charge la sélection ou le déploiement de ces références (SKU).

Taille Processeurs virtuels Mémoire : Gio Stockage temporaire (SSD) en Gio GPU Mémoire GPU : Gio Disques de données max. Débit du disque non mis en cache max. : IOPS/Mbits/s Nombre max de cartes réseau
Standard_NC6s_v3 6 112 736 1 16 12 20 000/200 4
Standard_NC12s_v3 12 224 1474 2 32 24 40 000/400 8
Standard_NC24s_v3 24 448 2948 4 64 32 80 000/800 8
Standard_NC24rs_v3* 24 448 2948 4 64 32 80 000/800 8

1 GPU = une carte V100.

*Prenant en charge RDMA

Systèmes d’exploitation et pilotes pris en charge

Pour tirer parti des fonctionnalités GPU de machines virtuelles de la série N Azure, installez des pilotes GPU NVIDIA.

L’extension du pilote GPU NVIDIA installe les pilotes CUDA ou GRID NVIDIA appropriés sur une machine virtuelle de série N. Installez ou gérez l’extension à l’aide du portail Azure ou d’outils tels qu’Azure PowerShell ou les modèles Azure Resource Manager. Consultez la documentation sur l’extension du pilote GPU NVIDIA pour connaître les systèmes d’exploitation pris en charge et les étapes de déploiement. Pour des informations générales sur les extensions de machine virtuelle, consultez Extensions et fonctionnalités des machines virtuelles Azure.

Si vous choisissez d’installer manuellement les pilotes GPU NVIDIA, voir Configuration des pilotes GPU de série N pour Windows ou Configuration des pilotes GPU de série N pour Linux pour connaître les systèmes d’exploitation et pilotes pris en charge, ainsi que les étapes d’installation et de vérification.

Définitions des tailles de tables

  • La capacité de stockage est indiquée en unités de Gio ou 1 024^3 octets. Lorsque vous comparez des disques mesurés en Go (1 000^3 octets) à des disques mesurés en Gio (1 024^3), n’oubliez pas que les nombres de capacité donnés en Gio peuvent paraitre inférieurs. Par exemple, 1 023 Gio = 1 098,4 Go.

  • Le débit de disque est mesuré en opérations d’entrée/sortie par seconde (IOPS) et Mbit/s où Mbit/s = 10^6 octets par seconde.

  • Les disques de données peuvent fonctionner en mode avec ou sans mise en cache. En cas de fonctionnement du disque de données avec mise en cache, le mode de mise en cache hôte est défini sur ReadOnly ou ReadWrite. En cas de fonctionnement du disque de données sans mise en cache, le mode de mise en cache hôte est défini sur Aucun.

  • Pour découvrir comment obtenir les meilleures performances de stockage pour vos machines virtuelles, consultez Performances des disques et des machines virtuelles.

  • La bande passante réseau attendue est la bande passante agrégée maximale qui est allouée par type de machine virtuelle entre toutes les cartes réseau, pour toutes les destinations. Pour plus d’informations, consultez Bande passante réseau des machines virtuelles.

    Les limites supérieures ne sont pas garanties. Les limites permettent de sélectionner le type de machine virtuelle approprié pour l’application prévue. Les performances réseau réelles dépendent de nombreux facteurs, notamment la congestion du réseau, les charges de l’application, ainsi que les paramètres réseau. Pour plus d’informations sur l’optimisation du débit du réseau, consultez Optimiser le débit du réseau pour les machines virtuelles Azure. Pour atteindre la performance réseau attendue sous Linux ou Windows, il peut être nécessaire de sélectionner une version spécifique ou d’optimiser votre machine virtuelle. Pour plus d’informations, consultez Test de bande passante/débit (NTTTCP).

Autres tailles et informations

Calculatrice de prix : Calculatrice de prix

Pour plus d’informations sur les types de disques, consultez Quels sont les types de disque disponibles dans Azure ?

Étapes suivantes

Lisez-en davantage sur les Unités de calcul Azure (ACU) pour découvrir comment comparer les performances de calcul entre les références Azure.