Partage via


Vue d’ensemble des machines virtuelles de la série HBv3

S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes

Un serveur de la série HBv3 comprend 2 processeurs EPYC 7V73X de 64 cœurs, soit un total de 128 cœurs « Zen3 » physiques avec technologie AMD 3D V-Cache. Le multithreading simultané (SMT) est désactivé sur HBv3. Ces 128 cœurs sont divisés en 16 sections (8 par socket), chaque section contenant 8 cœurs de processeur avec un accès uniforme à un cache L3 de 96 Mo. Les serveurs HBv3 Azure exécutent également les paramètres du BIOS AMD suivants :

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

Par conséquent, le serveur démarre avec quatre domaines NUMA (deux par socket). Chaque domaine a une taille de 32 cœurs. Chaque NUMA a un accès direct à 4 canaux de DRAM physique fonctionnant à 3 200 MT/s.

Pour permettre à l’hyperviseur Azure de fonctionner sans interférer avec la machine virtuelle, nous réservons 8 cœurs physiques par serveur.

Topologie des machines virtuelles

Le diagramme suivant montre la topologie du serveur. Nous nous réservons ces 8 cœurs de l’hôte hyperviseur (jaune) de manière symétrique sur les deux sockets d’UC, en prenant les 2 premiers cœurs des CCD (Core Complex Dies) spécifiques sur chaque domaine NUMA, avec les cœurs restants pour la machine virtuelle de série HBv3 (vert).

Topologie du serveur de série HBv3

La limite CCD n’est pas équivalente à une limite NUMA. Sur HBv3, un groupe de quatre (4) CCD consécutifs est configuré en tant que domaine NUMA, à la fois au niveau du serveur hôte et au sein d’une machine virtuelle invitée. Ainsi, toutes les tailles de machine virtuelle HBv3 exposent 4 domaines NUMA qui apparaissent à un système d’exploitation et à une application, comme illustré. Il s’agit de 4 domaines NUMA uniformes, chacun avec un nombre différent de cœurs selon la taille de machine virtuelle HBv3 spécifique.

Topologie de la machine virtuelle de série HBv3

Chaque taille de machine virtuelle HBv3 est similaire dans la disposition physique, les caractéristiques et les performances d’un UC différent de la série AMD EPYC 7003, comme suit :

Taille de machine virtuelle de série HBv3 Domaines NUMA Cœurs par nœud NUMA Similarité avec AMD EPYC
Standard_HB120rs_v3 4 30 Double socket EPYC 7773X
Standard_HB120-96rs_v3 4 24 Double socket EPYC 7643
Standard_HB120-64rs_v3 4 16 Double socket EPYC 7573X
Standard_HB120-32rs_v3 4 8 Double socket EPYC 7373X
Standard_HB120-16rs_v3 4 4 Double socket EPYC 72F3

Notes

Les tailles de machine virtuelle avec cœurs limités réduisent uniquement le nombre de cœurs physiques exposés à la machine virtuelle. Toutes les ressources partagées globales (RAM, bande passante mémoire, cache L3, connectivité GMI et xGMI, InfiniBand, réseau Ethernet Azure, disque SSD local) restent constantes. Cela permet à un client de choisir la taille de machine virtuelle optimale pour un ensemble donné d’exigences en termes de charge de travail ou de licences logicielles.

Le mappage NUMA virtuel de chaque taille de machine virtuelle HBv3 est mappé à la topologie NUMA physique sous-jacente. Il n’y a pas d’abstraction potentiellement trompeuse de la topologie matérielle.

La topologie exacte pour les différentes tailles de machine virtuelle HBv3 apparaît comme suit en utilisant la sortie de lstopo :

lstopo-no-graphics --no-io --no-legend --of txt

Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs_v3

Sortie de lstopo pour la machine virtuelle HBv3-120

Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-96_v3

Sortie de lstopo pour la machine virtuelle HBv3-96

Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-64_v3

Sortie de lstopo pour la machine virtuelle HBv3-64

Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-32_v3

Sortie de lstopo pour la machine virtuelle HBv3-32

Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-16_v3

Sortie de lstopo pour la machine virtuelle HBv3-16

Mise en réseau InfiniBand

Les machines virtuelles HBv3 sont également dotées de cartes réseau InfiniBand HDR Nvidia Mellanox (ConnectX-6) fonctionnant jusqu’à 200 gigabits/s. La carte réseau est transmise à la machine virtuelle via SR-IOV, ce qui permet au trafic réseau de contourner l’hyperviseur. Par conséquent, les clients chargent des pilotes OFED Mellanox standard sur des machines virtuelles HBv3 de la même manière que sur un environnement matériel nu.

Les machines virtuelles HBv3 prennent en charge le routage adaptatif, le transport connecté dynamique (DCT) (en même temps que les transports standard RC et UD) et le déchargement matériel des collectifs MPI sur le processeur intégré de l’adaptateur ConnectX-6. Ces fonctionnalités améliorent les performances, la scalabilité et la cohérence des applications, et leur utilisation est recommandée.

Stockage temporaire

Les machines virtuelles HBv3 sont dotées de 3 disques SSD physiques locaux. Un appareil est préformaté pour servir de fichier de page ; il est apparu dans votre machine virtuelle sous forme de disque « SSD » générique.

Deux autres disques SSD de plus grande taille sont fournis en tant qu’appareils NVMe de bloc non formatés via NVMeDirect. Comme l’appareil NVMe de bloc contourne l’hyperviseur, il dispose d’une bande passante plus élevée, d’un nombre IOPS plus élevé et d’une latence inférieure par IOP.

Quand il est associé à une batterie agrégée par bandes, le disque SSD NVMe fournit jusqu’à 7 Go/s de lectures et 3 Go/s d’écritures, et jusqu’à 186 000 IOPS (lectures) et 201 000 IOPS (écritures) pour les profondeurs de file d’attente profondes.

Spécifications matérielles

Spécifications matérielles Machines virtuelles de série HBv3
Cœurs 120, 96, 64, 32 ou 16 (SMT désactivé)
UC AMD EPYC 7V73X
Fréquence de l’UC (non AVX) 3 GHz (tous les cœurs), 3,5 GHz (jusqu’à 10 cœurs)
Mémoire 448 Go (RAM par cœur en fonction de la taille de la machine virtuelle)
Disque local 2 disques NVMe de 960 Go (bloc), disque SSD de 480 Go (fichier d’échange)
Infiniband Mellanox ConnectX-6 HDR InfiniBand 200 Gbits/s
Réseau Ethernet 50 Gbits (40 Gbits utilisables) SmartNIC Azure 2ème gén.

Spécifications logicielles

Spécifications logicielles Machines virtuelles de série HBv3
Taille de travail MPI max 36 000 cœurs (300 machines virtuelles dans un seul groupe de machines virtuelles identiques avec singlePlacementGroup=true)
Prise en charge MPI HPC-X, Intel MPI, OpenMPI, MVAPICH2, MPICH
Frameworks supplémentaires UCX, libfabric, PGAS
Prise en charge de Stockage Azure Disques Standard et Premium (maximum 32 disques)
Prise en charge du système d’exploitation pour SRIOV RDMA RHEL 7.9+, Ubuntu 18.04+, SLES 15.4, WinServer 2016+
Système d’exploitation recommandé pour de meilleures performances Windows Server 2019+
Prise en charge d’Orchestrator Azure CycleCloud, Azure Batch, AKS ; options de configuration de cluster

Notes

Windows Server 2012 R2 n’est pas pris en charge sur les HBv3 et autres machines virtuelles ayant plus de 64 cœurs (virtuels ou physiques). Pour plus d’informations, consultez Systèmes d’exploitation invités Windows pris en charge pour Hyper-V sur Windows Server.

Important

Ce document fait référence à une version de Linux qui approche ou est en fin de vie (EOL). Envisagez une mise à jour vers une version plus récente.

Étapes suivantes