Vue d’ensemble des machines virtuelles de la série HBv3
S’applique aux : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Groupes identiques flexibles ✔️ Groupes identiques uniformes
Un serveur de la série HBv3 comprend 2 processeurs EPYC 7V73X de 64 cœurs, soit un total de 128 cœurs « Zen3 » physiques avec technologie AMD 3D V-Cache. Le multithreading simultané (SMT) est désactivé sur HBv3. Ces 128 cœurs sont divisés en 16 sections (8 par socket), chaque section contenant 8 cœurs de processeur avec un accès uniforme à un cache L3 de 96 Mo. Les serveurs HBv3 Azure exécutent également les paramètres du BIOS AMD suivants :
Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled
Par conséquent, le serveur démarre avec quatre domaines NUMA (deux par socket). Chaque domaine a une taille de 32 cœurs. Chaque NUMA a un accès direct à 4 canaux de DRAM physique fonctionnant à 3 200 MT/s.
Pour permettre à l’hyperviseur Azure de fonctionner sans interférer avec la machine virtuelle, nous réservons 8 cœurs physiques par serveur.
Topologie des machines virtuelles
Le diagramme suivant montre la topologie du serveur. Nous nous réservons ces 8 cœurs de l’hôte hyperviseur (jaune) de manière symétrique sur les deux sockets d’UC, en prenant les 2 premiers cœurs des CCD (Core Complex Dies) spécifiques sur chaque domaine NUMA, avec les cœurs restants pour la machine virtuelle de série HBv3 (vert).
La limite CCD n’est pas équivalente à une limite NUMA. Sur HBv3, un groupe de quatre (4) CCD consécutifs est configuré en tant que domaine NUMA, à la fois au niveau du serveur hôte et au sein d’une machine virtuelle invitée. Ainsi, toutes les tailles de machine virtuelle HBv3 exposent 4 domaines NUMA qui apparaissent à un système d’exploitation et à une application, comme illustré. Il s’agit de 4 domaines NUMA uniformes, chacun avec un nombre différent de cœurs selon la taille de machine virtuelle HBv3 spécifique.
Chaque taille de machine virtuelle HBv3 est similaire dans la disposition physique, les caractéristiques et les performances d’un UC différent de la série AMD EPYC 7003, comme suit :
Taille de machine virtuelle de série HBv3 | Domaines NUMA | Cœurs par nœud NUMA | Similarité avec AMD EPYC |
---|---|---|---|
Standard_HB120rs_v3 | 4 | 30 | Double socket EPYC 7773X |
Standard_HB120-96rs_v3 | 4 | 24 | Double socket EPYC 7643 |
Standard_HB120-64rs_v3 | 4 | 16 | Double socket EPYC 7573X |
Standard_HB120-32rs_v3 | 4 | 8 | Double socket EPYC 7373X |
Standard_HB120-16rs_v3 | 4 | 4 | Double socket EPYC 72F3 |
Notes
Les tailles de machine virtuelle avec cœurs limités réduisent uniquement le nombre de cœurs physiques exposés à la machine virtuelle. Toutes les ressources partagées globales (RAM, bande passante mémoire, cache L3, connectivité GMI et xGMI, InfiniBand, réseau Ethernet Azure, disque SSD local) restent constantes. Cela permet à un client de choisir la taille de machine virtuelle optimale pour un ensemble donné d’exigences en termes de charge de travail ou de licences logicielles.
Le mappage NUMA virtuel de chaque taille de machine virtuelle HBv3 est mappé à la topologie NUMA physique sous-jacente. Il n’y a pas d’abstraction potentiellement trompeuse de la topologie matérielle.
La topologie exacte pour les différentes tailles de machine virtuelle HBv3 apparaît comme suit en utilisant la sortie de lstopo :
lstopo-no-graphics --no-io --no-legend --of txt
Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs_v3
Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-96_v3
Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-64_v3
Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-32_v3
Cliquez pour afficher la sortie de lstopo pour Standard_HB120rs-16_v3
Mise en réseau InfiniBand
Les machines virtuelles HBv3 sont également dotées de cartes réseau InfiniBand HDR Nvidia Mellanox (ConnectX-6) fonctionnant jusqu’à 200 gigabits/s. La carte réseau est transmise à la machine virtuelle via SR-IOV, ce qui permet au trafic réseau de contourner l’hyperviseur. Par conséquent, les clients chargent des pilotes OFED Mellanox standard sur des machines virtuelles HBv3 de la même manière que sur un environnement matériel nu.
Les machines virtuelles HBv3 prennent en charge le routage adaptatif, le transport connecté dynamique (DCT) (en même temps que les transports standard RC et UD) et le déchargement matériel des collectifs MPI sur le processeur intégré de l’adaptateur ConnectX-6. Ces fonctionnalités améliorent les performances, la scalabilité et la cohérence des applications, et leur utilisation est recommandée.
Stockage temporaire
Les machines virtuelles HBv3 sont dotées de 3 disques SSD physiques locaux. Un appareil est préformaté pour servir de fichier de page ; il est apparu dans votre machine virtuelle sous forme de disque « SSD » générique.
Deux autres disques SSD de plus grande taille sont fournis en tant qu’appareils NVMe de bloc non formatés via NVMeDirect. Comme l’appareil NVMe de bloc contourne l’hyperviseur, il dispose d’une bande passante plus élevée, d’un nombre IOPS plus élevé et d’une latence inférieure par IOP.
Quand il est associé à une batterie agrégée par bandes, le disque SSD NVMe fournit jusqu’à 7 Go/s de lectures et 3 Go/s d’écritures, et jusqu’à 186 000 IOPS (lectures) et 201 000 IOPS (écritures) pour les profondeurs de file d’attente profondes.
Spécifications matérielles
Spécifications matérielles | Machines virtuelles de série HBv3 |
---|---|
Cœurs | 120, 96, 64, 32 ou 16 (SMT désactivé) |
UC | AMD EPYC 7V73X |
Fréquence de l’UC (non AVX) | 3 GHz (tous les cœurs), 3,5 GHz (jusqu’à 10 cœurs) |
Mémoire | 448 Go (RAM par cœur en fonction de la taille de la machine virtuelle) |
Disque local | 2 disques NVMe de 960 Go (bloc), disque SSD de 480 Go (fichier d’échange) |
Infiniband | Mellanox ConnectX-6 HDR InfiniBand 200 Gbits/s |
Réseau | Ethernet 50 Gbits (40 Gbits utilisables) SmartNIC Azure 2ème gén. |
Spécifications logicielles
Spécifications logicielles | Machines virtuelles de série HBv3 |
---|---|
Taille de travail MPI max | 36 000 cœurs (300 machines virtuelles dans un seul groupe de machines virtuelles identiques avec singlePlacementGroup=true) |
Prise en charge MPI | HPC-X, Intel MPI, OpenMPI, MVAPICH2, MPICH |
Frameworks supplémentaires | UCX, libfabric, PGAS |
Prise en charge de Stockage Azure | Disques Standard et Premium (maximum 32 disques) |
Prise en charge du système d’exploitation pour SRIOV RDMA | RHEL 7.9+, Ubuntu 18.04+, SLES 15.4, WinServer 2016+ |
Système d’exploitation recommandé pour de meilleures performances | Windows Server 2019+ |
Prise en charge d’Orchestrator | Azure CycleCloud, Azure Batch, AKS ; options de configuration de cluster |
Notes
Windows Server 2012 R2 n’est pas pris en charge sur les HBv3 et autres machines virtuelles ayant plus de 64 cœurs (virtuels ou physiques). Pour plus d’informations, consultez Systèmes d’exploitation invités Windows pris en charge pour Hyper-V sur Windows Server.
Important
Ce document fait référence à une version de Linux qui approche ou est en fin de vie (EOL). Envisagez une mise à jour vers une version plus récente.
Étapes suivantes
- Consultez les dernières annonces, des exemples de charge de travail HPC et les résultats des performances sur les blogs de la communauté Azure Compute Tech.
- Pour une vision plus globale de l’architecture d’exécution des charges de travail HPC, consultez Calcul haute performance (HPC) sur Azure.