Delen via


Overzicht van virtuele machines uit de HBv3-serie

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️

Een HBv3-serie server beschikt over 2 * 64 core EPYC 7V73X CPU's voor in totaal 128 fysieke "Zen3" kernen met AMD 3D V-Cache. Gelijktijdige Multithreading (SMT) is uitgeschakeld op HBv3. Deze 128 kernen zijn onderverdeeld in 16 secties (8 per socket), elke sectie met 8 processorkernen met uniforme toegang tot een L3-cache van 96 MB. Azure HBv3-servers voeren ook de volgende AMD BIOS-instellingen uit:

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

Als gevolg hiervan wordt de server opgestart met 4 NUMA-domeinen (2 per socket). Elk domein heeft een grootte van 32 kernen. Elke NUMA heeft directe toegang tot 4 kanalen van fysieke DRAM op 3.200 MT/s.

Om de Azure-hypervisor ruimte te bieden om te werken zonder de VM te verstoren, reserveren we 8 fysieke kernen per server.

VM-topologie

In het volgende diagram ziet u de topologie van de server. We reserveren deze 8 hypervisorhostkernen (geel) symmetrisch over beide CPU-sockets, waarbij de eerste 2 kernen van specifieke Core Complex Dies (CCD's) op elk NUMA-domein worden gebruikt, met de resterende kernen voor de VM uit de HBv3-serie (groen).

Topologie van de HBv3-serieserver

De CCD-grens is niet gelijk aan een NUMA-grens. Op HBv3 wordt een groep van vier opeenvolgende (4) CCD's geconfigureerd als een NUMA-domein, zowel op hostserverniveau als binnen een gast-VM. Daarom maken alle HBv3-VM-grootten 4 NUMA-domeinen beschikbaar die lijken op een besturingssysteem en toepassing, zoals wordt weergegeven. 4 uniforme NUMA-domeinen, elk met een verschillend aantal kernen, afhankelijk van de specifieke HBv3-VM-grootte.

Topologie van de VM uit de HBv3-serie

Elke HBv3 VM-grootte is vergelijkbaar in de fysieke indeling, functies en prestaties van een andere CPU dan de AMD EPYC 7003-serie, als volgt:

VM-grootte van de HBv3-serie NUMA-domeinen Kernen per NUMA-domein Gelijkenis met AMD EPYC
Standard_HB120rs_v3 4 30 Dubbele socket EPYC 7773X
Standard_HB120-96rs_v3 4 24 Dubbele socket EPYC 7643
Standard_HB120-64rs_v3 4 16 EPYC 7573X met dubbele socket
Standard_HB120-32rs_v3 4 8 EPYC 7373X met dubbele socket
Standard_HB120-16rs_v3 4 4 EPYC 72F3 met dubbele socket

Notitie

De VM-grootten met beperkte kernen verminderen alleen het aantal fysieke kernen dat aan de VIRTUELE machine wordt blootgesteld. Alle globale gedeelde assets (RAM, geheugenbandbreedte, L3-cache, GMI- en xGMI-connectiviteit, InfiniBand, Azure Ethernet-netwerk, lokale SSD) blijven constant. Hierdoor kan een klant een VM-grootte kiezen die het beste is afgestemd op een bepaalde set workload- of softwarelicentiebehoeften.

De virtuele NUMA-toewijzing van elke HBv3-VM-grootte wordt toegewezen aan de onderliggende fysieke NUMA-topologie. Er is geen potentieel misleidende abstractie van de hardwaretopologie.

De exacte topologie voor de verschillende HBv3 VM-grootte wordt als volgt weergegeven met behulp van de uitvoer van lstopo:

lstopo-no-graphics --no-io --no-legend --of txt

Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs_v3

lstopo-uitvoer voor HBv3-120 VM

Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs-96_v3

lstopo-uitvoer voor HBv3-96 VM

Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs-64_v3

lstopo-uitvoer voor HBv3-64 VM

Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs-32_v3

lstopo-uitvoer voor HBv3-32 VM

Klik om lstopo-uitvoer weer te geven voor Standard_HB120rs-16_v3

lstopo-uitvoer voor HBv3-16 VM

InfiniBand-netwerken

HBv3-VM's bevatten ook Nvidia Mellanox HDR InfiniBand-netwerkadapters (ConnectX-6) die tot 200 Gigabits per seconde werken. De NIC wordt via SRIOV doorgegeven aan de virtuele machine, waardoor netwerkverkeer de hypervisor kan omzeilen. Als gevolg hiervan laden klanten standaard Mellanox OFED-stuurprogramma's op HBv3-VM's zoals ze een bare-metalomgeving zouden zijn.

HBv3-VM's ondersteunen adaptieve routering, dynamisch verbonden transport (DCT, samen met standaard RC- en UD-transporten) en hardwaregebaseerde offload van MPI-collectieven naar de onboardprocessor van de ConnectX-6-adapter. Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt aanbevolen.

Tijdelijke opslag

HBv3-VM's hebben 3 fysiek lokale SSD-apparaten. Eén apparaat is vooraf opgemaakt om te fungeren als een paginabestand en het werd weergegeven in uw VIRTUELE machine als een algemeen SSD-apparaat.

Twee andere grotere SCHIJVEN worden geleverd als niet-opgemaakte BLOK-NVMe-apparaten via NVMeDirect. Omdat het BLOK NVMe-apparaat de hypervisor omzeilt, heeft het een hogere bandbreedte, hogere IOPS en lagere latentie per IOP.

Wanneer de NVMe SSD is gekoppeld in een gestreepte matrix, biedt de NVMe SSD maximaal 7 GB/s lees- en schrijfbewerkingen van 3 GB/s, en maximaal 186.000 IOPS (leesbewerkingen) en 201.000 IOPS (schrijfbewerkingen) voor diepe wachtrijdiepten.

Hardwarespecificaties

Hardwarespecificaties VM's uit de HBv3-serie
Kernen 120, 96, 64, 32 of 16 (SMT uitgeschakeld)
CPU AMD EPYC 7V73X
CPU-frequentie (niet-AVX) 3,0 GHz (alle kernen), 3,5 GHz (maximaal 10 kernen)
Geheugen 448 GB (RAM per kern is afhankelijk van vm-grootte)
Lokale schijf 2 * 960 GB NVMe (blok), 480 GB SSD (paginabestand)
Infiniband 200 Gb/s Mellanox ConnectX-6 HDR InfiniBand
Netwerk 50 Gb/s Ethernet (40 Gb/s bruikbaar) Azure second Gen SmartNIC

Softwarespecificaties

Softwarespecificaties VM's uit de HBv3-serie
Maximale MPI-taakgrootte 36.000 kernen (300 VM's in één virtuele-machineschaalset met singlePlacementGroup=true)
MPI-ondersteuning HPC-X, Intel MPI, OpenMPI, MVAPICH2, MPICH
Aanvullende frameworks UCX, libfabric, PGAS
Ondersteuning voor Azure Storage Standard- en Premium-schijven (maximaal 32 schijven)
Besturingssysteemondersteuning voor SRIOV RDMA RHEL 7.9+, Ubuntu 18.04+, SLES 15.4, WinServer 2016+
Aanbevolen besturingssysteem voor prestaties Windows Server 2019+
Orchestrator-ondersteuning Azure CycleCloud, Azure Batch, AKS; opties voor clusterconfiguratie

Notitie

Windows Server 2012 R2 wordt niet ondersteund op HBv3 en andere VM's met meer dan 64 (virtuele of fysieke) kernen. Zie Ondersteunde Windows-gastbesturingssystemen voor Hyper-V op Windows Server voor meer informatie.

Belangrijk

Dit document verwijst naar een releaseversie van Linux die bijna of aan het einde van de levensduur (EOL) nadert. Overweeg om bij te werken naar een recentere versie.

Volgende stappen