Overzicht van virtuele machines uit de HBv3-serie
Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️
Een HBv3-serie server beschikt over 2 * 64 core EPYC 7V73X CPU's voor in totaal 128 fysieke "Zen3" kernen met AMD 3D V-Cache. Gelijktijdige Multithreading (SMT) is uitgeschakeld op HBv3. Deze 128 kernen zijn onderverdeeld in 16 secties (8 per socket), elke sectie met 8 processorkernen met uniforme toegang tot een L3-cache van 96 MB. Azure HBv3-servers voeren ook de volgende AMD BIOS-instellingen uit:
Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled
Als gevolg hiervan wordt de server opgestart met 4 NUMA-domeinen (2 per socket). Elk domein heeft een grootte van 32 kernen. Elke NUMA heeft directe toegang tot 4 kanalen van fysieke DRAM op 3.200 MT/s.
Om de Azure-hypervisor ruimte te bieden om te werken zonder de VM te verstoren, reserveren we 8 fysieke kernen per server.
VM-topologie
In het volgende diagram ziet u de topologie van de server. We reserveren deze 8 hypervisorhostkernen (geel) symmetrisch over beide CPU-sockets, waarbij de eerste 2 kernen van specifieke Core Complex Dies (CCD's) op elk NUMA-domein worden gebruikt, met de resterende kernen voor de VM uit de HBv3-serie (groen).
De CCD-grens is niet gelijk aan een NUMA-grens. Op HBv3 wordt een groep van vier opeenvolgende (4) CCD's geconfigureerd als een NUMA-domein, zowel op hostserverniveau als binnen een gast-VM. Daarom maken alle HBv3-VM-grootten 4 NUMA-domeinen beschikbaar die lijken op een besturingssysteem en toepassing, zoals wordt weergegeven. 4 uniforme NUMA-domeinen, elk met een verschillend aantal kernen, afhankelijk van de specifieke HBv3-VM-grootte.
Elke HBv3 VM-grootte is vergelijkbaar in de fysieke indeling, functies en prestaties van een andere CPU dan de AMD EPYC 7003-serie, als volgt:
VM-grootte van de HBv3-serie | NUMA-domeinen | Kernen per NUMA-domein | Gelijkenis met AMD EPYC |
---|---|---|---|
Standard_HB120rs_v3 | 4 | 30 | Dubbele socket EPYC 7773X |
Standard_HB120-96rs_v3 | 4 | 24 | Dubbele socket EPYC 7643 |
Standard_HB120-64rs_v3 | 4 | 16 | EPYC 7573X met dubbele socket |
Standard_HB120-32rs_v3 | 4 | 8 | EPYC 7373X met dubbele socket |
Standard_HB120-16rs_v3 | 4 | 4 | EPYC 72F3 met dubbele socket |
Notitie
De VM-grootten met beperkte kernen verminderen alleen het aantal fysieke kernen dat aan de VIRTUELE machine wordt blootgesteld. Alle globale gedeelde assets (RAM, geheugenbandbreedte, L3-cache, GMI- en xGMI-connectiviteit, InfiniBand, Azure Ethernet-netwerk, lokale SSD) blijven constant. Hierdoor kan een klant een VM-grootte kiezen die het beste is afgestemd op een bepaalde set workload- of softwarelicentiebehoeften.
De virtuele NUMA-toewijzing van elke HBv3-VM-grootte wordt toegewezen aan de onderliggende fysieke NUMA-topologie. Er is geen potentieel misleidende abstractie van de hardwaretopologie.
De exacte topologie voor de verschillende HBv3 VM-grootte wordt als volgt weergegeven met behulp van de uitvoer van lstopo:
lstopo-no-graphics --no-io --no-legend --of txt
Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs_v3
Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs-96_v3
Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs-64_v3
Klik hier om lstopo-uitvoer weer te geven voor Standard_HB120rs-32_v3
Klik om lstopo-uitvoer weer te geven voor Standard_HB120rs-16_v3
InfiniBand-netwerken
HBv3-VM's bevatten ook Nvidia Mellanox HDR InfiniBand-netwerkadapters (ConnectX-6) die tot 200 Gigabits per seconde werken. De NIC wordt via SRIOV doorgegeven aan de virtuele machine, waardoor netwerkverkeer de hypervisor kan omzeilen. Als gevolg hiervan laden klanten standaard Mellanox OFED-stuurprogramma's op HBv3-VM's zoals ze een bare-metalomgeving zouden zijn.
HBv3-VM's ondersteunen adaptieve routering, dynamisch verbonden transport (DCT, samen met standaard RC- en UD-transporten) en hardwaregebaseerde offload van MPI-collectieven naar de onboardprocessor van de ConnectX-6-adapter. Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt aanbevolen.
Tijdelijke opslag
HBv3-VM's hebben 3 fysiek lokale SSD-apparaten. Eén apparaat is vooraf opgemaakt om te fungeren als een paginabestand en het werd weergegeven in uw VIRTUELE machine als een algemeen SSD-apparaat.
Twee andere grotere SCHIJVEN worden geleverd als niet-opgemaakte BLOK-NVMe-apparaten via NVMeDirect. Omdat het BLOK NVMe-apparaat de hypervisor omzeilt, heeft het een hogere bandbreedte, hogere IOPS en lagere latentie per IOP.
Wanneer de NVMe SSD is gekoppeld in een gestreepte matrix, biedt de NVMe SSD maximaal 7 GB/s lees- en schrijfbewerkingen van 3 GB/s, en maximaal 186.000 IOPS (leesbewerkingen) en 201.000 IOPS (schrijfbewerkingen) voor diepe wachtrijdiepten.
Hardwarespecificaties
Hardwarespecificaties | VM's uit de HBv3-serie |
---|---|
Kernen | 120, 96, 64, 32 of 16 (SMT uitgeschakeld) |
CPU | AMD EPYC 7V73X |
CPU-frequentie (niet-AVX) | 3,0 GHz (alle kernen), 3,5 GHz (maximaal 10 kernen) |
Geheugen | 448 GB (RAM per kern is afhankelijk van vm-grootte) |
Lokale schijf | 2 * 960 GB NVMe (blok), 480 GB SSD (paginabestand) |
Infiniband | 200 Gb/s Mellanox ConnectX-6 HDR InfiniBand |
Netwerk | 50 Gb/s Ethernet (40 Gb/s bruikbaar) Azure second Gen SmartNIC |
Softwarespecificaties
Softwarespecificaties | VM's uit de HBv3-serie |
---|---|
Maximale MPI-taakgrootte | 36.000 kernen (300 VM's in één virtuele-machineschaalset met singlePlacementGroup=true) |
MPI-ondersteuning | HPC-X, Intel MPI, OpenMPI, MVAPICH2, MPICH |
Aanvullende frameworks | UCX, libfabric, PGAS |
Ondersteuning voor Azure Storage | Standard- en Premium-schijven (maximaal 32 schijven) |
Besturingssysteemondersteuning voor SRIOV RDMA | RHEL 7.9+, Ubuntu 18.04+, SLES 15.4, WinServer 2016+ |
Aanbevolen besturingssysteem voor prestaties | Windows Server 2019+ |
Orchestrator-ondersteuning | Azure CycleCloud, Azure Batch, AKS; opties voor clusterconfiguratie |
Notitie
Windows Server 2012 R2 wordt niet ondersteund op HBv3 en andere VM's met meer dan 64 (virtuele of fysieke) kernen. Zie Ondersteunde Windows-gastbesturingssystemen voor Hyper-V op Windows Server voor meer informatie.
Belangrijk
Dit document verwijst naar een releaseversie van Linux die bijna of aan het einde van de levensduur (EOL) nadert. Overweeg om bij te werken naar een recentere versie.
Volgende stappen
- Lees meer over de nieuwste aankondigingen, voorbeelden van HPC-werkbelastingen en prestatieresultaten in de Blogs van de Azure Compute Tech Community.
- Zie High Performance Computing (HPC) op Azure voor een gedetailleerdere architectuurweergave van HPC-workloads die worden uitgevoerd.