Storlekar på virtuella HPC-datorer

Gäller för: ✔️ Virtuella Linux-datorer ✔️ med virtuella Windows-datorer ✔️ – flexibla skalningsuppsättningar ✔️ Enhetliga skalningsuppsättningar

Tips

Prova verktyget Väljare för virtuella datorer för att hitta andra storlekar som passar din arbetsbelastning bäst.

Virtuella datorer i Azure H-serien är utformade för att leverera prestanda, skalbarhet och kostnadseffektivitet i ledarskapsklass för olika verkliga HPC-arbetsbelastningar.

HBv3-serien Virtuella datorer är optimerade för HPC-program som vätskedynamik, explicit och implicit analys av finita element, vädermodellering, seismisk bearbetning, simulering av reservoarer och RTL-simulering. Virtuella HBv3-datorer har upp till 120 AMD EPYC™ 7003-seriens (Milano) PROCESSORkärnor, 448 GB RAM-minne och ingen hypertrådning. Virtuella datorer i HBv3-serien ger också 350 GB/s minnesbandbredd, upp till 32 MB L3-cache per kärna, upp till 7 GB/s blockenhets-SSD-prestanda och klockfrekvenser på upp till 3,5 GHz.

Alla virtuella datorer i HBv3-serien har 200 Gb/sek HDR InfiniBand från NVIDIA-nätverk för att aktivera MPI-arbetsbelastningar i superdatorskala. Dessa virtuella datorer är anslutna i ett icke-blockerande fettträd för optimerade och konsekventa RDMA-prestanda. HDR InfiniBand-infrastrukturresurserna har också stöd för anpassningsbar routning och dynamisk ansluten transport (DCT, förutom standardtransport av RC och UD). Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens, och deras användning rekommenderas starkt.

HBv2-serien Virtuella datorer är optimerade för program som drivs av minnesbandbredd, till exempel vätskedynamik, analys av finita element och simulering av reservoarer. Virtuella HBv2-datorer har 120 AMD EPYC 7742-processorkärnor, 4 GB RAM-minne per processorkärna och ingen samtidig flertrådning. Varje virtuell HBv2-dator ger upp till 340 GB/s minnesbandbredd och upp till 4 teraFLOPS av FP64-beräkning.

Virtuella HBv2-datorer har mellanox HDR InfiniBand på 200 Gb/sek, medan både virtuella datorer i HB- och HC-serien har mellanox EDR InfiniBand i 100 Gb/sek. Var och en av dessa typer av virtuella datorer är anslutna i ett fettträd som inte blockerar för optimerade och konsekventa RDMA-prestanda. Virtuella HBv2-datorer har stöd för anpassningsbar routning och dynamisk ansluten transport (DCT, förutom STANDARD RC- och UD-transporter). Dessa funktioner förbättrar programmets prestanda, skalbarhet och konsekvens, och deras användning rekommenderas starkt.

HB-serien Virtuella datorer är optimerade för program som drivs av minnesbandbredd, till exempel vätskedynamik, explicit analys av finita element och vädermodellering. Virtuella HB-datorer har 60 AMD EPYC 7551-processorkärnor, 4 GB RAM-minne per processorkärna och ingen hypertrådning. AMD EPYC-plattformen tillhandahåller mer än 260 GB/s minnesbandbredd.

HC-serien Virtuella datorer är optimerade för program som drivs av tät beräkning, till exempel implicit analys av finita element, molekylär dynamik och beräkningskemi. Virtuella HC-datorer har 44 Intel Xeon Platinum 8168-processorkärnor, 8 GB RAM-minne per processorkärna och ingen hypertrådning. Intel Xeon Platinum-plattformen stöder Intels omfattande ekosystem med programvaruverktyg som Intel Math Kernel Library.

H-serien Virtuella datorer är optimerade för program som drivs av höga CPU-frekvenser eller stort minne per kärna. Virtuella datorer i H-serien har 8 eller 16 Intel Xeon E5 2667 v3-processorkärnor, 7 eller 14 GB RAM per PROCESSORkärna och ingen hypertrådning. H-serien har Mellanox FDR InfiniBand på 56 Gb/sek i en icke-blockerande fettträdskonfiguration för konsekvent RDMA-prestanda. Virtuella datorer i H-serien stöder Intel MPI 5.x och MS-MPI.

Anteckning

Alla virtuella datorer i HBv3-, HBv2-, HB- och HC-serien har exklusiv åtkomst till de fysiska servrarna. Det finns bara 1 virtuell dator per fysisk server och det finns ingen delad flera innehavare med andra virtuella datorer för dessa VM-storlekar.

Anteckning

De virtuella datorerna A8 – A11 dras tillbaka från och med 2021-03-2021. Inga nya VM-distributioner av dessa storlekar är nu möjliga. Om du har befintliga virtuella datorer läser du e-postaviseringar för nästa steg, inklusive migrering till andra VM-storlekar i HPC Migration Guide.

RDMA-kompatibla instanser

De flesta storlekar på virtuella HPC-datorer har ett nätverksgränssnitt för rdma-anslutning (direkt minnesåtkomst). Valda storlekar i N-serien som anges med "r" är också RDMA-kompatibla. Det här gränssnittet är utöver det standardmässiga Azure Ethernet-nätverksgränssnittet som är tillgängligt i de andra VM-storlekarna.

Det här sekundära gränssnittet gör att RDMA-kompatibla instanser kan kommunicera via ett InfiniBand-nätverk (IB), som arbetar med HDR-priser för HBv3, HBv2, EDR-priser för HB, HC, NDv2 och FDR-priser för H16r, H16mr och andra RDMA-kompatibla virtuella datorer i N-serien. Dessa RDMA-funktioner kan öka skalbarheten och prestandan för MPI-baserade program (Message Passing Interface).

Anteckning

SR-IOV-stöd: I Azure HPC finns det för närvarande två klasser av virtuella datorer beroende på om de är SR-IOV-aktiverade för InfiniBand. För närvarande är nästan alla nyare, RDMA-kompatibla eller InfiniBand-aktiverade virtuella datorer på Azure SR-IOV aktiverade förutom H16r, H16mr och NC24r. RDMA aktiveras endast via InfiniBand-nätverket (IB) och stöds för alla RDMA-kompatibla virtuella datorer. IP över IB stöds bara på de SR-IOV-aktiverade virtuella datorerna. RDMA är inte aktiverat via Ethernet-nätverket.

  • Operativsystem – Linux-distributioner som CentOS, RHEL, Ubuntu och SUSE används ofta. Windows Server 2016 och nyare versioner stöds på alla virtuella datorer i HPC-serien. Windows Server 2012 R2 och Windows Server 2012 stöds också på virtuella datorer som inte är SR-IOV-aktiverade. Observera att Windows Server 2012 R2 inte stöds på HBv2 och senare eftersom VM-storlekar med fler än 64 (virtuella eller fysiska) kärnor. Se VM-avbildningar för en lista över VM-avbildningar som stöds på Marketplace och hur de kan konfigureras på rätt sätt. På sidorna för respektive VM-storlek visas även stöd för programvarustacken.

  • InfiniBand och drivrutiner – På infiniBand-aktiverade virtuella datorer krävs lämpliga drivrutiner för att aktivera RDMA. Se VM-avbildningar för en lista över VM-avbildningar som stöds på Marketplace och hur de kan konfigureras på rätt sätt. Se även aktivera InfiniBand för att lära dig mer om VM-tillägg eller manuell installation av InfiniBand-drivrutiner.

  • MPI – De SR-IOV-aktiverade VM-storlekarna i Azure gör att nästan alla varianter av MPI kan användas med Mellanox OFED. På icke-SR-IOV-aktiverade virtuella datorer använder MPI-implementeringar som stöds Gränssnittet Microsoft Network Direct (ND) för att kommunicera mellan virtuella datorer. Därför stöds endast Intel MPI 5.x och Microsoft MPI (MS-MPI) 2012 R2 eller senare versioner. Senare versioner av Intel MPI-körningsbiblioteket kanske inte är kompatibla med Azure RDMA-drivrutinerna. Mer information om hur du konfigurerar MPI på virtuella HPC-datorer i Azure finns i Konfigurera MPI för HPC för HPC .

    Anteckning

    RDMA-nätverksadressutrymme: RDMA-nätverket i Azure reserverar adressutrymmet 172.16.0.0/16. Om du vill köra MPI-program på instanser som distribuerats i ett virtuellt Azure-nätverk kontrollerar du att det virtuella nätverkets adressutrymme inte överlappar RDMA-nätverket.

Konfigurationsalternativ för kluster

Azure har flera alternativ för att skapa kluster av virtuella HPC-datorer som kan kommunicera med RDMA-nätverket, inklusive:

  • Virtuella datorer – Distribuera de RDMA-kompatibla virtuella HPC-datorerna i samma skalningsuppsättning eller tillgänglighetsuppsättning (när du använder Azure Resource Manager distributionsmodell). Om du använder den klassiska distributionsmodellen distribuerar du de virtuella datorerna i samma molntjänst.

  • VM-skalningsuppsättningar – I en VM-skalningsuppsättning ser du till att begränsa distributionen till en enda placeringsgrupp för InfiniBand-kommunikation inom skalningsuppsättningen. I en Resource Manager mall anger du singlePlacementGroup till exempel egenskapen till true. Observera att den maximala skalningsuppsättningsstorleken som kan spunnas upp med singlePlacementGroup=true är begränsad till 100 virtuella datorer som standard. Om dina behov av HPC-jobbskala är högre än 100 virtuella datorer i en enda klientorganisation kan du begära en ökning och öppna en kundsupportbegäran online utan kostnad. Gränsen för antalet virtuella datorer i en enda skalningsuppsättning kan ökas till 300. Observera att när du distribuerar virtuella datorer med hjälp av tillgänglighetsuppsättningar är maxgränsen 200 virtuella datorer per tillgänglighetsuppsättning.

    Anteckning

    MPI mellan virtuella datorer: Om RDMA (t.ex. med MPI-kommunikation) krävs mellan virtuella datorer (VM) kontrollerar du att de virtuella datorerna finns i samma VM-skalningsuppsättning eller tillgänglighetsuppsättning.

  • Azure CycleCloud – Skapa ett HPC-kluster med Azure CycleCloud för att köra MPI-jobb.

  • Azure Batch – Skapa en Azure Batch pool för att köra MPI-arbetsbelastningar. Information om hur du använder beräkningsintensiva instanser när du kör MPI-program med Azure Batch finns i Använda uppgifter med flera instanser för att köra MPI-program (Message Passing Interface) i Azure Batch.

  • Microsoft HPC Pack - HPC Pack innehåller en körningsmiljö för MS-MPI som använder Azure RDMA-nätverket när det distribueras på RDMA-kompatibla virtuella Linux-datorer. Exempel på distributioner finns i Konfigurera ett Linux RDMA-kluster med HPC Pack för att köra MPI-program.

Distributionsöverväganden

  • Azure-prenumeration – Om du vill distribuera fler än ett fåtal beräkningsintensiva instanser bör du överväga en prenumeration där du betalar per användning eller andra köpalternativ. Om du använder ett kostnadsfritt Azure-konto kan du bara använda ett begränsat antal Azure Compute-kärnor.

  • Priser och tillgänglighet – Kontrollera priser och tillgänglighet för virtuella datorer efter Azure-regioner.

  • Kärnkvot – Du kan behöva öka kärnkvoten i din Azure-prenumeration från standardvärdet. Din prenumeration kan också begränsa antalet kärnor som du kan distribuera i vissa vm-storleksfamiljer, inklusive H-serien. Om du vill begära en kvotökning öppnar du en kundsupportbegäran online utan kostnad. (Standardgränserna kan variera beroende på din prenumerationskategori.)

    Anteckning

    Kontakta Azure-supporten om du har behov av storskalig kapacitet. Azure-kvoter är kreditgränser, inte kapacitetsgarantier. Oavsett din kvot debiteras du bara för kärnor som du använder.

  • Virtuellt nätverk – Ett virtuellt Azure-nätverk krävs inte för att använda beräkningsintensiva instanser. För många distributioner behöver du dock minst ett molnbaserat virtuellt Azure-nätverk eller en plats-till-plats-anslutning om du behöver åtkomst till lokala resurser. När det behövs skapar du ett nytt virtuellt nätverk för att distribuera instanserna. Det går inte att lägga till beräkningsintensiva virtuella datorer i ett virtuellt nätverk i en tillhörighetsgrupp.

  • Storleksändring – På grund av deras specialiserade maskinvara kan du bara ändra storlek på beräkningsintensiva instanser inom samma storleksfamilj (H-serien eller N-serien). Du kan till exempel bara ändra storlek på en virtuell dator i H-serien från en H-seriestorlek till en annan. Ytterligare överväganden kring InfiniBand-drivrutinsstöd och NVMe-diskar kan behöva övervägas för vissa virtuella datorer.

Andra storlekar

Nästa steg