HPC (High performance Computing) VM-grootten

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform schaalsets ✔️

Tip

Probeer het hulpprogramma voor de kiezer voor virtuele machines om andere grootten te vinden die het beste bij uw workload passen.

Virtuele machines (VM's) uit de Azure H-serie zijn ontworpen om hoogwaardige prestaties, schaalbaarheid en kostenefficiëntie te leveren voor verschillende echte HPC-workloads.

HBv3-serie VM's zijn geoptimaliseerd voor HPC-toepassingen zoals vloeistofdynamiek, expliciete en impliciete eindige elementanalyse, weermodellering, seismische verwerking, reservoirsimulatie en RTL-simulatie. HBv3-VM's hebben maximaal 120 AMD EPYC™ 7003-serie (Milaan) CPU-kernen, 448 GB RAM en geen hyperthreading. Vm's uit de HBv3-serie bieden ook 350 GB per seconde geheugenbandbreedte, tot 32 MB L3 cache per kern, tot 7 GB/s aan SSD-prestaties van blokapparaten en klokfrequenties tot 3,5 GHz.

Alle VM's uit de HBv3-serie hebben 200 Gb/sec HDR InfiniBand van NVIDIA Networking om MPI-workloads op supercomputerschaal mogelijk te maken. Deze VM's zijn verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. De HDR InfiniBand-infrastructuur ondersteunt ook Adaptive Routing en het Dynamic Connected Transport (DCT, naast standaard RC- en UD-transporten). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

HBv2-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door geheugenbandbreedte, zoals vloeistofdynamiek, analyse van eindige elementen en reservoirsimulatie. HBv2-VM's hebben 120 AMD EPYC 7742 processorkernen, 4 GB RAM per CPU-kern en geen gelijktijdige multithreading. Elke HBv2-VM biedt maximaal 340 GB per seconde geheugenbandbreedte en maximaal 4 teraFLOPS van FP64-rekenkracht.

HBv2-VM's hebben 200 Gb/sec Mellanox HDR InfiniBand, terwijl vm's uit de HB- en HC-serie 100 Gb/sec Mellanox EDR InfiniBand hebben. Elk van deze VM-typen is verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. HBv2-VM's ondersteunen adaptieve routering en dynamisch verbonden transport (DCT, naast standaard RC- en UD-transporten). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

HB-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door geheugenbandbreedte, zoals vloeistofdynamiek, expliciete analyse van eindige elementen en weermodellering. HB-VM's hebben 60 AMD EPYC 7551-processorkernen, 4 GB RAM per CPU-kern en geen hyperthreading. Het AMD EPYC-platform biedt meer dan 260 GB per seconde geheugenbandbreedte.

HC-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door dichte berekeningen, zoals impliciete analyse van eindige elementen, moleculaire dynamiek en rekenkundige chemie. HC-VM's hebben 44 Intel Xeon Platinum 8168 processorkernen, 8 GB RAM per CPU-kern en geen hyperthreading. Het Intel Xeon Platinum-platform biedt ondersteuning voor het uitgebreide ecosysteem van softwarehulpprogramma's zoals de Intel Math Kernel Library.

H-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door hoge CPU-frequenties of grote geheugenvereisten per kern. Vm's uit de H-serie hebben 8 of 16 Intel Xeon E5 2667 v3 processorkernen, 7 of 14 GB RAM per CPU-kern en geen hyperthreading. De H-serie bevat 56 Gb/sec Mellanox FDR InfiniBand in een niet-blokkerende fat tree-configuratie voor consistente RDMA-prestaties. VM's uit de H-serie ondersteunen Intel MPI 5.x en MS-MPI.

Notitie

Alle VM's uit de HBv3-, HBv2-, HB- en HC-serie hebben exclusieve toegang tot de fysieke servers. Er is slechts 1 VM per fysieke server en er is geen gedeelde multitenancy met andere VM's voor deze VM-grootten.

Notitie

De A8 – A11-VM's worden vanaf 3-2021 buiten gebruik gesteld. Er zijn nu geen nieuwe VM-implementaties van deze grootten mogelijk. Als u bestaande VM's hebt, raadpleegt u e-mailmeldingen voor de volgende stappen, waaronder migreren naar andere VM-grootten in de HPC-migratiehandleiding.

Met RDMA compatibele exemplaren

De meeste HPC VM-grootten hebben een netwerkinterface voor RDMA-connectiviteit (Remote Direct Memory Access). Geselecteerde N-seriegrootten die zijn aangewezen met r, zijn ook geschikt voor RDMA. Deze interface is een aanvulling op de standaard Azure Ethernet-netwerkinterface die beschikbaar is in de andere VM-grootten.

Met deze secundaire interface kunnen de RDMA-compatibele exemplaren communiceren via een InfiniBand-netwerk (IB), werken met HDR-tarieven voor HBv3, HBv2, EDR-tarieven voor HB-, HC-, NDv2- en FDR-tarieven voor H16r-, H16mr- en andere virtuele machines uit de RDMA-serie. Deze RDMA-mogelijkheden kunnen de schaalbaarheid en prestaties van MPI-toepassingen (Message Passing Interface) verbeteren.

Notitie

SR-IOV-ondersteuning: In Azure HPC zijn er momenteel twee klassen VM's, afhankelijk van of deze SR-IOV zijn ingeschakeld voor InfiniBand. Op dit moment zijn bijna alle nieuwere generatie, RDMA-compatibele of infiniBand-VM's in Azure SR-IOV ingeschakeld, met uitzondering van H16r, H16mr en NC24r. RDMA is alleen ingeschakeld via het InfiniBand-netwerk (IB) en wordt ondersteund voor alle RDMA-compatibele VM's. IP via IB wordt alleen ondersteund op de VM's met SR-IOV. RDMA is niet ingeschakeld via het Ethernet-netwerk.

  • Besturingssysteem : Linux-distributies zoals CentOS, RHEL, Ubuntu, SUSE worden vaak gebruikt. Windows Server 2016 en nieuwere versies worden ondersteund op alle VM's uit de HPC-serie. Windows Server 2012 R2 en Windows Server 2012 worden ook ondersteund op de vm's met niet-SR-IOV-functionaliteit. Houd er rekening mee dat Windows Server 2012 R2 niet wordt ondersteund op HBv2 en hoger als VM-grootten met meer dan 64 (virtuele of fysieke) kernen. Bekijk VM-installatiekopieën voor een lijst met ondersteunde VM-installatiekopieën op marketplace en hoe deze op de juiste wijze kunnen worden geconfigureerd. Op de respectieve pagina's met VM-grootten wordt ook de ondersteuning voor de softwarestack vermeld.

  • InfiniBand en stuurprogramma's : op VM's met InfiniBand zijn de juiste stuurprogramma's vereist om RDMA in te schakelen. Bekijk VM-installatiekopieën voor een lijst met ondersteunde VM-installatiekopieën op marketplace en hoe deze op de juiste wijze kunnen worden geconfigureerd. Zie ook het inschakelen van InfiniBand voor meer informatie over VM-extensies of handmatige installatie van InfiniBand-stuurprogramma's.

  • MPI : met de VM-grootten met SR-IOV in Azure kan bijna elke variant van MPI worden gebruikt met Mellanox OFED. Op niet-SR-IOV ingeschakelde VM's gebruiken ondersteunde MPI-implementaties de ND-interface (Microsoft Network Direct) om te communiceren tussen VM's. Daarom worden alleen Intel MPI 5.x en Microsoft MPI (MS-MPI) 2012 R2 of nieuwere versies ondersteund. Latere versies van de Intel MPI-runtimebibliotheek zijn mogelijk of niet compatibel met de Azure RDMA-stuurprogramma's. Zie MPI instellen voor HPC voor meer informatie over het instellen van MPI op HPC-VM's in Azure.

    Notitie

    RDMA-netwerkadresruimte: het RDMA-netwerk in Azure reserveert de adresruimte 172.16.0.0/16. Als u MPI-toepassingen wilt uitvoeren op exemplaren die zijn geïmplementeerd in een virtueel Azure-netwerk, moet u ervoor zorgen dat de adresruimte van het virtuele netwerk niet overlapt met het RDMA-netwerk.

Opties voor clusterconfiguratie

Azure biedt verschillende opties voor het maken van clusters van HPC-VM's die kunnen communiceren met behulp van het RDMA-netwerk, waaronder:

  • Virtuele machines: implementeer de MET RDMA compatibele HPC-VM's in dezelfde schaalset of beschikbaarheidsset (wanneer u het Implementatiemodel van Azure Resource Manager gebruikt). Als u het klassieke implementatiemodel gebruikt, implementeert u de VM's in dezelfde cloudservice.

  • Virtuele-machineschaalsets : zorg ervoor dat u in een virtuele-machineschaalset de implementatie beperkt tot één plaatsingsgroep voor InfiniBand-communicatie binnen de schaalset. Stel bijvoorbeeld in een Resource Manager sjabloon de singlePlacementGroup eigenschap in op true. Houd er rekening mee dat de maximale grootte van de schaalset waarmee kan worden singlePlacementGroup=true gesponnen, standaard is beperkt tot 100 VM's. Als uw HPC-taakschaalbehoeften hoger zijn dan 100 VM's in één tenant, kunt u een verhoging aanvragen, een onlineaanvraag voor klantondersteuning zonder kosten openen. De limiet voor het aantal VIRTUELE machines in één schaalset kan worden verhoogd tot 300. Houd er rekening mee dat bij het implementeren van VM's met behulp van beschikbaarheidssets de maximumlimiet 200 VM's per beschikbaarheidsset is.

    Notitie

    MPI tussen virtuele machines: als RDMA (bijvoorbeeld mpi-communicatie) vereist is tussen virtuele machines (VM's), moet u ervoor zorgen dat de VM's zich in dezelfde virtuele-machineschaalset of beschikbaarheidsset bevinden.

  • Azure CycleCloud : maak een HPC-cluster met behulp van Azure CycleCloud om MPI-taken uit te voeren.

  • Azure Batch: maak een Azure Batch-pool om MPI-workloads uit te voeren. Als u rekenintensieve exemplaren wilt gebruiken bij het uitvoeren van MPI-toepassingen met Azure Batch, raadpleegt u Taken met meerdere exemplaren gebruiken om MPI-toepassingen (Message Passing Interface) uit te voeren in Azure Batch.

  • Microsoft HPC Pack - HPC Pack bevat een runtime-omgeving voor MS-MPI die gebruikmaakt van het Azure RDMA-netwerk wanneer het wordt geïmplementeerd op linux-VM's die geschikt zijn voor RDMA. Zie Bijvoorbeeld implementaties een Linux RDMA-cluster instellen met HPC Pack om MPI-toepassingen uit te voeren.

Overwegingen bij de implementatie

  • Azure-abonnement : als u meer dan een paar rekenintensieve exemplaren wilt implementeren, kunt u een betalen per gebruik-abonnement of andere aankoopopties overwegen. Als u een gratis account van Azure gebruikt, kunt u slechts een paar Azure Compute-resources van Azure gebruiken.

  • Prijzen en beschikbaarheid: controleer de prijzen en beschikbaarheid vanVM's in Azure-regio's.

  • Kernquotum : mogelijk moet u het quotum voor kerngeheugens in uw Azure-abonnement verhogen vanaf de standaardwaarde. Uw abonnement kan ook het aantal kerngeheugens beperken dat u kunt implementeren in bepaalde VM-groottefamilies, waaronder de H-serie. Als u een quotumverhoging wilt aanvragen, opent u gratis een onlineaanvraag voor klantenondersteuning . (Standaardlimieten kunnen variëren, afhankelijk van uw abonnementscategorie.)

    Notitie

    Neem contact op met de ondersteuning van Azure als u behoefte hebt aan grootschalige capaciteit. Azure-quota zijn kredietlimieten, geen capaciteitsgaranties. Ongeacht uw quotum worden alleen kosten in rekening gebracht voor kerngeheugens die u gebruikt.

  • Virtueel netwerk : een virtueel Azure-netwerk is niet vereist voor het gebruik van de rekenintensieve exemplaren. Voor veel implementaties hebt u echter ten minste een virtueel Azure-netwerk in de cloud of een site-naar-site-verbinding nodig als u toegang nodig hebt tot on-premises resources. Maak zo nodig een nieuw virtueel netwerk om de exemplaren te implementeren. Het toevoegen van rekenintensieve VM's aan een virtueel netwerk in een affiniteitsgroep wordt niet ondersteund.

  • Formaat wijzigen : vanwege hun gespecialiseerde hardware kunt u alleen rekenintensieve exemplaren binnen dezelfde groottefamilie (H-serie of N-serie) wijzigen. U kunt bijvoorbeeld alleen de grootte van een VM uit de H-serie wijzigen van de ene H-serie naar de andere. Aanvullende overwegingen met betrekking tot ondersteuning van InfiniBand-stuurprogramma's en NVMe-schijven moeten mogelijk worden overwogen voor bepaalde VM's.

Andere grootten

Volgende stappen