HPC (High performance Computing) VM-grootten

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform schaalsets ✔️

Tip

Probeer de selector voor virtuele machines om andere grootten te vinden die het beste bij uw workload passen.

Virtuele machines uit de Azure H-serie (VM's) zijn ontworpen om hoogwaardige prestaties, schaalbaarheid en kostenefficiëntie te leveren voor verschillende hpc-workloads in de echte wereld.

HBv3-serie VM's zijn geoptimaliseerd voor HPC-toepassingen, zoals vloeistofdynamiek, expliciete en impliciete eindige elementanalyse, weermodellering, seismische verwerking, reservoirsimulatie en RTL-simulatie. HBv3-VM's hebben maximaal 120 AMD EPYC™ 7003-serie (Milaan) CPU-kernen, 448 GB RAM en geen hyperthreading. Vm's uit de HBv3-serie bieden ook 350 GB/sec geheugenbandbreedte, tot 32 MB L3-cache per kern, tot 7 GB/s van SSD-prestaties van blokapparaten en klokfrequenties tot 3,5 GHz.

Alle VM's uit de HBv3-serie hebben 200 Gb/sec HDR InfiniBand van NVIDIA Networking om MPI-workloads op supercomputerschaal mogelijk te maken. Deze VM's zijn verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. De HDR InfiniBand-infrastructuur ondersteunt ook Adaptive Routing en het Dynamic Connected Transport (DCT, naast standaard RC- en UD-transporten). Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

HBv2-serie VM's zijn geoptimaliseerd voor toepassingen die worden gebaseerd op geheugenbandbreedte, zoals vloeistofdynamiek, analyse van eindige elementen en reservoirsimulatie. HBv2-VM's hebben 120 AMD EPYC 7742 processorkernen, 4 GB RAM per CPU-kern en geen gelijktijdige multithreading. Elke HBv2-VM biedt maximaal 340 GB per seconde geheugenbandbreedte en maximaal 4 teraFLOPS van FP64-rekenkracht.

HBv2-VM's hebben 200 Gb/sec Mellanox HDR InfiniBand, terwijl vm's uit de HB- en HC-serie beschikken over 100 Gb/sec Mellanox EDR InfiniBand. Elk van deze VM-typen is verbonden in een niet-blokkerende vetstructuur voor geoptimaliseerde en consistente RDMA-prestaties. HBv2-VM's ondersteunen adaptieve routering en dct (Dynamic Connected Transport), naast standaard RC- en UD-transporten. Deze functies verbeteren de prestaties, schaalbaarheid en consistentie van toepassingen en het gebruik ervan wordt sterk aanbevolen.

HB-serie VM's zijn geoptimaliseerd voor toepassingen die worden gebaseerd op geheugenbandbreedte, zoals vloeistofdynamiek, expliciete analyse van eindige elementen en weermodellering. HB-VM's hebben 60 AMD EPYC 7551-processorkernen, 4 GB RAM per CPU-kern en geen hyperthreading. Het AMD EPYC-platform biedt meer dan 260 GB per seconde geheugenbandbreedte.

HC-serie VM's zijn geoptimaliseerd voor toepassingen die worden gebaseerd op compacte berekeningen, zoals impliciete analyse van eindige elementen, moleculaire dynamiek en rekenkundige chemie. HC-VM's hebben 44 Intel Xeon Platinum 8168 processorkernen, 8 GB RAM per CPU-kern en geen hyperthreading. Het Intel Xeon Platinum-platform ondersteunt het uitgebreide ecosysteem van softwarehulpprogramma's van Intel, zoals de Intel Math Kernel Library.

H-serie VM's zijn geoptimaliseerd voor toepassingen die worden aangestuurd door hoge CPU-frequenties of een groot geheugen per kernvereisten. Vm's uit de H-serie hebben 8 of 16 Intel Xeon E5 2667 v3-processorkernen, 7 of 14 GB RAM per CPU-kern en geen hyperthreading. H-serie beschikt over 56 Gb/sec Mellanox FDR InfiniBand in een niet-blokkerende fat tree-configuratie voor consistente RDMA-prestaties. VM's uit de H-serie ondersteunen Intel MPI 5.x en MS-MPI.

Notitie

Alle VM's uit de HBv3-, HBv2-, HB- en HC-serie hebben exclusieve toegang tot de fysieke servers. Er is slechts 1 VM per fysieke server en er is geen gedeelde multitenancy met andere VM's voor deze VM-grootten.

Notitie

De A8 - A11-VM's worden vanaf 3-2021 buiten gebruik gesteld. Er zijn nu geen nieuwe VM-implementaties van deze grootten mogelijk. Als u bestaande VM's hebt, raadpleegt u e-mailmeldingen voor de volgende stappen, waaronder migreren naar andere VM-grootten in de HPC-migratiehandleiding.

Met RDMA compatibele exemplaren

De meeste HPC-VM-grootten hebben een netwerkinterface voor RDMA-connectiviteit (Remote Direct Memory Access). Geselecteerde N-seriegrootten die zijn aangewezen met r, zijn ook RDMA-geschikt. Deze interface is naast de standaard Azure Ethernet-netwerkinterface die beschikbaar is in de andere VM-grootten.

Met deze secundaire interface kunnen de RDMA-exemplaren communiceren via een InfiniBand-netwerk (IB), werkend met HDR-tarieven voor HBv3, HBv2, EDR-tarieven voor HB-, HC-, NDv2- en FDR-tarieven voor H16r, H16mr en andere virtuele MACHINES uit de RDMA-serie. Deze RDMA-mogelijkheden kunnen de schaalbaarheid en prestaties van MPI-toepassingen (Message Passing Interface) verbeteren.

Notitie

SR-IOV-ondersteuning: In Azure HPC zijn er momenteel twee klassen VM's, afhankelijk van of ze SR-IOV zijn ingeschakeld voor InfiniBand. Op dit moment zijn bijna alle nieuwere, RDMA-compatibele of infiniBand geschikte VM's in Azure SR-IOV ingeschakeld, met uitzondering van H16r, H16mr en NC24r. RDMA is alleen ingeschakeld via het InfiniBand-netwerk (IB) en wordt ondersteund voor alle RDMA-compatibele VM's. IP via IB wordt alleen ondersteund op de VM's met SR-IOV. RDMA is niet ingeschakeld via het Ethernet-netwerk.

  • Besturingssysteem : Linux-distributies zoals CentOS, RHEL, Ubuntu, SUSE worden vaak gebruikt. Windows Server 2016 en nieuwere versies worden ondersteund op alle VM's uit de HPC-serie. Windows Server 2012 R2 en Windows Server 2012 worden ook ondersteund op vm's met niet-SR-IOV-functionaliteit. Houd er rekening mee dat Windows Server 2012 R2 niet wordt ondersteund op HBv2 en hoger als VM-grootten met meer dan 64 (virtuele of fysieke) kernen. Zie VM-installatiekopieën voor een lijst met ondersteunde VM-installatiekopieën op marketplace en hoe ze op de juiste manier kunnen worden geconfigureerd. Op de betreffende pagina's met VM-grootten wordt ook de ondersteuning voor de softwarestack vermeld.

  • InfiniBand en stuurprogramma's : op VM's met InfiniBand zijn de juiste stuurprogramma's vereist om RDMA in te schakelen. Zie VM-installatiekopieën voor een lijst met ondersteunde VM-installatiekopieën op marketplace en hoe ze op de juiste manier kunnen worden geconfigureerd. Zie ook het inschakelen van InfiniBand voor meer informatie over VM-extensies of handmatige installatie van InfiniBand-stuurprogramma's.

  • MPI : de VM-grootten met SR-IOV in Azure staan bijna elke smaak van MPI toe voor gebruik met Mellanox OFED. Op niet-SR-IOV ingeschakelde VM's gebruiken ondersteunde MPI-implementaties de ND-interface (Microsoft Network Direct) om te communiceren tussen VM's. Daarom worden alleen Intel MPI 5.x en Microsoft MPI (MS-MPI) 2012 R2 of latere versies ondersteund. Latere versies van de Intel MPI-runtimebibliotheek zijn mogelijk of niet compatibel met de Azure RDMA-stuurprogramma's. Zie MPI instellen voor HPC voor meer informatie over het instellen van MPI op HPC-VM's in Azure.

    Notitie

    RDMA-netwerkadresruimte: het RDMA-netwerk in Azure behoudt de adresruimte 172.16.0.0/16. Als u MPI-toepassingen wilt uitvoeren op exemplaren die zijn geïmplementeerd in een virtueel Azure-netwerk, moet u ervoor zorgen dat de adresruimte van het virtuele netwerk niet overlapt met het RDMA-netwerk.

Opties voor clusterconfiguratie

Azure biedt verschillende opties voor het maken van clusters van HPC-VM's die kunnen communiceren met behulp van het RDMA-netwerk, waaronder:

  • Virtuele machines: implementeer de MET RDMA geschikte HPC-VM's in dezelfde schaalset of beschikbaarheidsset (wanneer u het Azure Resource Manager-implementatiemodel gebruikt). Als u het klassieke implementatiemodel gebruikt, implementeert u de VM's in dezelfde cloudservice.

  • Virtuele-machineschaalsets : in een virtuele-machineschaalset zorgt u ervoor dat u de implementatie beperkt tot één plaatsingsgroep voor InfiniBand-communicatie binnen de schaalset. Stel bijvoorbeeld in een Resource Manager sjabloon de singlePlacementGroup eigenschap in op true. Houd er rekening mee dat de maximale schaalsetgrootte waarmee kan worden gespuneerd singlePlacementGroup=true , standaard wordt beperkt tot 100 VM's. Als uw HPC-taakschaalbehoeften hoger zijn dan 100 VM's in één tenant, kunt u kosteloos een verhoging aanvragen, een aanvraag voor online klantenondersteuning openen . De limiet voor het aantal VIRTUELE machines in één schaalset kan worden verhoogd tot 300. Houd er rekening mee dat bij het implementeren van VM's met behulp van beschikbaarheidssets de maximumlimiet 200 VM's per beschikbaarheidsset is.

    Notitie

    MPI tussen virtuele machines: als RDMA (bijvoorbeeld het gebruik van MPI-communicatie) is vereist tussen virtuele machines (VM's), moet u ervoor zorgen dat de VM's zich in dezelfde virtuele-machineschaalset of -beschikbaarheidsset bevinden.

  • Azure CycleCloud : maak een HPC-cluster met behulp van Azure CycleCloud om MPI-taken uit te voeren.

  • Azure Batch: maak een Azure Batch-pool om MPI-workloads uit te voeren. Als u rekenintensieve exemplaren wilt gebruiken bij het uitvoeren van MPI-toepassingen met Azure Batch, raadpleegt u Taken met meerdere exemplaren gebruiken om MPI-toepassingen (Message Passing Interface) uit te voeren in Azure Batch.

  • Microsoft HPC Pack - HPC Pack bevat een runtime-omgeving voor MS-MPI die gebruikmaakt van het Azure RDMA-netwerk wanneer deze wordt geïmplementeerd op LINUX-VM's die geschikt zijn voor RDMA. Zie Bijvoorbeeld implementaties een Linux RDMA-cluster instellen met HPC Pack om MPI-toepassingen uit te voeren.

Overwegingen bij de implementatie

  • Azure-abonnement : als u meer dan een paar rekenintensieve exemplaren wilt implementeren, kunt u een abonnement op basis van betalen per gebruik of andere aankoopopties overwegen. Als u een gratis account van Azure gebruikt, kunt u slechts een paar Azure Compute-resources van Azure gebruiken.

  • Prijzen en beschikbaarheid : controleer de prijzen en beschikbaarheid van VM's per Azure-regio..

  • Quotum voor kerngeheugens : mogelijk moet u het kernquotum in uw Azure-abonnement verhogen vanaf de standaardwaarde. Uw abonnement beperkt mogelijk ook het aantal kerngeheugens dat u kunt implementeren in bepaalde VM-groottefamilies, waaronder de H-serie. Als u een quotumverhoging wilt aanvragen, opent u gratis een onlineaanvraag voor klantenondersteuning . (Standaardlimieten kunnen variëren, afhankelijk van uw abonnementscategorie.)

    Notitie

    Neem contact op met De ondersteuning van Azure als u grootschalige capaciteitsbehoeften hebt. Azure-quota zijn kredietlimieten, geen capaciteitsgaranties. Ongeacht uw quotum worden er alleen kernen in rekening gebracht die u gebruikt.

  • Virtueel netwerk : een virtueel Azure-netwerk is niet vereist voor het gebruik van de rekenintensieve exemplaren. Voor veel implementaties hebt u echter ten minste een virtueel Azure-netwerk in de cloud of een site-naar-site-verbinding nodig als u toegang nodig hebt tot on-premises resources. Maak zo nodig een nieuw virtueel netwerk om de exemplaren te implementeren. Het toevoegen van rekenintensieve VM's aan een virtueel netwerk in een affiniteitsgroep wordt niet ondersteund.

  • Formaat wijzigen : vanwege hun gespecialiseerde hardware kunt u alleen rekenintensieve exemplaren binnen dezelfde groottefamilie (H-serie of N-serie) wijzigen. U kunt bijvoorbeeld alleen de grootte van een VM uit de H-serie wijzigen van de ene H-serie naar de andere. Aanvullende overwegingen met betrekking tot ondersteuning van InfiniBand-stuurprogramma's en NVMe-schijven moeten mogelijk worden overwogen voor bepaalde VM's.

Andere grootten

Volgende stappen