Dimensioni delle macchine virtuali High Performance Computing

Attenzione

Questo articolo fa riferimento a CentOS, una distribuzione Linux prossima allo stato EOL (End of Life, fine del ciclo di vita). Prendere in considerazione l'uso e il piano di conseguenza. Per altre informazioni, vedere le linee guida per la fine della vita di CentOS.

Si applica a: ✔️ macchine virtuali Linux ✔️ macchine virtuali Windows ✔️ set di scalabilità flessibili ✔️ set di scalabilità uniformi

Suggerimento

Provare lo strumento Selettore di macchine virtuali per trovare altre dimensioni più adatte per il carico di lavoro.

Le macchine virtuali serie HBv4 sono ottimizzate per diversi carichi di lavoro HPC, ad esempio la fluidità computazionale, l'analisi degli elementi finiti, il front-end, il rendering, le dinamiche molecolari, la geocienza computazionale, la simulazione meteo e l'analisi dei rischi finanziari. Le macchine virtuali HBv4 presentano fino a 176 CORE CPU AMD EPYC™ 9V33X (GenovaX) con cache 3D-V di AMD, 768 GB di RAM e senza multithreading simultaneo. Le macchine virtuali serie HBv4 offrono anche 780 GB/s di larghezza di banda di memoria DDR5 e 2304 MB L3 cache per macchina virtuale, fino a 12 GB/s (letture) e 7 GB/s (scritture) di prestazioni SSD del dispositivo in blocchi e frequenze di clock fino a 3,7 GHz.

Tutte le macchine virtuali serie HBv4 presentano 400 Gb/s NDR InfiniBand da NVIDIA Networking per abilitare carichi di lavoro MPI su scala supercomputer. Queste macchine virtuali sono connesse in un albero di grasso non bloccaggio per prestazioni RDMA ottimizzate e coerenti. NDR continua a supportare funzionalità come il routing adattivo e il trasporto Connessione in modo dinamico ( DCT). Questa nuova generazione di InfiniBand offre anche un maggiore supporto per l'offload di collettive MPI, latenze reali ottimizzate a causa dell'intelligenza di controllo della congestione e funzionalità avanzate di routing adattivo. Queste funzionalità migliorano le prestazioni, la scalabilità e la coerenza dell'applicazione e ne è consigliato l'utilizzo.

Le macchine virtuali serie HBv3 sono ottimizzate per applicazioni HPC, ad esempio l'analisi dei fluidi, l'analisi esplicita e implicita degli elementi finiti, la modellazione meteo, l'elaborazione sismica, la simulazione di serbatoi e la simulazione RTL. Le macchine virtuali HBv3 presentano fino a 120 CORE CPU serie AMD EPYC™ 7003 (MilanX), 448 GB di RAM e nessun hyperthreading. Le macchine virtuali serie HBv3 offrono anche 350 GB/sec di larghezza di banda di memoria, fino a 32 MB di cache L3 per core, fino a 7 GB/s di prestazioni SSD del dispositivo in blocchi e frequenze di clock fino a 3,5 GHz.

Tutte le VM della serie HBv3 offrono HDR InfiniBand da 200 Gb/sec di NVIDIA Networking per abilitare carichi di lavoro MPI si scala supercomputer. Queste macchine virtuali sono connesse in un albero di grasso non bloccaggio per prestazioni RDMA ottimizzate e coerenti. L'infrastruttura HDR InfiniBand supporta anche il routing adattivo e il trasporto dinamico Connessione ed (DCT, oltre ai trasporti RC e UD standard). Queste funzionalità migliorano le prestazioni, la scalabilità e la coerenza dell'applicazione e il relativo utilizzo è fortemente consigliato.

Le macchine virtuali serie HBv2 sono ottimizzate per le applicazioni basate sulla larghezza di banda della memoria, ad esempio la dinamica fluida, l'analisi degli elementi finiti e la simulazione del serbatoio. Le macchine virtuali HBv2 presentano 120 core di processore AMD EPYC 7742, 4 GB di RAM per core CPU e nessun multithreading simultaneo. Ogni macchina virtuale HBv2 offre fino a 340 GB/sec di larghezza di banda di memoria e fino a 4 teraFLOPS di calcolo FP64.

Le macchine virtuali HBv2 presentano 200 Gb/sec Mellanox HDR InfiniBand, mentre le macchine virtuali serie HB e HC presentano 100 Gb/sec Mellanox EDR InfiniBand. Ognuno di questi tipi di macchina virtuale è connesso in un albero di grasso non bloccaggio per prestazioni RDMA ottimizzate e coerenti. Le macchine virtuali HBv2 supportano il routing adattivo e il trasporto Connessione dinamico (DCT, oltre ai trasporti RC e UD standard). Queste funzionalità migliorano le prestazioni, la scalabilità e la coerenza dell'applicazione e il relativo utilizzo è fortemente consigliato.

Le macchine virtuali serie HB sono ottimizzate per le applicazioni basate sulla larghezza di banda della memoria, ad esempio la dinamica fluida, l'analisi esplicita degli elementi finiti e la modellazione meteo. Le VM HB offrono 60 core del processore AMD EPYC 7551, 4 GB di RAM per core CPU e nessun hyperthreading. La piattaforma AMD EPYC fornisce più di 260 GB/sec di larghezza di banda della memoria.

Le macchine virtuali serie HC sono ottimizzate per le applicazioni basate su calcoli densi, ad esempio l'analisi implicita degli elementi finiti, le dinamiche molecolari e la chimica computazionale. Le VM HC offrono 44 core del processore Intel Xeon Platinum 8168, 8 GB di RAM per core CPU e nessun hyperthreading. La piattaforma Intel Xeon Platinum supporta l'ecosistema avanzato di strumenti software Intel, ad esempio intel Math Kernel Library.

Le macchine virtuali serie HX sono ottimizzate per i carichi di lavoro che richiedono una capacità di memoria significativa con il doppio della capacità di memoria come HBv4. Ad esempio, i carichi di lavoro come la progettazione di siliconi possono usare macchine virtuali serie HX per consentire ai clienti EDA di usare i processi di produzione più avanzati per eseguire i carichi di lavoro più a elevato utilizzo di memoria. Le macchine virtuali HX includono fino a 176 CORE CPU AMD EPYC™ 9V33X (GenovaX), 1408 GB di RAM e nessun multithreading simultaneo. Le macchine virtuali serie HX forniscono anche 780 GB/s di larghezza di banda di memoria DDR5 e 2304 MB di cache L3 per macchina virtuale, fino a 12 GB/s (letture) e 7 GB/s (scritture) di prestazioni SSD del dispositivo in blocchi e frequenze di clock fino a 3,7 GHz.

Nota

Tutte le macchine virtuali HBv4, HBv3, HBv2, HB, HC e HX hanno accesso esclusivo ai server fisici. Esiste solo una macchina virtuale per ogni server fisico e non è presente alcuna multi-tenancy condivisa con altre macchine virtuali per queste dimensioni di vm.

Istanze con supporto per RDMA

La maggior parte delle dimensioni delle macchine virtuali HPC include un'interfaccia di rete per la connettività RDMA (Remote Direct Memory Access). Anche le dimensioni delle serie N selezionate designate con 'r' sono compatibili con RDMA. Questa interfaccia è oltre all'interfaccia di rete Ethernet standard di Azure disponibile nelle altre dimensioni della macchina virtuale.

Questa interfaccia secondaria consente alle istanze con supporto per RDMA di comunicare tramite una rete InfiniBand (IB), che opera a velocità HDR per HBv3, HBv2, frequenze EDR per hb, HC, NDv2 e FDR per H16r, H16mr e altre macchine virtuali serie N con supporto per RDMA. Queste funzionalità RDMA possono migliorare la scalabilità e le prestazioni delle applicazioni basate su Message Passing Interface (MPI).

Nota

Supporto SR-IOV: in Azure HPC sono attualmente disponibili due classi di macchine virtuali a seconda che siano abilitate per InfiniBand. Attualmente, quasi tutte le macchine virtuali abilitate per RDMA o InfiniBand in Azure sono abilitate per SR-IOV, ad eccezione di H16r, H16mr e NC24r. RDMA è abilitato solo sulla rete InfiniBand (IB) ed è supportato per tutte le macchine virtuali che supportano RDMA. L'indirizzo IP su IB è supportato solo nelle macchine virtuali abilitate per SR-IOV. RDMA non è abilitato tramite la rete Ethernet.

Opzioni di configurazione del cluster

Azure offre diverse opzioni per creare cluster di macchine virtuali HPC in grado di comunicare tramite la rete RDMA, tra cui:

  • Macchine virtuali: distribuire le macchine virtuali HPC con supporto per RDMA nello stesso set di scalabilità o nello stesso set di disponibilità (quando si usa il modello di distribuzione azure Resource Manager). Se si usa il modello di distribuzione classico, distribuire le macchine virtuali nello stesso servizio cloud.

  • Set di scalabilità di macchine virtuali: in un set di scalabilità di macchine virtuali assicurarsi di limitare la distribuzione a un singolo gruppo di posizionamento per la comunicazione InfiniBand all'interno del set di scalabilità. In un modello di Resource Manager, ad esempio, impostare la proprietà singlePlacementGroup su true. Si noti che le dimensioni massime del set di scalabilità che possono essere attivate con singlePlacementGroup=true sono limitate a 100 macchine virtuali per impostazione predefinita. Se le esigenze di scalabilità dei processi HPC sono superiori a 100 macchine virtuali in un singolo tenant, è possibile richiedere un aumento, aprire una richiesta di supporto clienti online senza costi aggiuntivi. Il limite per il numero di macchine virtuali in un singolo set di scalabilità può essere aumentato a 300. Si noti che quando si distribuiscono macchine virtuali usando set di disponibilità, il limite massimo è di 200 macchine virtuali per ogni set di disponibilità.

    Nota

    MPI tra macchine virtuali: se RDMA (ad esempio usando la comunicazione MPI) è necessario tra macchine virtuali (VM), assicurarsi che le macchine virtuali si trovino nello stesso set di scalabilità di macchine virtuali o nello stesso set di disponibilità.

  • Azure CycleCloud : creare un cluster HPC usando Azure CycleCloud per eseguire processi MPI.

  • Azure Batch : creare un pool di Azure Batch per eseguire carichi di lavoro MPI. Per usare istanze a elevato uso di calcolo quando si eseguono applicazioni MPI con Azure Batch, vedere Usare le attività a istanze multiple per eseguire applicazioni MPI (Message Passing Interface) in Azure Batch.

  • Microsoft HPC Pack HPC Pack - include un ambiente di runtime per MS-MPI che usa la rete RDMA di Azure quando viene distribuito in macchine virtuali Linux con supporto per RDMA. Per le distribuzioni di esempio, vedere Configurare un cluster LINUX RDMA con HPC Pack per eseguire applicazioni MPI.

Considerazioni sulla distribuzione

  • Sottoscrizione di Azure: per distribuire numerose istanze a elevato utilizzo di calcolo, prendere in considerazione una sottoscrizione con pagamento in base al consumo o altre opzioni di acquisto. Con un account gratuito di Azureè possibile usare solo un numero limitato di core di calcolo di Azure.

  • Prezzi e disponibilità: controllare i prezzi e la disponibilità delle macchine virtuali in base alle aree di Azure.

  • Quota di core: potrebbe essere necessario aumentare la quota di core nella sottoscrizione di Azure rispetto al valore predefinito. La sottoscrizione può anche limitare il numero di core che è possibile distribuire in alcune famiglie di dimensioni di macchina virtuale, inclusa la serie H. Per richiedere un aumento della quota, è possibile aprire una richiesta di assistenza clienti online senza alcun addebito. I limiti predefiniti possono variare in base alla categoria della sottoscrizione.

    Nota

    Se si hanno esigenze di capacità su larga scala, contattare il supporto di Azure. Le quote di Azure sono limiti di credito e non garanzie di capacità. A prescindere dalla quota, viene addebitato solo l'uso dei core effettivamente impiegati.

  • Rete virtuale: non è necessaria una rete virtuale di Azure per usare le istanze a elevato utilizzo di calcolo. Per molte distribuzioni è tuttavia necessaria almeno una rete virtuale di Azure basata sul cloud. Per l'accesso alle risorse locali, è necessaria anche una connessione da sito a sito. Quando è necessaria, creare una nuova rete virtuale per distribuire le istanze. L'aggiunta di una VM a elevato uso di calcolo a una rete virtuale in un gruppo di affinità non è supportata.

  • Ridimensionamento : grazie all'hardware specializzato, è possibile ridimensionare solo le istanze a elevato utilizzo di calcolo all'interno della stessa famiglia di dimensioni (serie H o serie N). Ad esempio, è possibile ridimensionare una VM della serie H solo da una dimensione della serie H a un'altra. Potrebbero essere necessarie considerazioni aggiuntive sul supporto dei driver InfiniBand e sui dischi NVMe per determinate macchine virtuali.

Altre dimensioni

Passaggi successivi