Condividi tramite


High Performance Computing in macchine virtuali serie HB e serie N abilitate per InfiniBand

Si applica a: ✔️ macchine virtuali Linux ✔️ macchine virtuali Windows ✔️ set di scalabilità flessibili ✔️ set di scalabilità uniformi

Le macchine virtuali serie H e serie N abilitate per InfiniBand di Azure sono progettate per offrire prestazioni senza confronti, scalabilità MPI (Message Passing Interface) e convenienza per una varietà di carichi di lavoro HPC reali e di intelligenza artificiale. Queste VM ottimizzate per HPC (High Performance Computing) vengono usate per risolvere alcuni problemi che comportano un utilizzo elevato delle risorse di calcolo nel campo delle scienze e dell'ingegneria, come la fluidodinamica, la modellazione geologica, le simulazioni meteorologiche e così via.

Questi articoli forniscono informazioni introduttive sulle macchine virtuali serie H e serie N abilitate per InfiniBand in Azure e sulla configurazione ottimale dei carichi di lavoro HPC e di intelligenza artificiale nelle VM ai fini della scalabilità.

Funzionalità e caratteristiche

Le macchine virtuali serie HB e serie N abilitate per InfiniBand sono progettate per offrire le migliori prestazioni in termini di HPC, scalabilità MPI (Message Passing Interface) ed economicità per i carichi di lavoro HPC. Vedere gli articoli sulle VM serie HB e serie N per altre informazioni sulle funzionalità e caratteristiche di queste VM.

RDMA e InfiniBand

Le macchine virtuali serie HB e serie N con supporto RDMA comunicano attraverso la rete InfiniBand a bassa latenza e larghezza di banda elevata. La funzionalità RDMA su un'interconnessione di questo tipo è fondamentale per migliorare la scalabilità e le prestazioni dei carichi di lavoro HPC e di intelligenza artificiale su nodi distribuiti. Le macchine virtuali serie H e serie N abilitate per InfiniBand sono connesse in strutture Fat Tree non bloccanti a diametro ridotto per prestazioni RDMA ottimizzate e coerenti. Per altre informazioni sulla configurazione di InfiniBand nelle macchine virtuali abilitate per Infiniband, vedere Abilitare InfiniBand.

Message Passing Interface

Le serie HB e N abilitate per SR-IOV (Single-Root I/O Virtualization) supportano quasi tutte le librerie e le versioni MPI. Alcune delle librerie MPI più usate sono: Intel MPI, OpenMPI, HPC-X, MVAPICH2, MPICH, Platform MPI. Sono supportati tutti i verbi RDMA (Accesso diretto a memoria remota). Per altre informazioni sull'installazione delle varie librerie MPI supportate e sulla relativa configurazione ottimale, vedere Configurare MPI.

Operazioni preliminari

Il primo passaggio consiste nel selezionare il tipo di VM serie HB e serie N ottimale per il carico di lavoro in base alle specifiche delle VM e alla funzionalità RDMA. Occorre poi configurare la VM abilitando InfiniBand. A questo scopo sono disponibili vari metodi, tra cui l'uso di immagini di VM ottimizzate con driver incorporati. Per altre informazioni, vedere Ottimizzazione per Linux e Abilitare InfiniBand. Il terzo passaggio consiste nella scelta e nella configurazione appropriate di MPI, fondamentale per i carichi di lavoro nei nodi distribuiti. Per altre informazioni, vedere Configurare MPI. Come quarto passaggio, ai fini delle prestazioni e della scalabilità, occorre configurare in modo ottimale i carichi di lavoro seguendo le indicazioni specifiche della famiglia di VM, ad esempio la panoramica della serie HBv3 e la panoramica della serie HC.

Passaggi successivi