Condividi tramite


Serie delle dimensioni delle macchine virtuali accelerate della sottofamiglia GPU 'ND'

Si applica a: ✔️ macchine virtuali Linux ✔️ macchine virtuali Windows ✔️ set di scalabilità flessibili ✔️ set di scalabilità uniformi

La famiglia di dimensioni della macchina virtuale 'ND' è una delle istanze di macchina virtuale con accelerazione GPU di Azure. Sono progettate per attività di Deep Learning, ricerca con intelligenza artificiale ed elaborazione ad alte prestazioni che traggono vantaggio da potenti accelerazioni della GPU. Dotate di GPU NVIDIA, le macchine virtuali della serie ND offrono funzionalità specializzate per il training e l'inferenza di modelli di apprendimento automatico complessi, agevolando calcoli più veloci e una gestione efficiente di set di dati di grandi dimensioni. Ciò le rende particolarmente adatte per applicazioni accademiche e commerciali nello sviluppo e nella simulazione di intelligenza artificiale, dove la tecnologia GPU all'avanguardia è fondamentale per ottenere risultati rapidi e accurati nell'elaborazione della rete neurale e in altre attività a elevato utilizzo di calcolo.

Carichi di lavoro e casi d’uso

Intelligenza artificiale e Deep Learning: le macchine virtuali della famiglia ND sono ideali per il training e la distribuzione di modelli di Deep Learning complessi. Dotate di potenti GPU NVIDIA, forniscono la potenza di calcolo necessaria per gestire un training di rete neurale esteso con set di dati di grandi dimensioni, riducendo significativamente i tempi necessari.

HPC (High Performance Computing): le macchine virtuali della famiglia ND sono adatte per le applicazioni HPC che richiedono l'accelerazione GPU. Campi quali ricerca scientifica, simulazioni di ingegneria (ad esempio, la fluidodinamica computazionale) e l'elaborazione genomica possono trarre vantaggio dalle funzionalità di calcolo a velocità effettiva elevata delle macchine virtuali della serie ND.

Rendering grafico: le GPU della famiglia ND le rendono una scelta ideale per le attività a elevato utilizzo di grafica, tra cui il rendering in tempo reale per la produzione di animazioni e video, nonché le simulazioni ad alta fedeltà per gli ambienti di realtà virtuale.

Visualizzazione remota: le macchine virtuali della famiglia ND possono essere utilizzate per la visualizzazione remota di attività a elevato utilizzo di dati, in cui sono necessarie funzionalità GPU di fascia alta per elaborare ed eseguire il rendering di visualizzazioni complesse nel cloud, semplificando l'accesso da computer client meno potenti.

Serie in famiglia

Serie ND V1

Le macchine virtuali della serie ND sono una novità della famiglia di GPU progettata per carichi di lavoro di intelligenza artificiale e Deep Learning. Offrono prestazioni ottimali per il training e l'inferenza. Le istanze ND sono basate sulle GPU NVIDIA Tesla P40 e sulle CPU Intel Xeon E5-2690 v4 (Broadwell). Queste istanze offrono prestazioni eccellenti per le operazioni con precisione singola e virgola mobile e per carichi di lavoro di intelligenza artificiale che usano Microsoft Cognitive Toolkit, TensorFlow, Caffe e altri framework. La serie ND offre anche dimensioni di memoria di GPU significativamente superiori (24 GB), ottimali per modelli di rete neurale molto più grandi. Analogamente alla serie NC, la serie ND offre una configurazione con latenza bassa secondaria, rete con velocità effettiva elevata tramite RDMA e connettività InfiniBand, in modo che sia possibile eseguire processi di training su vasta scala per molte GPU.

Visualizzare la pagina completa della serie ND.

In parte Quantità
Conteggiodelle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 6 - 24vCore Intel® Xeon® E5-2690 v4 (Broadwell)
Memoria 112 - 448GiB
Dischi dati 12 - 32Dischi 20000 - 80000IOPS / 200 - 800MBps
Rete 4 - 8schede di interfaccia di rete
Acceleratori 1 - 4GPU NVIDIA Tesla P40 24GiB
24 - 96GiB per macchina virtuale

Serie NDv2

Le macchine virtuali della serie NDv2 sono una nuova aggiunta alla famiglia di GPU progettate per i carichi di lavoro più complessi di intelligenza artificiale, apprendimento automatico, simulazione e HPC con accelerazione GPU. NDv2 è alimentata da 8 GPU NVIDIA Tesla V100 NVLINK, ognuna con 32 GB di memoria GPU. Ogni macchina virtuale NDv2 dispone anche di 40 core Intel Xeon Platinum 8168 (Skylake) non HyperThreaded e 672 GiB di memoria di sistema. Le istanze di NDv2 offrono prestazioni eccellenti per i carichi di lavoro HPC e di intelligenza artificiale che utilizzano kernel di calcolo ottimizzati per GPU CUDA e numerosi strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. A livello critico, la serie NDv2 è progettata sia per il calcolo che per l'aumento delle prestazioni, grazie alle 8 GPU per ogni macchina virtuale, nonché per lo scale-out, consentito dall'interazione di più macchine virtuali. La serie NDv2 supporta ora la rete back-end EDR InfiniBand 100 Gigabit, simile a quella disponibile nella serie HB della macchina virtuale HPC, per consentire il clustering ad alte prestazioni per scenari paralleli, incluso il training distribuito per intelligenza artificiale e Machine Learning. Questa rete back-end supporta tutti i principali protocolli InfiniBand, inclusi quelli usati dalle librerie NCCL2 di NVIDIA, consentendo un clustering semplice delle GPU.

Visualizzare la pagina completa della serie NDv2

In parte Quantità
Conteggiodelle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 40vCore Intel® Xeon® Platinum 8168 (Skylake)
Memoria 672GiB
Dischi dati 32dischi 80000operazioni di I/ O al secondo/800MBps
Rete 8schede di interfaccia di rete 24000Mbps
Acceleratori 8GPU NVIDIA V100 (NVLink) 32GiB
256GiB per macchina virtuale

ND_A100_v4-series

La macchina virtuale della serie ND A100 v4 è il nuovo fiore all'occhiello della famiglia di GPU di Azure. È stata progettata per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC con scale-up e scale-out. La serie ND A100 v4 inizia con una singola macchina virtuale e otto GPU NVIDIA Ampere A100 da 40 GB Tensor Core. Le distribuzioni basate su ND A100 v4 possono aumentare fino a migliaia di GPU con 1,6 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione NVIDIA Mellanox HDR InfiniBand da 200 GB/s dedicata e indipendente dalla topologia. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali e supportano GPUDirect RDMA. Ogni GPU dispone della connettività NVLINK 3.0 per la comunicazione all'interno della macchina virtuale e l'istanza è supportata da 96 core CPU AMD Epyc™ 7V12 di seconda generazione (Rome). Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. Inoltre, l'interconnessione InfiniBand scale-out è supportata da un ampio set di strumenti di intelligenza artificiale e HPC esistenti, basati sulle librerie di comunicazione NCCL2 di NVIDIA per un clustering semplice della GPU.

Visualizzare la pagina completa della serie ND_A100_v4.

In parte Quantità
Conteggiodelle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96vCore AMD Epyc™ 7V12 (Rome)
Memoria 900GiB
Dischi dati 32dischi 80000operazioni di I/ O al secondo/800MBps
Rete 8 schede di interfaccia di rete 24000Mbps
Acceleratori 8GPU NVIDIA A100 (NVLink) 40GiB
320GiB per macchina virtuale

Serie NDm_A100_v4

La macchina virtuale della serie NDm A100 v4 è il nuovo fiore all'occhiello della famiglia di GPU di Azure. È stata progettata per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC con scale-up e scale-out. La serie NDm A100 v4 inizia con una singola macchina virtuale e otto GPU NVIDIA Ampere A100 da 80 GB Tensor Core. Le distribuzioni basate su NDm A100 v4 possono aumentare fino a migliaia di GPU con 1,6 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione NVIDIA Mellanox HDR InfiniBand da 200 GB/s dedicata e indipendente dalla topologia. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali e supportano GPUDirect RDMA. Ogni GPU dispone della connettività NVLINK 3.0 per la comunicazione all'interno della macchina virtuale e l'istanza è supportata da 96 core CPU AMD Epyc™ 7V12 di seconda generazione (Rome). Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. Inoltre, l'interconnessione InfiniBand scale-out è supportata da un ampio set di strumenti di intelligenza artificiale e HPC esistenti, basati sulle librerie di comunicazione NCCL2 di NVIDIA per un clustering semplice della GPU.

Visualizzare la pagina completa della serie NDm_A100_v4.

In parte Quantità
Conteggiodelle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96vCore AMD Epyc™ 7V12 (Rome)
Memoria 900GiB
Dischi dati 32dischi 80000operazioni di I/ O al secondo/800MBps
Rete 8schede di interfaccia di rete 24000Mbps
Acceleratori 8GPU NVIDIA A100 (NVLink) 80GiB
640GiB per macchina virtuale

Serie ND_H100_v5

La macchina virtuale della serie ND H100 v5 è il nuovo fiore all'occhiello della famiglia di GPU di Azure. È progettata per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC e di AI generativa con scale-up e scale-out. La serie ND H100 v5 inizia con una singola macchina virtuale e otto GPU NVIDIA H100 Tensor Core. Le distribuzioni basate su ND H100 v5 possono aumentare fino a migliaia di GPU con 3,2 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione InfiniBand dedicata e indipendente dalla topologia 400 Gb/s NVIDIA Quantum-2 CX7. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali e supportano GPUDirect RDMA. Ogni GPU dispone della connettività NVLINK 4.0 per la comunicazione all'interno della macchina virtuale e l'istanza è supportata da 96 core fisici del processore scalabile Intel Xeon di quarta generazione. Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU predefinita, ad esempio TensorFlow, Pytorch, Caffe, RAPIDS e altri framework. Inoltre, l'interconnessione InfiniBand scale-out è supportata da un ampio set di strumenti di intelligenza artificiale e HPC esistenti, basati sulle librerie di comunicazione NCCL di NVIDIA per un clustering semplice della GPU.

Visualizzare la pagina completa della serie ND_H100_v5.

In parte Quantità
Conteggiodelle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96vCore Intel® Xeon® scalabile (Sapphire Rapids)
Memoria 1900GiB
Dischi dati 32dischi 40800operazioni di I/ O al secondo/612MBps
Rete 8schede di interfaccia di rete 80000Mbps
Acceleratori 8GPU NVIDIA H100 (NVLink) 80GiB
640GiB per macchina virtuale

ND_MI300X_v5-series

La macchina virtuale della serie ND MI300X v5 è una nuova aggiunta principale alla famiglia GPU di Azure. È stata progettata per il training di Deep Learning di fascia alta e per i carichi di lavoro HPC e di AI generativa con scalabilità orizzontale e verticale.

La macchina virtuale serie ND MI300X v5 inizia con otto GPU AMD Instinct MI300 e due processori scalabili Intel Xeon di quarta generazione per un totale di 96 core fisici. Ogni GPU all'interno della macchina virtuale viene quindi connessa alle altre tramite collegamenti AMD Infinity Fabric di quarta generazione con larghezza di banda di 128 GB/s per GPU e 896 GB/s di larghezza di banda aggregata.

Le distribuzioni basate su ND MI300X v5 possono aumentare fino a migliaia di GPU con 3,2 TB/s di larghezza di banda di interconnessione per macchina virtuale. Ogni GPU all'interno della macchina virtuale viene fornita con una propria connessione InfiniBand dedicata e indipendente dalla topologia 400 Gb/s NVIDIA Quantum-2 CX7. Queste connessioni vengono configurate automaticamente tra le macchine virtuali che occupano lo stesso set di scalabilità di macchine virtuali e supportano GPUDirect RDMA.

Queste istanze offrono prestazioni eccellenti per molti strumenti di intelligenza artificiale, Machine Learning e analisi che supportano l'accelerazione GPU "predefinita", ad esempio TensorFlow, Pytorch e altri framework. Inoltre, l'interconnessione InfiniBand con scalabilità orizzontale supporta un ampio set di strumenti di intelligenza artificiale e HPC esistenti basati su AMD’ROCm Communication Collectives Library (RCCL) per un clustering semplice delle GPU.

Visualizzare la pagina completa della serie ND_MI300X_v5.

In parte Quantità
Conteggiodelle unità
Specifiche
ID SKU, unità delle prestazioni e così via.
Processore 96 vCore Intel® Xeon® scalabile (Sapphire Rapids)
Memoria 1850 GiB
Archiviazione locale 1 disco 1000 GiB
Dischi remoti 32 Dischi 40800 operazioni di I/O al secondo
612 MBps
Rete 8 schede di interfaccia di rete 80000 MBps
Acceleratori 8 GPU AMD MI300X 192 GiB
1535 GiB per VM

Serie di famiglie ND di generazione precedente

Per le dimensioni precedenti, vedere Dimensioni di generazione precedenti.

Altre informazioni sulle dimensioni

Elenco di tutte le dimensioni disponibili: Dimensioni

Calcolatore dei prezzi: Calcolatore dei prezzi

Informazioni sui tipi di dischi: Tipi di dischi

Passaggi successivi

Altre informazioni su come le unità di calcolo di Azure consentono di confrontare le prestazioni di calcolo negli SKU di Azure.

Vedere host dedicati di Azure per i server fisici in grado di ospitare una o più macchine virtuali assegnate a una sottoscrizione di Azure.

Informazioni su come Monitorare le macchine virtuali di Azure.