Share via


'ND' subfamilie GPU versnelde reeks grootten van virtuele machines

Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️

De 'ND'-serie VM-grootte is een van de MET GPU versnelde VM-exemplaren van Azure. Ze zijn ontworpen voor deep learning, AI-onderzoek en high-performance computingtaken die profiteren van krachtige GPU-versnelling. Vm's uit de ND-serie zijn uitgerust met NVIDIA GPU's en bieden gespecialiseerde mogelijkheden voor training en deductie van complexe machine learning-modellen, waardoor snellere berekeningen en efficiënte verwerking van grote gegevenssets worden vergemakkelijkt. Dit maakt ze bijzonder geschikt voor academische en commerciële toepassingen in AI-ontwikkeling en -simulatie, waarbij geavanceerde GPU-technologie cruciaal is voor het bereiken van snelle en nauwkeurige resultaten in neurale netwerkverwerking en andere rekenintensieve taken.

Workloads en use cases

AI en Deep Learning: VM's uit de ND-serie zijn ideaal voor het trainen en implementeren van complexe Deep Learning-modellen. Uitgerust met krachtige NVIDIA GPU's bieden ze de rekenkracht die nodig is voor het verwerken van uitgebreide neurale netwerktraining met grote gegevenssets, waardoor de trainingstijden aanzienlijk worden verminderd.

High Performance Computing (HPC): VM's uit de ND-serie zijn geschikt voor HPC-toepassingen waarvoor GPU-versnelling is vereist. Velden zoals wetenschappelijk onderzoek, technische simulaties (bijvoorbeeld rekenkundige vloeistofdynamiek) en genomische verwerking kunnen profiteren van de rekenmogelijkheden met hoge doorvoer van VM's uit de ND-serie.

Reeks in familie

ND-serie V1

De virtuele machines uit de ND-serie zijn een nieuwe toevoeging aan de GPU-serie die is ontworpen voor AI- en Deep Learning-workloads. Ze bieden uitstekende prestaties voor training en deductie. ND-exemplaren worden aangedreven door NVIDIA Tesla P40 GPU's en Intel Xeon E5-2690 v4 (Broadwell) CPU's. Deze exemplaren bieden uitstekende prestaties voor drijvendekommabewerkingen met één precisie, voor AI-workloads die gebruikmaken van Microsoft Cognitive Toolkit, TensorFlow, Caffe en andere frameworks. De ND-serie biedt daarnaast een veel groter GPU-geheugen (24 GB), waardoor het mogelijk is om veel grotere modellen met een neuraal netwerk in te zetten. Net als de NC-serie biedt de ND-serie een configuratie met een secundair netwerk met lage latentie, hoge doorvoer via RDMA en InfiniBand-connectiviteit, zodat u grootschalige trainingstaken kunt uitvoeren voor veel GPU's.

Bekijk de volledige pagina van de ND-serie.

Onderdeel Hoeveelheid
Aantal eenheden
Specs
SKU-id, prestatie-eenheden, enzovoort.
Verwerker 6 - 24 vCPU's Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Geheugen 112 - 448 GiB
Lokale opslag 1 schijf 736 - 2948 GiB
Externe opslag 12 - 32 schijven 20000 - 80000 IOPS
200 - 800 MBps
Netwerk 4 - 8 NIC's
Accelerators 1 - 4 GPU's Nvidia Tesla P40 GPU (24 GB)

NDv2-serie

De virtuele machine uit de NDv2-serie is een nieuwe toevoeging aan de GPU-serie die is ontworpen voor de behoeften van de meest veeleisende AI-, machine learning-, simulatie- en HPC-workloads.

NDv2 wordt aangedreven door 8 NVIDIA Tesla V100 NVLINK-verbonden GPU's, elk met 32 GB GPU-geheugen. Elke NDv2-VM heeft ook 40 niet-HyperThreaded Intel Xeon Platinum 8168 -kernen (Skylake) en 672 GiB van systeemgeheugen.

NDv2-exemplaren bieden uitstekende prestaties voor HPC- en AI-workloads die gebruikmaken van door CUDA GPU geoptimaliseerde rekenkernels en de vele AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks.

Kritiek is dat de NDv2 is gebouwd voor zowel rekenkrachtig opschalen (waarbij gebruik wordt gemaakt van 8 GPU's per VM) als uitschalen (waarbij meerdere VM's samenwerken) . De NDv2-serie ondersteunt nu 100 Gigabit InfiniBand EDR-back-endnetwerken, vergelijkbaar met die die beschikbaar zijn op de HB-serie van HPC-VM, om high-performance clustering toe te staan voor parallelle scenario's, waaronder gedistribueerde training voor AI en ML. Dit back-endnetwerk ondersteunt alle belangrijke InfiniBand-protocollen, waaronder de protocollen die worden gebruikt door NCCL2-bibliotheken van NVIDIA, waardoor naadloze clustering van GPU's mogelijk is.

De volledige pagina NDv2-serie weergeven

Onderdeel Hoeveelheid
Aantal eenheden
Specs
SKU-id, prestatie-eenheden, enzovoort.
Verwerker 40 vCPU's Intel Xeon Platinum 8168 (Skylake) [x86-64]
Geheugen 672 GiB
Lokale opslag 1 schijf 2948 GiB
Externe opslag 32 schijven 80000 IOPS
800 MBps
Netwerk 8 NIC's 24000 Mbps
Accelerators Geen

ND_A100_v4-serie

De virtuele machine (VM) uit de ND A100 v4-serie is een nieuwe vlaggenschip-toevoeging aan de Azure GPU-serie. Deze grootten zijn ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde HPC-workloads voor omhoog schalen en uitschalen.

De ND A100 v4-serie begint met één VM en acht NVIDIA Ampere A100 40 GB Tensor Core GPU's. Op ND A100 v4 gebaseerde implementaties kunnen omhoog worden geschaald naar duizenden GPU's met een bandbreedte van 1,6 TB/s met onderling verbonden bandbreedte per VM. Elke GPU binnen de VM wordt geleverd met een eigen, toegewezen topologie-agnostische 200 GB/s NVIDIA Mellanox HDR InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset van Azure bezetten en ondersteunen GPU Direct RDMA.

Elke GPU beschikt over NVLINK 3.0-connectiviteit voor communicatie binnen de VIRTUELE machine met 96 fysieke 2e generatie AMD Epyc™ 7V12 (Rome) CPU-kernen daarachter.

Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-the-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op DE NCCL2-communicatiebibliotheken van NVIDIA voor naadloze clustering van GPU's.

Bekijk de volledige pagina ND_A100_v4 reeks.

Onderdeel Hoeveelheid
Aantal eenheden
Specs
SKU-id, prestatie-eenheden, enzovoort.
Verwerker 96 vCPU's AMD EPYC 7V12 (Rome) [x86-64]
Geheugen 900 GiB
Lokale opslag 1 schijf 6000 GiB
Externe opslag 32 schijven 80000 IOPS
800 MBps
Netwerk 8 NIC's 24000 Mbps
Accelerators 8 GPU's Nvidia A100 GPU (40 GB)

NDm_A100_v4-serie

De virtuele machine (VM) uit de NDm A100 v4-serie is een nieuwe vlaggenschip-toevoeging aan de Azure GPU-serie. Deze grootten zijn ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde HPC-workloads voor omhoog schalen en uitschalen.

De NDm A100 v4-serie begint met één VM en acht NVIDIA Ampere A100 80 GB Tensor Core GPU's. Op NDm A100 v4 gebaseerde implementaties kunnen worden geschaald naar duizenden GPU's met een bandbreedte van 1,6 TB/s met onderling verbonden bandbreedte per VM. Elke GPU binnen de VM wordt geleverd met een eigen, toegewezen topologie-agnostische 200 GB/s NVIDIA Mellanox HDR InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset van Azure bezetten en ondersteunen GPU Direct RDMA.

Elke GPU beschikt over NVLINK 3.0-connectiviteit voor communicatie binnen de VIRTUELE machine met 96 fysieke 2e generatie AMD Epyc™ 7V12 (Rome) CPU-kernen daarachter.

Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-the-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op DE NCCL2-communicatiebibliotheken van NVIDIA voor naadloze clustering van GPU's.

Bekijk de volledige pagina NDm_A100_v4-reeks.

Onderdeel Hoeveelheid
Aantal eenheden
Specs
SKU-id, prestatie-eenheden, enzovoort.
Verwerker 96 vCPU's AMD EPYC 7V12 (Rome) [x86-64]
Geheugen 1900 GiB
Lokale opslag 1 schijf 6400 GiB
Externe opslag 32 schijven 80000 IOPS
800 MBps
Netwerk 8 NIC's 24000 Mbps
Accelerators 8 GPU's Nvidia A100 GPU (80 GB)

ND_H100_v5-serie

De virtuele machine (VM) uit de ND H100 v5-serie is een nieuwe vlaggenschip-toevoeging aan de Azure GPU-serie. Deze serie is ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde omhoog- en uitschalende AI- en HPC-workloads.

De ND H100 v5-serie begint met één VM en acht NVIDIA H100 Tensor Core GPU's. Op ND H100 v5 gebaseerde implementaties kunnen worden geschaald tot duizenden GPU's met 3,2 Tbps aan onderling verbonden bandbreedte per VM. Elke GPU binnen de VIRTUELE machine wordt geleverd met een eigen, toegewezen topologie-agnostische 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset bezetten en ondersteunen GPU Direct RDMA.

Elke GPU beschikt over NVLINK 4.0-connectiviteit voor communicatie binnen de VIRTUELE machine en het exemplaar heeft 96 fysieke intel Xeon Scalable processorkernen van de vierde generatie.

Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-the-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op NCCL-communicatiebibliotheken van NVIDIA voor naadloze clustering van GPU's.

Bekijk de volledige pagina ND_H100_v5-reeks.

Onderdeel Hoeveelheid
Aantal eenheden
Specs
SKU-id, prestatie-eenheden, enzovoort.
Verwerker 96 vCPU's Intel Xeon (Saffier rapids) [x86-64]
Geheugen 1900 GiB
Lokale opslag 1 schijf 28000 GiB
Externe opslag 32Disks
Netwerk 8 NIC's
Accelerators 8 GPU's Nvidia H100 GPU (80 GB)

ND_MI300X_v5-serie

De virtuele machine (VM) van de ND MI300X v5-serie is een nieuwe vlaggenschip naast de Azure GPU-serie. Het is ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde omhoog- en uitschalende AI- en HPC-workloads.

De VM uit de ND MI300X v5-serie begint met acht AMD Instinct MI300 GPU's en twee vierde Generatie Intel Xeon Scalable-processors voor een totaal van 96 fysieke kernen. Elke GPU binnen de VIRTUELE machine wordt vervolgens met elkaar verbonden via 4e gen AMD Infinity Fabric-koppelingen met 128 GB/s bandbreedte per GPU en 896 GB/s geaggregeerde bandbreedte.

Op ND MI300X v5 gebaseerde implementaties kunnen worden geschaald tot duizenden GPU's met 3,2 Tb/s aan onderling verbonden bandbreedte per VM. Elke GPU binnen de VIRTUELE machine wordt geleverd met een eigen, toegewezen topologie-agnostische 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset in beslag nemen en ondersteunen GPUDirect RDMA.

Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die GPU-versnelling 'out-of-the-box' ondersteunen, zoals TensorFlow, Pytorch en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op DE ROCm Communication Collectives Library (RCCL) van AMD voor naadloze clustering van GPU's.

Bekijk de volledige pagina ND_MI300X_v5 reeks.

Onderdeel Hoeveelheid
Aantal eenheden
Specs
SKU-id, prestatie-eenheden, enzovoort.
Verwerker 96 vCPU's Intel Xeon (Saffier rapids) [x86-64]
Geheugen 1850 GiB
Lokale opslag 1 tijdelijke schijf
8 NVMe-schijven
1000 GiB Temp Disk
28000 GiB NVMe-schijven
Externe opslag 32 schijven 80000 IOPS
1200 MBps
Netwerk 8 NIC's
Accelerators 8 GPU's AMD Instinct MI300X GPU (192 GB)

ND-serie van vorige generatie

Zie vorige generatiegrootten voor oudere grootten.

Andere groottegegevens

Lijst met alle beschikbare grootten: Grootten

Prijscalculator: Prijscalculator

Informatie over schijftypen: schijftypen

Volgende stappen

Meer informatie over hoe Azure-rekeneenheden (ACU) u kunnen helpen bij het vergelijken van de rekenprestaties tussen Azure-SKU's.

Bekijk Azure Dedicated Hosts voor fysieke servers die een of meer virtuele machines kunnen hosten die zijn toegewezen aan één Azure-abonnement.

Meer informatie over het bewaken van virtuele Azure-machines.