'ND' subfamilie GPU versnelde reeks grootten van virtuele machines
Van toepassing op: ✔️ Virtuele Linux-machines voor Windows-VM's ✔️ ✔️ Flexibele schaalsets Uniform-schaalsets ✔️
De 'ND'-serie VM-grootte is een van de MET GPU versnelde VM-exemplaren van Azure. Ze zijn ontworpen voor deep learning, AI-onderzoek en high-performance computingtaken die profiteren van krachtige GPU-versnelling. Vm's uit de ND-serie zijn uitgerust met NVIDIA GPU's en bieden gespecialiseerde mogelijkheden voor training en deductie van complexe machine learning-modellen, waardoor snellere berekeningen en efficiënte verwerking van grote gegevenssets worden vergemakkelijkt. Dit maakt ze bijzonder geschikt voor academische en commerciële toepassingen in AI-ontwikkeling en -simulatie, waarbij geavanceerde GPU-technologie cruciaal is voor het bereiken van snelle en nauwkeurige resultaten in neurale netwerkverwerking en andere rekenintensieve taken.
Workloads en use cases
AI en Deep Learning: VM's uit de ND-serie zijn ideaal voor het trainen en implementeren van complexe Deep Learning-modellen. Uitgerust met krachtige NVIDIA GPU's bieden ze de rekenkracht die nodig is voor het verwerken van uitgebreide neurale netwerktraining met grote gegevenssets, waardoor de trainingstijden aanzienlijk worden verminderd.
High Performance Computing (HPC): VM's uit de ND-serie zijn geschikt voor HPC-toepassingen waarvoor GPU-versnelling is vereist. Velden zoals wetenschappelijk onderzoek, technische simulaties (bijvoorbeeld rekenkundige vloeistofdynamiek) en genomische verwerking kunnen profiteren van de rekenmogelijkheden met hoge doorvoer van VM's uit de ND-serie.
Reeks in familie
ND-serie V1
De virtuele machines uit de ND-serie zijn een nieuwe toevoeging aan de GPU-serie die is ontworpen voor AI- en Deep Learning-workloads. Ze bieden uitstekende prestaties voor training en deductie. ND-exemplaren worden aangedreven door NVIDIA Tesla P40 GPU's en Intel Xeon E5-2690 v4 (Broadwell) CPU's. Deze exemplaren bieden uitstekende prestaties voor drijvendekommabewerkingen met één precisie, voor AI-workloads die gebruikmaken van Microsoft Cognitive Toolkit, TensorFlow, Caffe en andere frameworks. De ND-serie biedt daarnaast een veel groter GPU-geheugen (24 GB), waardoor het mogelijk is om veel grotere modellen met een neuraal netwerk in te zetten. Net als de NC-serie biedt de ND-serie een configuratie met een secundair netwerk met lage latentie, hoge doorvoer via RDMA en InfiniBand-connectiviteit, zodat u grootschalige trainingstaken kunt uitvoeren voor veel GPU's.
Bekijk de volledige pagina van de ND-serie.
Onderdeel | Hoeveelheid Aantal eenheden |
Specs SKU-id, prestatie-eenheden, enzovoort. |
---|---|---|
Verwerker | 6 - 24 vCPU's | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Geheugen | 112 - 448 GiB | |
Lokale opslag | 1 schijf | 736 - 2948 GiB |
Externe opslag | 12 - 32 schijven | 20000 - 80000 IOPS 200 - 800 MBps |
Netwerk | 4 - 8 NIC's | |
Accelerators | 1 - 4 GPU's | Nvidia Tesla P40 GPU (24 GB) |
NDv2-serie
De virtuele machine uit de NDv2-serie is een nieuwe toevoeging aan de GPU-serie die is ontworpen voor de behoeften van de meest veeleisende AI-, machine learning-, simulatie- en HPC-workloads.
NDv2 wordt aangedreven door 8 NVIDIA Tesla V100 NVLINK-verbonden GPU's, elk met 32 GB GPU-geheugen. Elke NDv2-VM heeft ook 40 niet-HyperThreaded Intel Xeon Platinum 8168 -kernen (Skylake) en 672 GiB van systeemgeheugen.
NDv2-exemplaren bieden uitstekende prestaties voor HPC- en AI-workloads die gebruikmaken van door CUDA GPU geoptimaliseerde rekenkernels en de vele AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks.
Kritiek is dat de NDv2 is gebouwd voor zowel rekenkrachtig opschalen (waarbij gebruik wordt gemaakt van 8 GPU's per VM) als uitschalen (waarbij meerdere VM's samenwerken) . De NDv2-serie ondersteunt nu 100 Gigabit InfiniBand EDR-back-endnetwerken, vergelijkbaar met die die beschikbaar zijn op de HB-serie van HPC-VM, om high-performance clustering toe te staan voor parallelle scenario's, waaronder gedistribueerde training voor AI en ML. Dit back-endnetwerk ondersteunt alle belangrijke InfiniBand-protocollen, waaronder de protocollen die worden gebruikt door NCCL2-bibliotheken van NVIDIA, waardoor naadloze clustering van GPU's mogelijk is.
De volledige pagina NDv2-serie weergeven
Onderdeel | Hoeveelheid Aantal eenheden |
Specs SKU-id, prestatie-eenheden, enzovoort. |
---|---|---|
Verwerker | 40 vCPU's | Intel Xeon Platinum 8168 (Skylake) [x86-64] |
Geheugen | 672 GiB | |
Lokale opslag | 1 schijf | 2948 GiB |
Externe opslag | 32 schijven | 80000 IOPS 800 MBps |
Netwerk | 8 NIC's | 24000 Mbps |
Accelerators | Geen |
ND_A100_v4-serie
De virtuele machine (VM) uit de ND A100 v4-serie is een nieuwe vlaggenschip-toevoeging aan de Azure GPU-serie. Deze grootten zijn ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde HPC-workloads voor omhoog schalen en uitschalen.
De ND A100 v4-serie begint met één VM en acht NVIDIA Ampere A100 40 GB Tensor Core GPU's. Op ND A100 v4 gebaseerde implementaties kunnen omhoog worden geschaald naar duizenden GPU's met een bandbreedte van 1,6 TB/s met onderling verbonden bandbreedte per VM. Elke GPU binnen de VM wordt geleverd met een eigen, toegewezen topologie-agnostische 200 GB/s NVIDIA Mellanox HDR InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset van Azure bezetten en ondersteunen GPU Direct RDMA.
Elke GPU beschikt over NVLINK 3.0-connectiviteit voor communicatie binnen de VIRTUELE machine met 96 fysieke 2e generatie AMD Epyc™ 7V12 (Rome) CPU-kernen daarachter.
Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-the-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op DE NCCL2-communicatiebibliotheken van NVIDIA voor naadloze clustering van GPU's.
Bekijk de volledige pagina ND_A100_v4 reeks.
Onderdeel | Hoeveelheid Aantal eenheden |
Specs SKU-id, prestatie-eenheden, enzovoort. |
---|---|---|
Verwerker | 96 vCPU's | AMD EPYC 7V12 (Rome) [x86-64] |
Geheugen | 900 GiB | |
Lokale opslag | 1 schijf | 6000 GiB |
Externe opslag | 32 schijven | 80000 IOPS 800 MBps |
Netwerk | 8 NIC's | 24000 Mbps |
Accelerators | 8 GPU's | Nvidia A100 GPU (40 GB) |
NDm_A100_v4-serie
De virtuele machine (VM) uit de NDm A100 v4-serie is een nieuwe vlaggenschip-toevoeging aan de Azure GPU-serie. Deze grootten zijn ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde HPC-workloads voor omhoog schalen en uitschalen.
De NDm A100 v4-serie begint met één VM en acht NVIDIA Ampere A100 80 GB Tensor Core GPU's. Op NDm A100 v4 gebaseerde implementaties kunnen worden geschaald naar duizenden GPU's met een bandbreedte van 1,6 TB/s met onderling verbonden bandbreedte per VM. Elke GPU binnen de VM wordt geleverd met een eigen, toegewezen topologie-agnostische 200 GB/s NVIDIA Mellanox HDR InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset van Azure bezetten en ondersteunen GPU Direct RDMA.
Elke GPU beschikt over NVLINK 3.0-connectiviteit voor communicatie binnen de VIRTUELE machine met 96 fysieke 2e generatie AMD Epyc™ 7V12 (Rome) CPU-kernen daarachter.
Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-the-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op DE NCCL2-communicatiebibliotheken van NVIDIA voor naadloze clustering van GPU's.
Bekijk de volledige pagina NDm_A100_v4-reeks.
Onderdeel | Hoeveelheid Aantal eenheden |
Specs SKU-id, prestatie-eenheden, enzovoort. |
---|---|---|
Verwerker | 96 vCPU's | AMD EPYC 7V12 (Rome) [x86-64] |
Geheugen | 1900 GiB | |
Lokale opslag | 1 schijf | 6400 GiB |
Externe opslag | 32 schijven | 80000 IOPS 800 MBps |
Netwerk | 8 NIC's | 24000 Mbps |
Accelerators | 8 GPU's | Nvidia A100 GPU (80 GB) |
ND_H100_v5-serie
De virtuele machine (VM) uit de ND H100 v5-serie is een nieuwe vlaggenschip-toevoeging aan de Azure GPU-serie. Deze serie is ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde omhoog- en uitschalende AI- en HPC-workloads.
De ND H100 v5-serie begint met één VM en acht NVIDIA H100 Tensor Core GPU's. Op ND H100 v5 gebaseerde implementaties kunnen worden geschaald tot duizenden GPU's met 3,2 Tbps aan onderling verbonden bandbreedte per VM. Elke GPU binnen de VIRTUELE machine wordt geleverd met een eigen, toegewezen topologie-agnostische 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset bezetten en ondersteunen GPU Direct RDMA.
Elke GPU beschikt over NVLINK 4.0-connectiviteit voor communicatie binnen de VIRTUELE machine en het exemplaar heeft 96 fysieke intel Xeon Scalable processorkernen van de vierde generatie.
Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die ondersteuning bieden voor GPU-versnelling 'out-of-the-box', zoals TensorFlow, Pytorch, Caffe, RAPIDS en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op NCCL-communicatiebibliotheken van NVIDIA voor naadloze clustering van GPU's.
Bekijk de volledige pagina ND_H100_v5-reeks.
Onderdeel | Hoeveelheid Aantal eenheden |
Specs SKU-id, prestatie-eenheden, enzovoort. |
---|---|---|
Verwerker | 96 vCPU's | Intel Xeon (Saffier rapids) [x86-64] |
Geheugen | 1900 GiB | |
Lokale opslag | 1 schijf | 28000 GiB |
Externe opslag | 32Disks | |
Netwerk | 8 NIC's | |
Accelerators | 8 GPU's | Nvidia H100 GPU (80 GB) |
ND_MI300X_v5-serie
De virtuele machine (VM) van de ND MI300X v5-serie is een nieuwe vlaggenschip naast de Azure GPU-serie. Het is ontworpen voor geavanceerde Deep Learning-training en nauw gekoppelde omhoog- en uitschalende AI- en HPC-workloads.
De VM uit de ND MI300X v5-serie begint met acht AMD Instinct MI300 GPU's en twee vierde Generatie Intel Xeon Scalable-processors voor een totaal van 96 fysieke kernen. Elke GPU binnen de VIRTUELE machine wordt vervolgens met elkaar verbonden via 4e gen AMD Infinity Fabric-koppelingen met 128 GB/s bandbreedte per GPU en 896 GB/s geaggregeerde bandbreedte.
Op ND MI300X v5 gebaseerde implementaties kunnen worden geschaald tot duizenden GPU's met 3,2 Tb/s aan onderling verbonden bandbreedte per VM. Elke GPU binnen de VIRTUELE machine wordt geleverd met een eigen, toegewezen topologie-agnostische 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-verbinding. Deze verbindingen worden automatisch geconfigureerd tussen VM's die dezelfde virtuele-machineschaalset in beslag nemen en ondersteunen GPUDirect RDMA.
Deze exemplaren bieden uitstekende prestaties voor veel AI-, ML- en analysehulpprogramma's die GPU-versnelling 'out-of-the-box' ondersteunen, zoals TensorFlow, Pytorch en andere frameworks. Daarnaast ondersteunt de uitschaalbare InfiniBand-interconnect een grote set bestaande AI- en HPC-hulpprogramma's die zijn gebouwd op DE ROCm Communication Collectives Library (RCCL) van AMD voor naadloze clustering van GPU's.
Bekijk de volledige pagina ND_MI300X_v5 reeks.
Onderdeel | Hoeveelheid Aantal eenheden |
Specs SKU-id, prestatie-eenheden, enzovoort. |
---|---|---|
Verwerker | 96 vCPU's | Intel Xeon (Saffier rapids) [x86-64] |
Geheugen | 1850 GiB | |
Lokale opslag | 1 tijdelijke schijf 8 NVMe-schijven |
1000 GiB Temp Disk 28000 GiB NVMe-schijven |
Externe opslag | 32 schijven | 80000 IOPS 1200 MBps |
Netwerk | 8 NIC's | |
Accelerators | 8 GPU's | AMD Instinct MI300X GPU (192 GB) |
ND-serie van vorige generatie
Zie vorige generatiegrootten voor oudere grootten.
Andere groottegegevens
Lijst met alle beschikbare grootten: Grootten
Prijscalculator: Prijscalculator
Informatie over schijftypen: schijftypen
Volgende stappen
Meer informatie over hoe Azure-rekeneenheden (ACU) u kunnen helpen bij het vergelijken van de rekenprestaties tussen Azure-SKU's.
Bekijk Azure Dedicated Hosts voor fysieke servers die een of meer virtuele machines kunnen hosten die zijn toegewezen aan één Azure-abonnement.
Meer informatie over het bewaken van virtuele Azure-machines.