Dela via


GPU-serien "ND" i underfamiljen accelererade storleksserier för virtuella datorer

Gäller för: ✔️ Virtuella Linux-datorer ✔️ med virtuella Windows-datorer ✔️ – flexibla skalningsuppsättningar ✔️ Enhetliga skalningsuppsättningar

ND-serien med VM-storleksserier är en av Azures GPU-accelererade VM-instanser. De är utformade för djupinlärning, AI-forskning och högpresterande databehandlingsuppgifter som drar nytta av kraftfull GPU-acceleration. Utrustade med NVIDIA GPU:er erbjuder virtuella datorer i ND-serien särskilda funktioner för träning och slutsatsdragning av komplexa maskininlärningsmodeller, vilket underlättar snabbare beräkningar och effektiv hantering av stora datamängder. Detta gör dem särskilt väl lämpade för akademiska och kommersiella program inom AI-utveckling och simulering, där den senaste GPU-tekniken är avgörande för att uppnå snabba och korrekta resultat vid bearbetning av neurala nätverk och andra beräkningsintensiva uppgifter.

Arbetsbelastningar och användningsfall

AI och djupinlärning: Virtuella datorer i ND-serien är idealiska för träning och distribution av komplexa djupinlärningsmodeller. Utrustade med kraftfulla NVIDIA GPU:er ger de den beräkningskraft som krävs för att hantera omfattande neural nätverksträning med stora datamängder, vilket avsevärt minskar träningstiderna.

Högpresterande databehandling (HPC): Virtuella datorer i ND-serien är lämpliga för HPC-program som kräver GPU-acceleration. Områden som vetenskaplig forskning, tekniska simuleringar (t.ex. beräkningsströmningsdynamik) och genomisk bearbetning kan dra nytta av databehandlingsfunktionerna i ND-seriens virtuella datorer.

Grafikrendering: ND-familjens GPU:er gör dem till ett bra val för grafikintensiva uppgifter, inklusive realtidsrendering för animering och videoproduktion, samt simuleringar med hög återgivning för miljöer med virtuell verklighet.

Fjärrvisualisering: Virtuella datorer i ND-serien kan användas för fjärrvisualisering av dataintensiva uppgifter, där avancerade GPU-funktioner krävs för att bearbeta och återge komplexa visualiseringar över molnet, vilket underlättar åtkomsten från mindre kraftfulla klientdatorer.

Serie i familj

ND-serien V1

De virtuella datorerna i ND-serien är ett nytt tillägg till GPU-serien som är utformad för AI- och Deep Learning-arbetsbelastningar. De erbjuder utmärkta prestanda för träning och slutsatsdragning. ND-instanser drivs av NVIDIA Tesla P40 GPU:er och Intel Xeon E5-2690 v4 (Broadwell) processorer. Dessa instanser ger utmärkta prestanda för flyttalsåtgärder med enkel precision för AI-arbetsbelastningar som använder Microsoft Cognitive Toolkit, TensorFlow, Caffe och andra ramverk. ND-serien erbjuder även en mycket större GPU-minnesstorlek (24 GB), vilket gör det möjligt att passa större neurala nätverksmodeller. Precis som NC-serien erbjuder ND-serien en konfiguration med ett sekundärt nätverk med låg svarstid, högt dataflöde via RDMA och InfiniBand-anslutning så att du kan köra storskaliga träningsjobb som sträcker sig över många GPU:er.

Visa hela sidan i ND-serien.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 6–24virtuella kärnor Intel® Xeon® E5-2690 v4 (Broadwell)
Minne 112 - 448GiB
Datadiskar 12–32diskar 20000 - 80000IOPS / 200 - 800Mbit/s
Nätverk 4–8nätverkskort
Acceleratorer 1–4GPU:er NVIDIA Tesla P40 24GiB
24–96GiB per virtuell dator

NDv2-serien

Den virtuella datorn i NDv2-serien är ett nytt tillägg till GPU-serien som är utformad för behoven hos de mest krävande GPU-accelererade AI-, maskininlärnings-, simulerings- och HPC-arbetsbelastningarna. NDv2 drivs av 8 NVIDIA Tesla V100 NVLINK-anslutna GPU:er, var och en med 32 GB GPU-minne. Varje virtuell NDv2-dator har också 40 icke-HyperThreaded Intel Xeon Platinum 8168-kärnor (Skylake) och 672 GiB systemminne. NDv2-instanser ger utmärkta prestanda för HPC- och AI-arbetsbelastningar som använder CUDA GPU-optimerade beräkningskärnor och de många AI-, ML- och analysverktygen som stöder GPU-acceleration "out-of-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Kritiskt är att NDv2 är byggd för både beräkningsintensiv uppskalning (utnyttja 8 GPU:er per virtuell dator) och utskalning (utnyttja flera virtuella datorer som arbetar tillsammans) arbetsbelastningar. NDv2-serien stöder nu 100-Gigabit InfiniBand EDR-serverdelsnätverk, ungefär som på HB-serien med virtuella HPC-datorer, för att tillåta högpresterande kluster för parallella scenarier, inklusive distribuerad utbildning för AI och ML. Det här serverdelsnätverket stöder alla större InfiniBand-protokoll, inklusive de som används av NVIDIA:s NCCL2-bibliotek, vilket möjliggör sömlös klustring av GPU:er.

Visa hela NDv2-seriens sida

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 40virtuella kärnor Intel® Xeon® Platinum 8168 (Skylake)
Minne 672GiB
Datadiskar 32diskar 80000IOPS /800Mbit/s
Nätverk 8nätverkskort 24 000Mbit/s
Acceleratorer 8GPU:er NVIDIA V100 (NVLink) 32GiB
256GiB per virtuell dator

ND_A100_v4-serien

Den virtuella datorn (VM) i ND A100 v4-serien är ett nytt flaggskeppstillägg till Azure GPU-familjen. Den är utformad för avancerad djupinlärningsträning och nära kopplade arbetsbelastningar för uppskalning och utskalning av HPC. ND A100 v4-serien börjar med en enda virtuell dator och åtta NVIDIA Ampere A100 40GB Tensor Core GPU:er. ND A100 v4-baserade distributioner kan skala upp till tusentals GPU:er med en bandbredd på 1,6 TB per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 200 GB/s NVIDIA Mellanox HDR InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma VM-skalningsuppsättning och stöder GPUDirect RDMA. Varje GPU har NVLINK 3.0-anslutning för kommunikation inom den virtuella datorn, och instansen backas upp av 96 fysiska AMD Epyc™ 7V12-processorkärnor i andra generationen (Rom). Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Dessutom stöds den utskalade InfiniBand-anslutningen av en stor uppsättning befintliga AI- och HPC-verktyg som bygger på NVIDIA:s NCCL2-kommunikationsbibliotek för sömlös klustring av GPU:er.

Visa hela ND_A100_v4-seriens sida.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96virtuella kärnor AMD Epyc™ 7V12 (Rom)
Minne 900GiB
Datadiskar 32diskar 80000IOPS /800Mbit/s
Nätverk 8 nätverkskort 24 000Mbit/s
Acceleratorer 8GPU:er NVIDIA A100 (NVLink) 40GiB
320GiB per virtuell dator

NDm_A100_v4-serien

Den virtuella datorn(VM) i NDm A100 v4-serien är ett nytt flaggskeppstillägg till Azure GPU-familjen. Den är utformad för avancerad djupinlärningsträning och nära kopplade arbetsbelastningar för uppskalning och utskalning av HPC. NDm A100 v4-serien börjar med en enda virtuell dator och åtta NVIDIA Ampere A100 80GB Tensor Core GPU:er. NDm A100 v4-baserade distributioner kan skala upp till tusentals GPU:er med en bandbredd på 1,6 TB per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 200 GB/s NVIDIA Mellanox HDR InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma VM-skalningsuppsättning och stöder GPUDirect RDMA. Varje GPU har NVLINK 3.0-anslutning för kommunikation inom den virtuella datorn, och instansen backas upp av 96 fysiska AMD Epyc™ 7V12-processorkärnor i andra generationen (Rom). Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Dessutom stöds den utskalade InfiniBand-anslutningen av en stor uppsättning befintliga AI- och HPC-verktyg som bygger på NVIDIA:s NCCL2-kommunikationsbibliotek för sömlös klustring av GPU:er.

Visa hela sidan NDm_A100_v4-serien.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96virtuella kärnor AMD Epyc™ 7V12 (Rom)
Minne 900GiB
Datadiskar 32diskar 80000IOPS /800Mbit/s
Nätverk 8nätverkskort 24 000Mbit/s
Acceleratorer 8GPU:er NVIDIA A100 (NVLink) 80GiB
640GiB per virtuell dator

ND_H100_v5-serien

Den virtuella datorn i ND H100 v5-serien (VM) är ett nytt flaggskeppstillägg till Azure GPU-familjen. Den är utformad för avancerad djupinlärningsträning och nära kopplade arbetsbelastningar för generativ AI och HPC. ND H100 v5-serien börjar med en enda virtuell dator och åtta NVIDIA H100 Tensor Core GPU:er. ND H100 v5-baserade distributioner kan skala upp till tusentals GPU:er med 3,2 TB bandbredd per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma VM-skalningsuppsättning och stöder GPUDirect RDMA. Varje GPU har NVLINK 4.0-anslutning för kommunikation inom den virtuella datorn, och instansen backas upp av 96 fysiska 4:e generationens Intel Xeon-skalbara processorskärnor. Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch, Caffe, RAPIDS och andra ramverk. Dessutom stöds den utskalade InfiniBand-anslutningen av en stor uppsättning befintliga AI- och HPC-verktyg som bygger på NVIDIA:s NCCL-kommunikationsbibliotek för sömlös klustring av GPU:er.

Visa hela sidan ND_H100_v5-serien.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96virtuella kärnor Intel® Xeon® Scalable (Sapphire Rapids)
Minne 1900GiB
Datadiskar 32diskar 40800IOPS /612Mbit/s
Nätverk 8nätverkskort 80000Mbit/s
Acceleratorer 8GPU:er NVIDIA H100 (NVLink) 80GiB
640GiB per virtuell dator

ND_MI300X_v5-serien

Den virtuella datorn i ND MI300X v5-serien (VM) är ett nytt flaggskeppstillägg till Azure GPU-familjen. Den har utformats för avancerad djupinlärningsträning och nära kopplade generativa AI- och HPC-arbetsbelastningar.

Den virtuella datorn i ND MI300X v5-serien börjar med åtta AMD Instinct MI300 GPU:er och två fjärde Gen Intel Xeon Scalable-processorer för totalt 96 fysiska kärnor. Varje GPU i den virtuella datorn ansluts sedan till varandra via 4:e generationens AMD Infinity Fabric-länkar med 128 GB/s bandbredd per GPU och 896 GB/s aggregerad bandbredd.

ND MI300X v5-baserade distributioner kan skala upp till tusentals GPU:er med 3,2 TB bandbredd per virtuell dator. Varje GPU på den virtuella datorn tillhandahålls med en egen dedikerad, topologi-agnostisk 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand-anslutning. Dessa anslutningar konfigureras automatiskt mellan virtuella datorer som upptar samma VM-skalningsuppsättning och stöder GPUDirect RDMA.

Dessa instanser ger utmärkta prestanda för många AI-, ML- och analysverktyg som stöder GPU-acceleration "out-of-the-box", till exempel TensorFlow, Pytorch och andra ramverk. Dessutom stöder den utskalningsbaserade InfiniBand-anslutningen en stor uppsättning befintliga AI- och HPC-verktyg som bygger på AMD:s ROCm Communication Collectives Library (RCCL) för sömlös klustring av GPU:er.

Visa hela ND_MI300X_v5-seriens sida.

Delvis Kvantitet
Antal enheter
Glasögon
SKU-ID, prestandaenheter osv.
Processor 96 virtuella kärnor Intel® Xeon® Scalable (Sapphire Rapids)
Minne 1850 GiB
Lokal lagring 1 disk 1000 GiB
Fjärrdiskar 32 diskar 40800 IOPS
612 Mbit/s
Nätverk 8 nätverkskort 80000 Mbit/s
Acceleratorer 8 GPU:er AMD MI300X 192 GiB
1535 GiB per virtuell dator

Föregående generations ND-familjeserie

För äldre storlekar, se tidigare generationsstorlekar.

Annan storleksinformation

Lista över alla tillgängliga storlekar: Storlekar

Priskalkylator: Priskalkylator

Information om disktyper: Disktyper

Nästa steg

Läs mer om hur Azure-beräkningsenheter (ACU) kan hjälpa dig att jämföra beräkningsprestanda mellan Azure-SKU:er.

Kolla in Azure Dedicated Hosts för fysiska servrar som kan vara värdar för en eller flera virtuella datorer som tilldelats en Azure-prenumeration.

Lär dig hur du övervakar virtuella Azure-datorer.