Megosztás a következőn keresztül:


"ND" alcsaládú GPU gyorsított virtuálisgép-méretsorozat

A következőkre vonatkozik: ✔️ Linux rendszerű virtuális gépek ✔️ Windows rendszerű virtuális gépek Rugalmas méretezési ✔️ csoportok ✔️ Egységes méretezési csoportok

A virtuálisgép-méretsorozatok ND-családja az Azure GPU-gyorsított virtuálisgép-példányai közé tartozik. Mélytanulásra, AI-kutatásra és nagy teljesítményű számítási feladatokra tervezték, amelyek kihasználják az erőteljes GPU-gyorsítás előnyeit. Az NVIDIA GPU-kkal felszerelt ND-sorozatú virtuális gépek speciális képességeket kínálnak az összetett gépi tanulási modellek betanításához és következtetéséhez, elősegítve a gyorsabb számításokat és a nagy adathalmazok hatékony kezelését. Ez különösen alkalmassá teszi őket az AI-fejlesztés és -szimuláció tudományos és kereskedelmi alkalmazásai számára, ahol az élvonalbeli GPU-technológia kulcsfontosságú a neurális hálózati feldolgozás és más számítási szempontból intenzív feladatok gyors és pontos eredményeinek eléréséhez.

Számítási feladatok és használati esetek

Mi és mély tanulás: Az ND-családi virtuális gépek ideálisak összetett mélytanulási modellek betanításához és üzembe helyezéséhez. A nagy teljesítményű NVIDIA GPU-kkal felszerelt eszközök nagy adathalmazokkal biztosítják a nagy mennyiségű neurális hálózati betanítás kezeléséhez szükséges számítási teljesítményt, jelentősen csökkentve a betanítási időt.

Nagy teljesítményű számítástechnika (HPC): Az ND-családi virtuális gépek gpu-gyorsítást igénylő HPC-alkalmazásokhoz alkalmasak. Az olyan területek, mint a tudományos kutatás, a mérnöki szimulációk (pl. számítási folyadékdinamika) és a genomikai feldolgozás, kihasználhatják az ND sorozatú virtuális gépek nagy átviteli sebességű számítási képességeit.

Grafikus renderelés: Az ND-család GPU-jai nagyszerű választássá teszik a grafikusan igényes feladatokat, beleértve a valós idejű animációs és videókészítési renderelést, valamint a virtuális valósági környezetekhez készült, nagy megbízhatóságú szimulációkat.

Távoli vizualizáció: Az ND-családi virtuális gépek az adatigényes feladatok távoli vizualizációjára használhatók, ahol a csúcskategóriás GPU-képességek szükségesek az összetett vizualizációk felhőn keresztüli feldolgozásához és rendereléséhez, megkönnyítve a kevésbé hatékony ügyfélszámítógépek hozzáférését.

Sorozat a családban

ND-sorozat V1

Az ND sorozatú virtuális gépek az AI-hoz és a Deep Learning-számítási feladatokhoz tervezett GPU-család új kiegészítői. Kiváló teljesítményt nyújtanak a betanításhoz és a következtetéshez. Az ND-példányokat NVIDIA Tesla P40 GPU-k és Intel Xeon E5-2690 v4 (Broadwell) processzorok működtetik. Ezek a példányok kiváló teljesítményt nyújtanak az egypontos lebegőpontos műveletekhez, a Microsoft Cognitive Toolkitet, a TensorFlow-t, a Caffe-t és más keretrendszereket használó AI-számítási feladatokhoz. Az ND sorozat jóval nagyobb GPU-memóriával rendelkezik (24 GB), így jelentősen nagyobb neurálishálózat-modellekhez is alkalmazható. Az NC-sorozathoz hasonlóan az ND-sorozat is kínál egy konfigurációt, amely egy másodlagos kis késleltetésű, nagy átviteli sebességű hálózattal rendelkezik az RDMA és az InfiniBand kapcsolaton keresztül, így nagy léptékű betanítási feladatokat futtathat, amelyek több GPU-t is lefednek.

A teljes ND-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 6 – 24 virtuális processzor Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Memory (Memória) 112 - 448 GiB
Helyi tároló 1 Lemez 736 - 2948 GiB
Távoli tárolás 12 –32 lemez 20000 – 80000 IOPS
200 – 800 MBps
Network (Hálózat) 4 – 8 hálózati adapter
Gyorssegédek 1 – 4 GPU Nvidia Tesla P40 GPU (24 GB)

NDv2 sorozat

Az NDv2 sorozatú virtuális gép a GPU-család új kiegészítője, amelyet a legnagyobb igényű GPU-gyorsított AI, gépi tanulás, szimuláció és HPC számítási feladatok igényeinek megfelelően terveztek.

Az NDv2-t 8 NVIDIA Tesla V100 NVLINK-hez csatlakoztatott GPU működteti, mindegyik 32 GB GPU-memóriával rendelkezik. Minden NDv2 virtuális gép 40 nem HyperThreaded Intel Xeon Platinum 8168 (Skylake) maggal és 672 GiB rendszermemóriával rendelkezik.

Az NDv2-példányok kiváló teljesítményt nyújtanak a CUDA GPU-ra optimalizált számítási kerneleket használó HPC- és AI-számítási feladatokhoz, valamint a GPU-gyorsítást támogató számos AI-, ML- és elemzési eszközhöz, mint például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek.

Kritikus fontosságú, hogy az NDv2 számítási szempontból intenzív vertikális felskálázáshoz (virtuális gépenként 8 GPU kihasználása) és vertikális felskálázáshoz (több virtuális gép együttes használata) is használható. Az NDv2 sorozat mostantól támogatja a 100 gigabájtos InfiniBand EDR háttérhálózati hálózatkezelést, hasonlóan a HPC virtuális gépek HB sorozatához, hogy lehetővé tegye a nagy teljesítményű fürtözést párhuzamos forgatókönyvek esetében, beleértve az elosztott betanítást az AI-hez és az ML-hez. Ez a háttérhálózat támogatja az összes főbb InfiniBand-protokollt, beleértve az NVIDIA NCCL2-kódtárai által alkalmazott protokollokat is, lehetővé téve a GPU-k zökkenőmentes fürtözését.

A teljes NDv2-sorozat lapjának megtekintése

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 40 virtuális processzor Intel Xeon Platinum 8168 (Skylake) [x86-64]
Memory (Memória) 672 GiB
Helyi tároló 1 Lemez 2948 GiB
Távoli tárolás 32 Lemezek 80000 IOPS
800 MBps
Network (Hálózat) 8 hálózati adapter 24000 Mb/s
Gyorssegédek Egyik sem

ND_A100_v4-sorozat

Az ND A100 v4 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Ezeket a méreteket a high-end Deep Learning-betanításhoz, valamint a szorosan összekapcsolt vertikális felskálázáshoz és a HPC-számítási feladatok vertikális felskálázásához tervezték.

Az ND A100 v4 sorozat egyetlen virtuális géppel és nyolc NVIDIA Ampere A100 40 GB-os Tensor Core GPU-val kezdődik. Az ND A100 v4-alapú üzemelő példányok akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 1,6 TB/s kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 200 GB/s NVIDIA Mellanox HDR InfiniBand-kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos Azure-beli virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPU Direct RDMA-t.

Minden GPU NVLINK 3.0-kapcsolattal rendelkezik a virtuális gépen belüli kommunikációhoz 96 fizikai 2. generációs AMD Epyc™ 7V12 (Róma) processzormaggal mögöttük.

Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolás számos meglévő AI- és HPC-eszközt támogat, amelyek az NVIDIA NCCL2 kommunikációs kódtáraira épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes ND_A100_v4-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96 virtuális processzor AMD EPYC 7V12 (Róma) [x86-64]
Memory (Memória) 900 GiB
Helyi tároló 1 Lemez 6000 GiB
Távoli tárolás 32 Lemezek 80000 IOPS
800 MBps
Network (Hálózat) 8 hálózati adapter 24000 Mb/s
Gyorssegédek 8 GPU Nvidia A100 GPU (40 GB)

NDm_A100_v4 sorozat

Az NDm A100 v4 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Ezeket a méreteket a high-end Deep Learning-betanításhoz, valamint a szorosan összekapcsolt vertikális felskálázáshoz és a HPC-számítási feladatok vertikális felskálázásához tervezték.

Az NDm A100 v4 sorozat egyetlen virtuális géppel és nyolc NVIDIA Ampere A100 80 GB-os Tensor Core GPU-val kezdődik. Az NDm A100 v4-alapú üzemelő példányok akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 1,6 TB/s kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 200 GB/s NVIDIA Mellanox HDR InfiniBand-kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos Azure-beli virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPU Direct RDMA-t.

Minden GPU NVLINK 3.0-kapcsolattal rendelkezik a virtuális gépen belüli kommunikációhoz 96 fizikai 2. generációs AMD Epyc™ 7V12 (Róma) processzormaggal mögöttük.

Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolás számos meglévő AI- és HPC-eszközt támogat, amelyek az NVIDIA NCCL2 kommunikációs kódtáraira épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes NDm_A100_v4-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96 virtuális processzor AMD EPYC 7V12 (Róma) [x86-64]
Memory (Memória) 1900 GiB
Helyi tároló 1 Lemez 6400 GiB
Távoli tárolás 32 Lemezek 80000 IOPS
800 MBps
Network (Hálózat) 8 hálózati adapter 24000 Mb/s
Gyorssegédek 8 GPU Nvidia A100 GPU (80 GB)

ND_H100_v5-sorozat

Az ND H100 v5 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Ez a sorozat csúcskategóriás mélytanulási betanításokhoz, valamint szorosan összekapcsolt vertikális felskálázáshoz és vertikális felskálázáshoz készült Generatív AI- és HPC-számítási feladatokhoz.

Az ND H100 v5 sorozat egyetlen virtuális géppel és nyolc NVIDIA H100 Tensor Core GPU-val kezdődik. Az ND H100 v5-alapú üzembe helyezések akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 3,2 Tbps kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPU Direct RDMA-t.

Minden GPU NVLINK 4.0 kapcsolatot biztosít a virtuális gépen belüli kommunikációhoz, és a példány 96 fizikai negyedik generációs Intel Xeon méretezhető processzormaggal rendelkezik.

Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolás számos meglévő AI- és HPC-eszközt támogat, amelyek az NVIDIA NCCL kommunikációs kódtáraira épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes ND_H100_v5-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96 virtuális processzor Intel Xeon (Sapphire Rapids) [x86-64]
Memory (Memória) 1900 GiB
Helyi tároló 1 Lemez 28000 GiB
Távoli tárolás 32Disks
Network (Hálózat) 8 hálózati adapter
Gyorssegédek 8 GPU Nvidia H100 GPU (80 GB)

ND_MI300X_v5-sorozat

Az ND MI300X v5 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Csúcskategóriás mélytanulási képzésekhez, valamint szorosan összekapcsolt generatív AI- és HPC-számítási feladatokhoz lett tervezve.

Az ND MI300X v5 sorozatú virtuális gép nyolc AMD Instinct MI300 GPU-val és két negyedik Generációs Intel Xeon skálázható processzorral indul összesen 96 fizikai maghoz. A virtuális gépen belüli gpu-k ezután 4. generációs AMD Infinity Fabric-kapcsolatokon keresztül csatlakoznak egymáshoz, GPU-nként 128 GB/s sávszélességgel és 896 GB/s összesített sávszélességgel.

Az ND MI300X v5-alapú üzemelő példányok akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 3,2 Tb/s kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPUDirect RDMA-t.

Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolás számos meglévő AI- és HPC-eszközt támogat, amelyek az AMD ROCm Communication Collectives Library (RCCL) eszközkészletére épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes ND_MI300X_v5-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96 virtuális processzor Intel Xeon (Sapphire Rapids) [x86-64]
Memory (Memória) 1850 GiB
Helyi tároló 1 Ideiglenes lemez
8 NVMe-lemez
1000 GiB Temp Disk
28000 GiB NVMe-lemezek
Távoli tárolás 32 Lemezek 80000 IOPS
1200 MBps
Network (Hálózat) 8 hálózati adapter
Gyorssegédek 8 GPU AMD Instinct MI300X GPU (192 GB)

Előző generációs ND családi sorozat

A régebbi méretek esetén lásd az előző generációs méreteket.

Egyéb méretinformációk

Az összes elérhető méret listája: Méretek

Díjkalkulátor: Tarifakalkulátor

Információ a lemeztípusokról: Lemeztípusok

Következő lépések

További információ arról, hogyan segíthet az Azure számítási egységek (ACU) az Azure SKU-k számítási teljesítményének összehasonlításában.

Tekintse meg az azure-beli dedikált gazdagépeket azokhoz a fizikai kiszolgálókhoz, amelyeket egy vagy több, egy Azure-előfizetéshez rendelt virtuális gép üzemeltethet.

Megtudhatja, hogyan monitorozhat Azure-beli virtuális gépeket.