Megosztás a következőn keresztül:


"ND" alcsaládú GPU gyorsított virtuálisgép-méretsorozat

A következőkre vonatkozik: ✔️ Linux rendszerű virtuális gépek ✔️ Windows rendszerű virtuális gépek Rugalmas méretezési ✔️ csoportok ✔️ Egységes méretezési csoportok

A virtuálisgép-méretsorozatok ND-családja az Azure GPU-gyorsított virtuálisgép-példányai közé tartozik. Mélytanulásra, AI-kutatásra és nagy teljesítményű számítási feladatokra tervezték, amelyek kihasználják az erőteljes GPU-gyorsítás előnyeit. Az NVIDIA GPU-kkal felszerelt ND-sorozatú virtuális gépek speciális képességeket kínálnak az összetett gépi tanulási modellek betanításához és következtetéséhez, elősegítve a gyorsabb számításokat és a nagy adathalmazok hatékony kezelését. Ez különösen alkalmassá teszi őket az AI-fejlesztés és -szimuláció tudományos és kereskedelmi alkalmazásai számára, ahol az élvonalbeli GPU-technológia kulcsfontosságú a neurális hálózati feldolgozás és más számítási szempontból intenzív feladatok gyors és pontos eredményeinek eléréséhez.

Számítási feladatok és használati esetek

Mi és mély tanulás: Az ND-családi virtuális gépek ideálisak összetett mélytanulási modellek betanításához és üzembe helyezéséhez. A nagy teljesítményű NVIDIA GPU-kkal felszerelt eszközök nagy adathalmazokkal biztosítják a nagy mennyiségű neurális hálózati betanítás kezeléséhez szükséges számítási teljesítményt, jelentősen csökkentve a betanítási időt.

Nagy teljesítményű számítástechnika (HPC): Az ND-családi virtuális gépek gpu-gyorsítást igénylő HPC-alkalmazásokhoz alkalmasak. Az olyan területek, mint a tudományos kutatás, a mérnöki szimulációk (pl. számítási folyadékdinamika) és a genomikai feldolgozás, kihasználhatják az ND sorozatú virtuális gépek nagy átviteli sebességű számítási képességeit.

Grafikus renderelés: Az ND-család GPU-jai nagyszerű választássá teszik a grafikusan igényes feladatokat, beleértve a valós idejű animációs és videókészítési renderelést, valamint a virtuális valósági környezetekhez készült, nagy megbízhatóságú szimulációkat.

Távoli vizualizáció: Az ND-családi virtuális gépek az adatigényes feladatok távoli vizualizációjára használhatók, ahol a csúcskategóriás GPU-képességek szükségesek az összetett vizualizációk felhőn keresztüli feldolgozásához és rendereléséhez, megkönnyítve a kevésbé hatékony ügyfélszámítógépek hozzáférését.

Sorozat a családban

ND-sorozat V1

Az ND sorozatú virtuális gépek az AI-hoz és a Deep Learning-számítási feladatokhoz tervezett GPU-család új kiegészítői. Kiváló teljesítményt nyújtanak a betanításhoz és a következtetéshez. Az ND-példányokat NVIDIA Tesla P40 GPU-k és Intel Xeon E5-2690 v4 (Broadwell) processzorok működtetik. Ezek a példányok kiváló teljesítményt nyújtanak az egypontos lebegőpontos műveletekhez, a Microsoft Cognitive Toolkitet, a TensorFlow-t, a Caffe-t és más keretrendszereket használó AI-számítási feladatokhoz. Az ND sorozat jóval nagyobb GPU-memóriával rendelkezik (24 GB), így jelentősen nagyobb neurálishálózat-modellekhez is alkalmazható. Az NC-sorozathoz hasonlóan az ND-sorozat is kínál egy konfigurációt, amely egy másodlagos kis késleltetésű, nagy átviteli sebességű hálózattal rendelkezik az RDMA és az InfiniBand kapcsolaton keresztül, így nagy léptékű betanítási feladatokat futtathat, amelyek több GPU-t is lefednek.

A teljes ND-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 6 – 24virtuális mag Intel® Xeon® E5-2690 v4 (Broadwell)
Memory (Memória) 112 - 448GiB
Adatlemezek 12 –32lemez 20000 - 80000IOPS / 200 - 800MBps
Network (Hálózat) 4 – 8hálózati adapter
Gyorssegédek 1 – 4GPU NVIDIA Tesla P40 24GiB
24 –96GiB virtuális gépenként

NDv2 sorozat

Az NDv2 sorozatú virtuális gép a GPU-család új kiegészítője, amelyet a legnagyobb igényű GPU-gyorsított AI, gépi tanulás, szimuláció és HPC számítási feladatok igényeinek megfelelően terveztek. Az NDv2-t 8 NVIDIA Tesla V100 NVLINK-hez csatlakoztatott GPU működteti, mindegyik 32 GB GPU-memóriával rendelkezik. Minden NDv2 virtuális gép 40 nem HyperThreaded Intel Xeon Platinum 8168 (Skylake) maggal és 672 GiB rendszermemóriával rendelkezik. Az NDv2-példányok kiváló teljesítményt nyújtanak a CUDA GPU-ra optimalizált számítási kerneleket használó HPC- és AI-számítási feladatokhoz, valamint a GPU-gyorsítást támogató számos AI-, ML- és elemzési eszközhöz, mint például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek. Kritikus fontosságú, hogy az NDv2 számítási szempontból intenzív vertikális felskálázáshoz (virtuális gépenként 8 GPU kihasználása) és vertikális felskálázáshoz (több virtuális gép együttes használata) is használható. Az NDv2 sorozat mostantól támogatja a 100 gigabájtos InfiniBand EDR háttérhálózati hálózatkezelést, hasonlóan a HPC virtuális gépek HB sorozatához, hogy lehetővé tegye a nagy teljesítményű fürtözést párhuzamos forgatókönyvek esetében, beleértve az elosztott betanítást az AI-hez és az ML-hez. Ez a háttérhálózat támogatja az összes főbb InfiniBand-protokollt, beleértve az NVIDIA NCCL2-kódtárai által alkalmazott protokollokat is, lehetővé téve a GPU-k zökkenőmentes fürtözését.

A teljes NDv2-sorozat lapjának megtekintése

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 40virtuális mag Intel® Xeon® Platinum 8168 (Skylake)
Memory (Memória) 672GiB
Adatlemezek 32Lemezek 80000IOPS / 800MBps
Network (Hálózat) 8hálózati adapter 24000Mb/s
Gyorssegédek 8GPU NVIDIA V100 (NVLink) 32GiB
256GiB virtuális gépenként

ND_A100_v4-sorozat

Az ND A100 v4 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Csúcskategóriás mélytanulási képzésekhez, valamint szorosan összekapcsolt vertikális felskálázáshoz és a HPC számítási feladatok vertikális felskálázásához lett tervezve. Az ND A100 v4 sorozat egyetlen virtuális géppel és nyolc NVIDIA Ampere A100 40 GB-os Tensor Core GPU-val kezdődik. Az ND A100 v4-alapú üzemelő példányok akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 1,6 TB/s kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 200 GB/s NVIDIA Mellanox HDR InfiniBand-kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPUDirect RDMA-t. Minden GPU NVLINK 3.0 kapcsolatot biztosít a virtuális gépen belüli kommunikációhoz, a példányt pedig 96 fizikai 2. generációs AMD Epyc™ 7V12 (Róma) CPU-magok biztosítják. Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolást számos meglévő AI- és HPC-eszköz támogatja, amelyek az NVIDIA NCCL2 kommunikációs kódtáraira épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes ND_A100_v4-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96virtuális mag AMD Epyc™ 7V12 (Róma)
Memory (Memória) 900GiB
Adatlemezek 32Lemezek 80000IOPS / 800MBps
Network (Hálózat) 8 hálózati adapter 24000Mb/s
Gyorssegédek 8GPU NVIDIA A100 (NVLink) 40GiB
Virtuális gépenként 320GiB

NDm_A100_v4 sorozat

Az NDm A100 v4 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Csúcskategóriás mélytanulási képzésekhez, valamint szorosan összekapcsolt vertikális felskálázáshoz és a HPC számítási feladatok vertikális felskálázásához lett tervezve. Az NDm A100 v4 sorozat egyetlen virtuális géppel és nyolc NVIDIA Ampere A100 80 GB-os Tensor Core GPU-val kezdődik. Az NDm A100 v4-alapú üzemelő példányok akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 1,6 TB/s kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 200 GB/s NVIDIA Mellanox HDR InfiniBand-kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPUDirect RDMA-t. Minden GPU NVLINK 3.0 kapcsolatot biztosít a virtuális gépen belüli kommunikációhoz, a példányt pedig 96 fizikai 2. generációs AMD Epyc™ 7V12 (Róma) CPU-magok biztosítják. Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolást számos meglévő AI- és HPC-eszköz támogatja, amelyek az NVIDIA NCCL2 kommunikációs kódtáraira épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes NDm_A100_v4-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96virtuális mag AMD Epyc™ 7V12 (Róma)
Memory (Memória) 900GiB
Adatlemezek 32Lemezek 80000IOPS / 800MBps
Network (Hálózat) 8hálózati adapter 24000Mb/s
Gyorssegédek 8GPU NVIDIA A100 (NVLink) 80GiB
640GiB virtuális gépenként

ND_H100_v5-sorozat

Az ND H100 v5 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Csúcskategóriás mélytanulási képzésekhez, valamint szorosan összekapcsolt vertikális felskálázáshoz és vertikális felskálázáshoz készült Generatív AI- és HPC-számítási feladatokhoz. Az ND H100 v5 sorozat egyetlen virtuális géppel és nyolc NVIDIA H100 Tensor Core GPU-val kezdődik. Az ND H100 v5-alapú üzembe helyezések akár több ezer GPU-ra is skálázhatók 3,2 Tb/s kapcsolati sávszélességgel virtuális gépenként. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPUDirect RDMA-t. Minden GPU NVLINK 4.0 kapcsolatot biztosít a virtuális gépen belüli kommunikációhoz, a példányt pedig 96 fizikai 4. generációs Intel Xeon skálázható processzormagok biztosítják. Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch, a Caffe, a RAPIDS és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolást számos meglévő AI- és HPC-eszköz támogatja, amelyek az NVIDIA NCCL kommunikációs kódtáraira épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes ND_H100_v5-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96virtuális mag Intel® Xeon® skálázható (Sapphire Rapids)
Memory (Memória) 1900GiB
Adatlemezek 32Lemezek 40800IOPS / 612MBps
Network (Hálózat) 8hálózati adapter 80000Mb/s
Gyorssegédek 8GPU NVIDIA H100 (NVLink) 80GiB
640GiB virtuális gépenként

ND_MI300X_v5-sorozat

Az ND MI300X v5 sorozatú virtuális gép (VM) az Azure GPU-család új zászlóshajója. Csúcskategóriás mélytanulási képzésekhez, valamint szorosan összekapcsolt generatív AI- és HPC-számítási feladatokhoz lett tervezve.

Az ND MI300X v5 sorozatú virtuális gép nyolc AMD Instinct MI300 GPU-val és két negyedik Generációs Intel Xeon skálázható processzorral indul összesen 96 fizikai maghoz. A virtuális gépen belüli gpu-k ezután 4. generációs AMD Infinity Fabric-kapcsolatokon keresztül csatlakoznak egymáshoz, GPU-nként 128 GB/s sávszélességgel és 896 GB/s összesített sávszélességgel.

Az ND MI300X v5-alapú üzemelő példányok akár több ezer GPU-ra is felskálázhatók, virtuális gépenként 3,2 Tb/s kapcsolati sávszélességgel. A virtuális gépen belül minden GPU saját dedikált, topológia-agnosztikus 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand kapcsolattal rendelkezik. Ezek a kapcsolatok automatikusan konfigurálva vannak az azonos virtuálisgép-méretezési csoportot használó virtuális gépek között, és támogatják a GPUDirect RDMA-t.

Ezek a példányok kiváló teljesítményt nyújtanak számos olyan AI-, ML- és elemzési eszközhöz, amelyek támogatják a GPU-gyorsítást a "házon kívül", például a TensorFlow, a Pytorch és más keretrendszerek esetében. Emellett a kibővített InfiniBand-összekapcsolás számos meglévő AI- és HPC-eszközt támogat, amelyek az AMD ROCm Communication Collectives Library (RCCL) eszközkészletére épülnek a GPU-k zökkenőmentes fürtözése érdekében.

A teljes ND_MI300X_v5-sorozat oldalának megtekintése.

Rész Mennyiség
Egységek száma
Szemüveg
Termékváltozat azonosítója, teljesítményegységek stb.
Adatfeldolgozó 96 virtuális mag Intel® Xeon® skálázható (Sapphire Rapids)
Memory (Memória) 1850 GiB
Helyi tároló 1 Lemez 1000 GiB
Távoli lemezek 32 Lemezek 40800 IOPS
612 MBps
Network (Hálózat) 8 hálózati adapter 80000 Mb/s
Gyorssegédek 8 GPU AMD MI300X 192 GiB
1535 GiB virtuális gépenként

Előző generációs ND családi sorozat

A régebbi méretek esetén lásd az előző generációs méreteket.

Egyéb méretinformációk

Az összes elérhető méret listája: Méretek

Díjkalkulátor: Tarifakalkulátor

Információ a lemeztípusokról: Lemeztípusok

Következő lépések

További információ arról, hogyan segíthet az Azure számítási egységek (ACU) az Azure SKU-k számítási teljesítményének összehasonlításában.

Tekintse meg az azure-beli dedikált gazdagépeket azokhoz a fizikai kiszolgálókhoz, amelyeket egy vagy több, egy Azure-előfizetéshez rendelt virtuális gép üzemeltethet.

Megtudhatja, hogyan monitorozhat Azure-beli virtuális gépeket.