Freigeben über


GPU-beschleunigte VM-Größenreihe der „NC“-Unterfamilie

Gilt für: ✔️ Linux-VMs ✔️ Windows-VMs ✔️ Flexible Skalierungsgruppen ✔️ Einheitliche Skalierungsgruppen

Die „NC“-Unterfamilie der VM-Größenreihe ist eine der GPU-optimierten VM-Instanzen von Azure. Sie sind für rechenintensive Workloads konzipiert, z. B. KI- und Machine Learning-Modellschulungen, High Performance Computing (HPC) und grafikintensive Anwendungen. Ausgestattet mit leistungsstarken NVIDIA-Grafikprozessoren bieten die VMs der NC-Serie eine erhebliche Beschleunigung für Prozesse, die eine hohe Rechenleistung erfordern, darunter Deep Learning, wissenschaftliche Simulationen und 3D-Rendering. Dadurch eignen sie sich besonders gut für Branchen wie Technologieforschung, Unterhaltung und Technik, in denen Rendering und Verarbeitungsgeschwindigkeit entscheidend für Produktivität und Innovation sind.

Workloads und Anwendungsfälle

KI und Machine Learning: VMs der NC-Serie sind ideal für das Training komplexer Machine Learning-Modelle und die Ausführung von KI-Anwendungen. Die NVIDIA-GPUs bieten eine erhebliche Beschleunigung für Berechnungen, die typischerweise bei Deep Learning und anderen intensiven Trainingsaufgaben anfallen.

High Performance Computing (HPC): Diese VMs eignen sich für wissenschaftliche Simulationen, Rendering und andere HPC-Workloads, die von GPUs beschleunigt werden können. In Bereichen wie dem Ingenieurwesen, der medizinischen Forschung und der Finanzmodellierung werden häufig VMs der NC-Serie eingesetzt, um ihre Rechenanforderungen effizient zu erfüllen.

Grafikrendering: VMs der NC-Serie werden auch für grafikintensive Anwendungen eingesetzt, darunter Videobearbeitung, 3D-Rendering und Echtzeit-Grafikverarbeitung. Sie sind besonders nützlich in Branchen wie der Spieleentwicklung und Filmproduktion.

Remotevisualisierung: Für Anwendungen, die High-End-Visualisierungsfunktionen erfordern, wie CAD und visuelle Effekte, können die VMs der NC-Serie die erforderliche GPU-Leistung per Fernzugriff bereitstellen, so dass Benutzerinnen und Benutzer an komplexen grafischen Aufgaben arbeiten können, ohne leistungsstarke lokale Hardware zu benötigen.

Simulation und Analyse: Diese VMs eignen sich auch für detaillierte Simulationen und Analysen in Bereichen wie Automobil-Crashtests, Computational Fluid Dynamics und Wettermodellierung, wo GPU-Funktionen die Verarbeitungszeiten erheblich beschleunigen können.

Reihe in Familie

NC-Serie V1

Virtuelle Computer der NC-Serie werden mit der NVIDIA-Grafikkarte Tesla K80 und dem Prozessor Intel Xeon E5-2690 v3 (Haswell) betrieben. Benutzer können Daten schneller verarbeiten, indem sie CUDA für Energieexplorationsanwendungen, Crashsimulationen, Rendering mit Raytracing, Deep Learning und vieles mehr verwenden. Die NC24r-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet.

Die vollständige NC-Reihe Seite anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistung Einheiten, usw.
Prozessor 6–24vCores Intel® Xeon® E5-2690 v3 (Haswell)
Arbeitsspeicher 56–224GiB
Datenträger 24–64Datenträger
Network 1–4NICs
Schnellinfos 1–4GPUs NVIDIA Tesla K80 12GiB
12–48GiB pro VM

NCads_-_H100_v5-series

Die VMs der NCads H100 v5-Serie sind eine neue Ergänzung der Azure GPU-Produktfamilie. Sie können diese Serie für praxisorientierte Azure Applied AI-Trainings- und -Batchrückschluss-Workloads verwenden. Die VMs der NCads H100 v5-Serie werden von NVIDIA H100 NVL GPU- und AMD EPYC™ Genoa-Prozessoren der 4. Generation unterstützt. Die VMs verfügen über bis zu zwei NVIDIA H100 NVL-GPUs mit jeweils 94 GB Arbeitsspeicher, bis zu 96 AMD EPYC Genoa-Prozessorkernen ohne Multithreading und 640 GiB Systemspeicher.

Die vollständige NCads_-_H100_v5-Reihe Seite anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistung Einheiten, usw.
Prozessor 40–80vCores AMD EPYC™ (Genoa)
Arbeitsspeicher 320–640GiB
Datenträger 8–16Datenträger 100000–240000IOPS / 3000–7000MBps
Network 2–4NICs 40000–80000Mbps
Schnellinfos 1–2GPUs NVIDIA H100 NVL 94GiB
94–188GiB pro VM

NCv2-Serie

NCv2-Serien-VMs werden mit NVIDIA Tesla P100-GPUs betrieben. Im Vergleich zur NC-Serie können diese GPUs eine mehr als doppelte Rechenleistung erzielen. Kunden können diese neuen GPUs für herkömmliche HPC-Workloads wie Modellierung von Lagerstätten, DNA-Sequenzierung, Proteinanalysen, Monte Carlo-Simulationen und Ähnliches nutzen. Zusätzlich zu den GPUs werden virtuelle Computer der NCv2-Serie mit Intel Xeon E5-2690 v4-CPUs (Broadwell) betrieben. Die NC24rs v2-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet.

Die vollständige Seite der NCv2-Reihe anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistung Einheiten, usw.
Prozessor 6–24vCores Intel® Xeon® E5-2690 v4 (Broadwell)
Arbeitsspeicher 112–448GiB
Datenträger 12–32Datenträger 20000–80000IOPS / 200–800MBps
Network 4–8 NICs
Schnellinfos 1–4GPUs NVIDIA Tesla P100 16GiB
16–64GiB pro VM

NCv3-Serie

NCv3-Serien-VMs werden mit NVIDIA Tesla V100-GPUs betrieben. Diese GPUs können eine 1,5-mal so hohe Rechenleistung erzielen wie die NCv2-Serie. Kunden können diese neuen GPUs für herkömmliche HPC-Workloads wie Modellierung von Lagerstätten, DNA-Sequenzierung, Proteinanalysen, Monte Carlo-Simulationen und Ähnliches nutzen. Die NC24rs v3-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet. Zusätzlich zu den GPUs werden virtuelle Computer der NCv3-Serie mit Intel Xeon E5-2690 v4-CPUs (Broadwell) betrieben.

Die vollständige Seite der NCv3-Reihe anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistung Einheiten, usw.
Prozessor 6–24vCores Intel® Xeon® E5-2690 v4 (Broadwell)
Arbeitsspeicher 112–448GiB
Datenträger 12–32Datenträger 20000–80000IOPS / 200–800MBps
Network 4–8 NICs
Schnellinfos 1–4 GPUs NVIDIA Tesla V100 16GiB
16–64GiB pro VM

NCasT4_v3-Serie

Die virtuellen Computer der NCasT4_v3-Serie basieren auf GPUs vom Typ Nvidia Tesla T4 sowie auf CPUs vom Typ AMD EPYC 7V12(Rome). Die VMs verfügen über bis zu 4 NVIDIA T4-GPUs mit jeweils 16 GB Arbeitsspeicher, bis zu 64 AMD EPYC 7V12(Rome)-Prozessorkerne ohne Multithreading (Basisfrequenz von 2,45 GHz, Spitzenfrequenz aller Kerne von 3,1 GHz und Spitzenfrequenz von 3,3 GHz für einzelne Kerne) und 440 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für das Bereitstellen von KI-Diensten wie Rückschlüsse in Echtzeit im Zusammenhang mit vom Benutzer generierten Anforderungen oder für interaktive Grafiken und Visualisierungsworkloads mit dem GRID-Treiber und der vGPU-Technologie von NVIDIA. GPU-Standardcomputeworkloads, die auf CUDA, TensorRT, Caffe, ONNX und anderen Frameworks basieren, oder auf OpenGL und DirectX basierende GPU-beschleunigte grafische Anwendungen können in der NCasT4_v3-Reihe wirtschaftlich und in unmittelbarer Nähe zu den Benutzern bereitgestellt werden.

Die vollständige Seite der NCasT4_v3-Reihe anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistung Einheiten, usw.
Prozessor 4–64vCores AMD EPYC™ 7V12 (Rome)
Arbeitsspeicher 28–440GiB
Datenträger 8–32Datenträger 20000–80000IOPS / 200–800MBps
Network 2–8 NICs 8000–32000Mbps
Schnellinfos 1–4GPUs NVIDIA Tesla T4 16GiB
16–64GiB pro VM

NC_A100_v4-series

Der virtuelle Computer der NC A100 v4-Serie ist eine neue Ergänzung der Azure-GPU-Familie. Sie können diese Serie für praxisorientierte Azure Applied AI-Trainings- und -Batchrückschluss-Workloads verwenden. Die NC A100 v4-Serie wird von NVIDIA A100 PCIe-GPU- und AMD EPYC™ 7V13 (Milan)-Prozessoren der dritten Generation unterstützt. Die VMs verfügen über bis zu 4 NVIDIA A100 PCIe-GPUs mit jeweils 80 GB Arbeitsspeicher, bis zu 96 AMD EPYC Milan-Prozessorkernen ohne Multithreading und 880 GiB Systemspeicher.

Die vollständige NC_A100_v4-Reihe-Seite anzeigen.

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistung Einheiten, usw.
Prozessor 24–96vCores EPYC™ 7V13 (Milan)
Arbeitsspeicher 220–880GiB
Datenträger 8–32Datenträger 30000–120000IOPS / 1000–4000MBps
Network 2–8 NICs 20000–80000Mbps
Schnellinfos 1–4GPUs NVIDIA A100 (PCIe) 80GiB
80–320GiB pro VM

Serien der NC-Familie der vorherigen Generation

Ältere Größen finden Sie unter Größen der vorherigen Generation.

Andere Größeninformationen

Liste aller verfügbaren Größen: Größen

Preisrechner: Preisrechner

Informationen zu Datenträgertypen: Datenträgertypen

Nächste Schritte

Weitere Informationen dazu, wie Sie mit Azure-Computeeinheiten (ACU) die Computeleistung von Azure-SKUs vergleichen können.

Azure Dedicated Host stellt physische Server bereit, auf denen einem Azure-Abonnement zugewiesene VMs (Virtual Machines, virtuelle Computer) gehostet werden können.

Weitere Informationen finden Sie unter Überwachen von Azure-VMs.