GPU-beschleunigte VM-Größenreihe der „NC“-Unterfamilie
Gilt für: ✔️ Linux-VMs ✔️ Windows-VMs ✔️ Flexible Skalierungsgruppen ✔️ Einheitliche Skalierungsgruppen
Die „NC“-Unterfamilie der VM-Größenreihe ist eine der GPU-optimierten VM-Instanzen von Azure. Sie sind für rechenintensive Workloads konzipiert, z. B. KI- und Machine Learning-Modellschulungen, High Performance Computing (HPC) und grafikintensive Anwendungen. Ausgestattet mit leistungsstarken NVIDIA-Grafikprozessoren bieten die VMs der NC-Serie eine erhebliche Beschleunigung für Prozesse, die eine hohe Rechenleistung erfordern, darunter Deep Learning, wissenschaftliche Simulationen und 3D-Rendering. Dadurch eignen sie sich besonders gut für Branchen wie Technologieforschung, Unterhaltung und Technik, in denen Rendering und Verarbeitungsgeschwindigkeit entscheidend für Produktivität und Innovation sind.
Workloads und Anwendungsfälle
KI und Machine Learning: VMs der NC-Serie sind ideal für das Training komplexer Machine Learning-Modelle und die Ausführung von KI-Anwendungen. Die NVIDIA-GPUs bieten eine erhebliche Beschleunigung für Berechnungen, die typischerweise bei Deep Learning und anderen intensiven Trainingsaufgaben anfallen.
High Performance Computing (HPC): Diese VMs eignen sich für wissenschaftliche Simulationen, Rendering und andere HPC-Workloads, die von GPUs beschleunigt werden können. In Bereichen wie dem Ingenieurwesen, der medizinischen Forschung und der Finanzmodellierung werden häufig VMs der NC-Serie eingesetzt, um ihre Rechenanforderungen effizient zu erfüllen.
Grafikrendering: VMs der NC-Serie werden auch für grafikintensive Anwendungen eingesetzt, darunter Videobearbeitung, 3D-Rendering und Echtzeit-Grafikverarbeitung. Sie sind besonders nützlich in Branchen wie der Spieleentwicklung und Filmproduktion.
Remotevisualisierung: Für Anwendungen, die High-End-Visualisierungsfunktionen erfordern, wie CAD und visuelle Effekte, können die VMs der NC-Serie die erforderliche GPU-Leistung per Fernzugriff bereitstellen, so dass Benutzerinnen und Benutzer an komplexen grafischen Aufgaben arbeiten können, ohne leistungsstarke lokale Hardware zu benötigen.
Simulation und Analyse: Diese VMs eignen sich auch für detaillierte Simulationen und Analysen in Bereichen wie Automobil-Crashtests, Computational Fluid Dynamics und Wettermodellierung, wo GPU-Funktionen die Verarbeitungszeiten erheblich beschleunigen können.
Reihe in Familie
NC-Serie V1
Wichtig
Azure-VMs der NC- und NC_Promo-Serie werden am 6. September 2023 eingestellt. Weitere Informationen dazu finden Sie in den Informationen zur Einstellung von NC und NC_Promo. Informationen zum Migrieren Ihrer Workloads zu anderen VM-Größen finden Sie in der Migrationsanleitung für GPU Compute.
Diese Einstellungsankündigung gilt nicht für die VMs der Serien NCv3, NCasT4v3 und NC A100 v4.
Virtuelle Computer der NC-Serie werden mit der NVIDIA-Grafikkarte Tesla K80 und dem Prozessor Intel Xeon E5-2690 v3 (Haswell) betrieben. Benutzer können Daten schneller verarbeiten, indem sie CUDA für Energieexplorationsanwendungen, Crashsimulationen, Rendering mit Raytracing, Deep Learning und vieles mehr verwenden. Die NC24r-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet.
Die vollständige NC-Reihe Seite anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 6–24 vCPUs | Intel Xeon E5-2690 v3 (Haswell) [x86-64] |
Arbeitsspeicher | 56–224 GiB | |
Lokaler Speicher | 1 Datenträger | 340–1440 GiB |
Remotespeicher | 24–64 Datenträger | |
Network | 1–4 NICs | MBit/s |
Schnellinfos | 1–4 GPUs | Nvidia Tesla K80-GPU (24 GB) |
NCads_H100_v5-Serie
Die VMs der NCads H100 v5-Serie sind eine neue Ergänzung der Azure GPU-Produktfamilie. Sie können diese Serie für praxisorientierte Azure Applied AI-Trainings- und -Batchrückschluss-Workloads verwenden. Die VMs der NCads H100 v5-Serie werden von NVIDIA H100 NVL GPU- und AMD EPYC™ Genoa-Prozessoren der 4. Generation unterstützt. Die VMs verfügen über bis zu zwei NVIDIA H100 NVL-GPUs mit jeweils 94 GB Arbeitsspeicher, bis zu 96 AMD EPYC Genoa-Prozessorkernen ohne Multithreading und 640 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für praxisorientierte Applied AI-Workloads, z. B.:
- GPU-beschleunigte Analysen und Datenbanken
- Batchrückschließen mit hoher Vor- und Nachverarbeitung
- Autonomiemodelltraining
- Simulation für Öl- und Gasvorkommen
- Machine Learning-Entwicklung (ML)
- Videoverarbeitung
- KI/ML-Webdienste
Die vollständige Seite der NCads_H100_v5-Serie anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 40–80 vCPUs | AMD EPYC (Genoa) [x86-64] |
Arbeitsspeicher | 320–640 GiB | |
Lokaler Speicher | 1 Datenträger | 3.576–7.152 GiB IOPS (RR) MBit/s (RR) |
Remotespeicher | 8–16 Datenträger | 100.000–240.000 IOPS 3.000–7.000 MBit/s |
Network | 2–4 NICs | 40.000–80.000 MBit/s |
Schnellinfos | 1–2 GPUs | Nvidia PCIe H100-GPU (80 GB) |
NCCads_H100_v5-Serie
Die VMs der NCCads H100 v5-Serie sind eine neue Ergänzung der Azure GPU-Produktfamilie. In dieser VM-SKU umfasst Trusted Execution Environment (TEE) vertrauliche VMs auf der CPU und auf angefügten GPUs, sodass sicheres Auslagern von Daten, Modellen und Berechnungen an die GPU ermöglicht wird. Die NCads H100 v5-Serie wird von AMD EPYC™ Genoa-Prozessoren der 4. Generation und NVIDIA H100 Tensor Core GPU unterstützt. Diese VMs verfügen über eine NVIDIA H100 NVL-GPU mit 94 GB Arbeitsspeicher, 40 AMD EPYC Genoa-Prozessorkernen ohne Multithreading und 320 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für praxisorientierte Applied AI-Workloads, z. B.:
- GPU-beschleunigte Analysen und Datenbanken
- Batchrückschließen mit hoher Vor- und Nachverarbeitung
- Machine Learning-Entwicklung (ML)
- Videoverarbeitung
- KI/ML-Webdienste
Die vollständige Seite der NCCads_H100_v5-Serie anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 40 vCPUs | AMD EPYC (Genoa) [x86-64] |
Arbeitsspeicher | 320 GiB | |
Lokaler Speicher | 1 Datenträger | 800 GiB |
Remotespeicher | 8 Datenträger | 100.000 IOPs 3.000 MBit/s |
Network | 2 NICs | 40.000 MBit/s |
Schnellinfos | 1 GPU | Nvidia H100-GPU (94 GB) |
NCv2-Serie
Wichtig
Die Azure-VMs der NCv2-Serie werden am 6. September 2023 eingestellt. Weitere Informationen dazu finden Sie in den Informationen zur Einstellung von NCv2. Informationen zum Migrieren Ihrer Workloads zu anderen VM-Größen finden Sie in der Migrationsanleitung für GPU Compute.
Diese Einstellungsankündigung gilt nicht für die VMs der Serien NCv3, NCasT4v3 und NC A100 v4.
NCv2-Serien-VMs werden mit NVIDIA Tesla P100-GPUs betrieben. Im Vergleich zur NC-Serie können diese GPUs eine mehr als doppelte Rechenleistung erzielen. Kunden können diese neuen GPUs für herkömmliche HPC-Workloads wie Modellierung von Lagerstätten, DNA-Sequenzierung, Proteinanalysen, Monte Carlo-Simulationen und Ähnliches nutzen. Zusätzlich zu den GPUs werden virtuelle Computer der NCv2-Serie mit Intel Xeon E5-2690 v4-CPUs (Broadwell) betrieben. Die NC24rs v2-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet.
Die vollständige Seite der NCv2-Reihe anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 6–24 vCPUs | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Arbeitsspeicher | 112–448 GiB | |
Lokaler Speicher | 1 Datenträger | 736–2948 GiB |
Remotespeicher | 12–32 Datenträger | 20.000–80.000 IOPS 200–800 MBit/s |
Network | 4–8 NICs | |
Schnellinfos | 1–4 GPUs | Nvidia Tesla P100-GPU (16 GB) |
NCv3-Serie
NCv3-Serien-VMs werden mit NVIDIA Tesla V100-GPUs betrieben. Diese GPUs können eine 1,5-mal so hohe Rechenleistung erzielen wie die NCv2-Serie. Kunden können diese neuen GPUs für herkömmliche HPC-Workloads wie Modellierung von Lagerstätten, DNA-Sequenzierung, Proteinanalysen, Monte Carlo-Simulationen und Ähnliches nutzen. Die NC24rs v3-Konfiguration bietet eine Netzwerkschnittstelle mit geringer Wartezeit und hohem Durchsatz, die sich ideal für die Verarbeitung eng gekoppelter paralleler Computingworkloads eignet. Zusätzlich zu den GPUs werden virtuelle Computer der NCv3-Serie mit Intel Xeon E5-2690 v4-CPUs (Broadwell) betrieben.
Wichtig
Für diese VM-Serie ist das vCPU-Kontingent (Kernkontingent) in Ihrem Abonnement anfänglich in jeder Region auf 0 festgelegt. Sie können für diese Serie in einer verfügbaren Region eine Anhebung des vCPU-Kontingents anfordern. Diese SKUs sind nicht für Test- oder Azure-Abonnements von Visual Studio-Abonnenten verfügbar. Ihre Abonnementebene unterstützt möglicherweise nicht die Auswahl oder Bereitstellung dieser SKUs.
Die vollständige Seite der NCv3-Reihe anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 6–24 vCPUs | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Arbeitsspeicher | 112–448 GiB | |
Lokaler Speicher | 1 Datenträger | 736–2.948 GiB IOPS (RR) MBit/s (RR) |
Remotespeicher | 12–32 Datenträger | 20.000–80.000 IOPS 200–800 MBit/s |
Network | 4–8 NICs | MBit/s |
Schnellinfos | 1– 4 | Nvidia Tesla V100-GPU (16 GB) |
NCasT4_v3-Serie
Die virtuellen Computer der NCasT4_v3-Serie basieren auf GPUs vom Typ Nvidia Tesla T4 sowie auf CPUs vom Typ AMD EPYC 7V12(Rome). Die VMs verfügen über bis zu 4 NVIDIA T4-GPUs mit jeweils 16 GB Arbeitsspeicher, bis zu 64 AMD EPYC 7V12(Rome)-Prozessorkerne ohne Multithreading (Basisfrequenz von 2,45 GHz, Spitzenfrequenz aller Kerne von 3,1 GHz und Spitzenfrequenz von 3,3 GHz für einzelne Kerne) und 440 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für das Bereitstellen von KI-Diensten wie Rückschlüsse in Echtzeit im Zusammenhang mit vom Benutzer generierten Anforderungen oder für interaktive Grafiken und Visualisierungsworkloads mit dem GRID-Treiber und der vGPU-Technologie von NVIDIA. GPU-Standardcomputeworkloads, die auf CUDA, TensorRT, Caffe, ONNX und anderen Frameworks basieren, oder auf OpenGL und DirectX basierende GPU-beschleunigte grafische Anwendungen können in der NCasT4_v3-Reihe wirtschaftlich und in unmittelbarer Nähe zu den Benutzern bereitgestellt werden.
Die vollständige Seite der NCasT4_v3-Reihe anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 4–64 vCPUs | AMD EPYC 7V12 (Rome) [x86-64] |
Arbeitsspeicher | 28–440 GiB | |
Lokaler Speicher | 1 Datenträger | 176–2.816 GiB IOPS (RR) MBit/s (RR) |
Remotespeicher | 8–32 Datenträger | IOPS MBit/s |
Network | 2–8 NICs | 8.000–32.000 MBit/s |
Schnellinfos | 1–4 GPUs | Nvidia Tesla T4-GPU (16 GB) |
NC_A100_v4-series
Der virtuelle Computer der NC A100 v4-Serie ist eine neue Ergänzung der Azure-GPU-Familie. Sie können diese Serie für praxisorientierte Azure Applied AI-Trainings- und -Batchrückschluss-Workloads verwenden. Die NC A100 v4-Serie wird von NVIDIA A100 PCIe-GPU- und AMD EPYC™ 7V13 (Milan)-Prozessoren der dritten Generation unterstützt. Die VMs verfügen über bis zu 4 NVIDIA A100 PCIe-GPUs mit jeweils 80 GB Arbeitsspeicher, bis zu 96 AMD EPYC Milan-Prozessorkernen ohne Multithreading und 880 GiB Systemspeicher. Diese virtuellen Computer eignen sich ideal für praxisorientierte Applied AI-Workloads, z. B.:
GPU-beschleunigte Analysen und Datenbanken, Stapelrückschlüsse mit umfangreichem Vor- und Nachverarbeitung, Autonomiemodelltraining, Öl- und Gasreservoirsimulation, ML-Entwicklung (maschinelles Lernen), Videoverarbeitung, KI/ML-Webdienste
Die vollständige NC_A100_v4-Reihe-Seite anzeigen.
Teil | Menge Anzahl Einheiten |
Spezifikationen SKU-ID, Leistungseinheiten usw. |
---|---|---|
Prozessor | 24–96 vCPUs | AMD EPYC 7V13 (Milan) [x86-64] |
Arbeitsspeicher | 220–880 GiB | |
Lokaler Speicher | 1 temporärer Datenträger 1–4 NVMe-Datenträger |
Temporärer Datenträger mit 64–256 GiB NVMe-Datenträger mit 960 GiB |
Remotespeicher | 8–32 Datenträger | 30.000–120.000 IOPS 1.000–4.000 MBit/s |
Network | 2–8 NICs | 20.000–80.000 MBit/s |
Schnellinfos | 1–4 GPUs | Nvidia PCIe A100 GPU (80 GB) |
Serien der NC-Familie der vorherigen Generation
Ältere Größen finden Sie unter Größen der vorherigen Generation.
Andere Größeninformationen
Liste aller verfügbaren Größen: Größen
Preisrechner: Preisrechner
Informationen zu Datenträgertypen: Datenträgertypen
Nächste Schritte
Weitere Informationen dazu, wie Sie mit Azure-Computeeinheiten (ACU) die Computeleistung von Azure-SKUs vergleichen können.
Azure Dedicated Host stellt physische Server bereit, auf denen einem Azure-Abonnement zugewiesene VMs (Virtual Machines, virtuelle Computer) gehostet werden können.
Weitere Informationen finden Sie unter Überwachen von Azure-VMs.