Freigeben über


ND GB200-v6-Größenreihe

Der virtuelle Computer der ND-GB200-v6-Serie (VM) ist ein Flaggschiff der Azure GPU-Familie und bietet eine unerreichte Leistung für Deep Learning-Schulungen, generative KI- und HPC-Workloads. Diese VMs nutzen die NVIDIA GB200 Tensor Core GPUs, die auf der Blackwell-Architektur basieren, die erhebliche Fortschritte bei Rechenleistung, Speicherbandbreite und Skalierbarkeit über frühere Generationen bietet. Jede VM ND-GB200-v6 wird von zwei NVIDIA Grace CPUs und vier NVIDIA Blackwell GPUs unterstützt. Die GPUs sind über NVLink der fünften Generation miteinander verbunden und bieten insgesamt 4× 1,8 TB/s NVLink-Bandbreite pro VM. Diese robuste Scale-up-Verbindung ermöglicht eine nahtlose, schnelle Kommunikation zwischen GPUs innerhalb der VM. Darüber hinaus bietet die VM ein skaliertes Backend-Netzwerk mit 4× 400 GB/s NVIDIA Quantum-2 CX7 InfiniBand-Verbindungen pro VM, was einen hohen Durchsatz und eine niedrige Latenz bei der Kommunikation beim Verbinden mehrerer VMs sicherstellt. NVIDIA GB200 NVL72 verbindet bis zu 72 GPUs pro Rack, sodass das System als einzelner Computer ausgeführt werden kann. Dieses 72-GPU-Rack-Skalierungssystem besteht aus Gruppen von 18 ND GB200 v6 VMs, die bis zu 1,4 Exa-FLOPS FP4-Tensor-Core-Durchsatz, 13,5 TB gemeinsam genutzten Hochgeschwindigkeits-Arbeitsspeicher, 130 TB/s NVLINK-Bandbreite über Querschnitt und 28,8 Tb/s Scale-Out-Netzwerkleistung bereitstellen.

Mit 128 vCPUs pro VM, die das Gesamtsystem unterstützen, ist die Architektur optimiert, um Workloads und Speicheranforderungen für KI- und wissenschaftliche Anwendungen effizient zu verteilen. Dieses Design ermöglicht eine nahtlose Multi-GPU-Skalierung und eine robuste Handhabung großer Modelle. Diese Instanzen bieten eine erstklassige Leistung für AI-, ML- und Analyseworkloads mit out-of-the-box-Unterstützung für Frameworks wie TensorFlow, PyTorch, JAX, RAPIDS und vieles mehr. Die skalierte InfiniBand-Verbindung ist für vorhandene KI- und HPC-Tools optimiert, die auf DEN NCCL-Kommunikationsbibliotheken von NVIDIA basieren und eine effiziente verteilte Computerverarbeitung über große Cluster hinweg gewährleisten.

Hostspezifikationen

Teil Menge
Anzahl Einheiten
Spezifikationen
SKU-ID, Leistungseinheiten usw.
Prozessor 128 vCPUs Nvidia Grace CPU
Gedächtnis 900 GB VM LPDDR
Lokaler Speicher 4 Datenträger 16 TB NVME Direkt
Remotespeicher 16 Datenträger 80000 IOPS/1200 MBps
Netzwerk 1 NIC 160Gb/s Ethernet
Beschleuniger 4 GPUs Nvidia Blackwell GPU (192 GB)

Featureunterstützung

Storage Premium: Unterstützt
Premium-Storage-Caching: Unterstützt
Live-Migration: Nicht unterstützt
Updates mit Speicherbeibehaltung: Nicht unterstützt
VMs der 2. Generation: unterstützt
VMs der 1. Generation: nicht unterstützt
Beschleunigter Netzwerkbetrieb: Unterstützt
Kurzlebiger Betriebssystemdatenträger: unterstützt
Geschachtelte Virtualisierung: Nicht unterstützt

Größen der Serie

vCPUs (Anzahl) und Arbeitsspeicher je nach Größe

Name der Größe vCPUs (Anzahl) Arbeitsspeicher (GB)
Standard_ND128isr_NDR_GB200_v6 128 900

VM Basics-Ressourcen

Andere Größeninformationen

Liste aller verfügbaren Größen: Größen

Preisrechner: Preisrechner

Informationen zu Datenträgertypen: Datenträgertypen

Nächste Schritte

Nutzen Sie die neuesten für Ihre Workloads verfügbaren Leistung und Funktionen, indem Sie die Größe eines virtuellen Computers ändern.

Nutzen Sie die von Microsoft selbst entwickelten ARM-Prozessoren mit Azure Cobalt-VMs.

Erfahren Sie, wie Sie virtuelle Azure-Computer überwachen.