Udostępnij za pośrednictwem


Seria "ND" podrodziny procesorów GPU z przyspieszoną serią rozmiarów maszyn wirtualnych

Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Maszyny ✔️ wirtualne z systemem Windows ✔️ — elastyczne zestawy ✔️ skalowania

Rodzina "ND" serii rozmiarów maszyn wirtualnych to jedno z wystąpień maszyn wirtualnych przyspieszanych przez procesor GPU platformy Azure. Są one przeznaczone do uczenia głębokiego, badań nad sztuczną inteligencją i zadań obliczeniowych o wysokiej wydajności, które korzystają z zaawansowanego przyspieszania procesora GPU. Wyposażone w procesory GPU FIRMY NVIDIA, maszyny wirtualne serii ND oferują wyspecjalizowane możliwości trenowania i wnioskowania złożonych modeli uczenia maszynowego, ułatwiając szybsze obliczenia i wydajną obsługę dużych zestawów danych. To sprawia, że są one szczególnie odpowiednie dla aplikacji akademickich i komercyjnych w zakresie opracowywania i symulacji sztucznej inteligencji, gdzie najnowocześniejsze technologie procesora GPU mają kluczowe znaczenie dla osiągnięcia szybkich i dokładnych wyników w przetwarzaniu sieci neuronowej i innych zadaniach intensywnie korzystających z obliczeń.

Obciążenia i przypadki użycia

Sztuczna inteligencja i uczenie głębokie: maszyny wirtualne rodziny ND są idealne do trenowania i wdrażania złożonych modeli uczenia głębokiego. Wyposażone w zaawansowane procesory GPU FIRMY NVIDIA zapewniają moc obliczeniową niezbędną do obsługi rozbudowanego trenowania sieci neuronowej z dużymi zestawami danych, co znacznie skraca czas trenowania.

Obliczenia o wysokiej wydajności (HPC): maszyny wirtualne rodziny ND są odpowiednie dla aplikacji HPC, które wymagają przyspieszenia procesora GPU. Pola takie jak badania naukowe, symulacje inżynieryjne (na przykład dynamika płynów obliczeniowych) i przetwarzanie genomiczne mogą korzystać z możliwości obliczeniowych z serii ND.

Seria w rodzinie

Seria ND V1

Maszyny wirtualne serii ND to nowy dodatek do rodziny procesorów GPU przeznaczonych dla obciążeń sztucznej inteligencji i uczenia głębokiego. Oferują one doskonałą wydajność szkolenia i wnioskowania. Wystąpienia ND są obsługiwane przez procesory GPU NVIDIA Tesla P40 i Intel Xeon E5-2690 v4 (Broadwell). Te wystąpienia zapewniają doskonałą wydajność dla operacji zmiennoprzecinkowych o pojedynczej precyzji, w przypadku obciążeń sztucznej inteligencji korzystających z zestawu narzędzi Microsoft Cognitive Toolkit, TensorFlow, Caffe i innych struktur. Seria ND oferuje także dużo pojemniejszą pamięć procesora GPU (24 GB) mieszczącą znacznie większe modele sieci neuronowych. Podobnie jak w przypadku serii NC, seria ND oferuje konfigurację z dodatkowymi małymi opóźnieniami, siecią o wysokiej przepływności za pośrednictwem funkcji RDMA i łącznością InfiniBand, dzięki czemu można uruchamiać zadania trenowania na dużą skalę obejmujące wiele procesorów GPU.

Wyświetl pełną stronę serii ND.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 6 – 24 procesory wirtualne Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Pamięć 112 - 448 GiB
Magazyn lokalny 1 Dysk 736 - 2948 GiB
Magazyn zdalny 12 — 32 Dyski 20000 – 80000 operacji we/wy na sekundę
200 – 800 MB/s
Sieć 4 – 8 kart sieciowych
Akceleratory 1 – 4 procesory GPU Nvidia Tesla P40 GPU (24 GB)

Seria NDv2

Maszyna wirtualna serii NDv2 to nowy dodatek do rodziny procesorów GPU zaprojektowany pod kątem potrzeb najbardziej wymagających obciążeń sztucznej inteligencji przyspieszonej przez procesor GPU, uczenia maszynowego, symulacji i HPC.

NDv2 jest obsługiwany przez 8 procesorów GPU połączonych z nvlinkiem NVIDIA Tesla V100, z których każdy ma 32 GB pamięci procesora GPU. Każda maszyna wirtualna NDv2 ma również 40 rdzeni innych niż HyperThreaded Intel Xeon Platinum 8168 (Skylake) i 672 GiB pamięci systemowej.

Wystąpienia NDv2 zapewniają doskonałą wydajność obciążeń HPC i AI korzystających z jąder obliczeniowych zoptymalizowanych pod kątem procesora GPU CUDA oraz wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury.

Krytycznie NDv2 jest tworzony dla obciążeń intensywnie skalowanych w górę (wykorzystując 8 procesorów GPU na maszynę wirtualną) i skalowanych w poziomie (wykorzystujących wiele maszyn wirtualnych pracujących razem). Seria NDv2 obsługuje teraz sieć zaplecza 100 Gigabit InfiniBand EDR, podobną do dostępnej w serii HB maszyny wirtualnej HPC, aby umożliwić klastrowanie o wysokiej wydajności dla scenariuszy równoległych, w tym trenowanie rozproszone dla sztucznej inteligencji i uczenia maszynowego. Ta sieć zaplecza obsługuje wszystkie główne protokoły InfiniBand, w tym te stosowane przez biblioteki NCCL2 firmy NVIDIA, co umożliwia bezproblemowe klastrowanie procesorów GPU.

Wyświetl pełną stronę serii NDv2

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 40 procesorów wirtualnych Intel Xeon Platinum 8168 (Skylake) [x86-64]
Pamięć 672 GiB
Magazyn lokalny 1 Dysk 2948 GiB
Magazyn zdalny 32 Dyski 80000 operacji we/wy na sekundę
800 MB/s
Sieć 8 kart sieciowych 24000 Mb/s
Akceleratory Brak

seria ND_A100_v4

Maszyna wirtualna z serii ND A100 w wersji 4 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Te rozmiary są przeznaczone do trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanych obciążeń HPC skalowanych w górę i skalowanych w poziomie.

Seria ND A100 v4 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA Ampere A100 40 GB Tensor Core. Wdrożenia oparte na systemie ND A100 w wersji 4 mogą być skalowane w górę do tysięcy procesorów GPU z przepustowością połączenia wzajemnego na maszynę wirtualną o pojemności 1,6 TB/s. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Mellanox HDR InfiniBand o pojemności 200 GB/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych platformy Azure i obsługują funkcję RDMA bezpośredniego procesora GPU.

Każdy procesor GPU oferuje łączność NVLINK 3.0 na potrzeby komunikacji na maszynie wirtualnej z 96 fizycznymi rdzeniami procesora AMD Epyc™ 7V12 (Rzym) 96. generacji.

Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL2 firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.

Wyświetl pełną stronę serii ND_A100_v4.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 96 procesorów wirtualnych AMD EPYC 7V12 (Rzym) [x86-64]
Pamięć 900 GiB
Magazyn lokalny 1 Dysk 6000 GiB
Magazyn zdalny 32 Dyski 80000 operacji we/wy na sekundę
800 MB/s
Sieć 8 kart sieciowych 24000 Mb/s
Akceleratory 8 procesorów GPU Procesor GPU Firmy Nvidia A100 (40 GB)

seria NDm_A100_v4

Maszyna wirtualna serii NDm A100 v4 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Te rozmiary są przeznaczone do trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanych obciążeń HPC skalowanych w górę i skalowanych w poziomie.

Seria NDm A100 v4 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA Ampere A100 80 GB Tensor Core. Wdrożenia nDm A100 w wersji 4 mogą skalować w górę do tysięcy procesorów GPU z 1,6 TB/s przepustowości połączenia międzyoperacyjnego na maszynę wirtualną. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Mellanox HDR InfiniBand o pojemności 200 GB/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych platformy Azure i obsługują funkcję RDMA bezpośredniego procesora GPU.

Każdy procesor GPU oferuje łączność NVLINK 3.0 na potrzeby komunikacji na maszynie wirtualnej z 96 fizycznymi rdzeniami procesora AMD Epyc™ 7V12 (Rzym) 96. generacji.

Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL2 firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.

Wyświetl pełną stronę serii NDm_A100_v4.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 96 procesorów wirtualnych AMD EPYC 7V12 (Rzym) [x86-64]
Pamięć 1900 GiB
Magazyn lokalny 1 Dysk 6400 GiB
Magazyn zdalny 32 Dyski 80000 operacji we/wy na sekundę
800 MB/s
Sieć 8 kart sieciowych 24000 Mb/s
Akceleratory 8 procesorów GPU Procesor GPU Firmy Nvidia A100 (80 GB)

seria ND_H100_v5

Maszyna wirtualna z serii ND H100 v5 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Ta seria jest przeznaczona do trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanego ze skalowaniem w górę i skalowalnego w poziomie obciążeń sztucznej inteligencji i HPC.

Seria ND H100 v5 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA H100 Tensor Core. Wdrożenia oparte na ND H100 v5 mogą być skalowane w górę do tysięcy procesorów GPU z 3,2 Tb/s przepustowości połączenia międzylokacyjnej na maszynę wirtualną. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Quantum-2 CX7 InfiniBand o pojemności 400 Gb/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych i obsługują funkcję RDMA bezpośredniego procesora GPU.

Każdy procesor GPU oferuje łączność NVLINK 4.0 na potrzeby komunikacji na maszynie wirtualnej, a wystąpienie ma 96 rdzeni procesora Intel Xeon Scalable 96 generacji.

Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.

Wyświetl pełną stronę serii ND_H100_v5.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 96 procesorów wirtualnych Intel Xeon (Sapphire Rapids) [x86-64]
Pamięć 1900 GiB
Magazyn lokalny 1 Dysk 28000 GiB
Magazyn zdalny 32Disks
Sieć 8 kart sieciowych
Akceleratory 8 procesorów GPU Procesor GPU Firmy Nvidia H100 (80 GB)

seria ND_MI300X_v5

Maszyna wirtualna z serii ND MI300X v5 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Został zaprojektowany na potrzeby trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanego ze skalowaniem w górę i skalowalnego w poziomie obciążeń sztucznej inteligencji i HPC.

Maszyna wirtualna z serii ND MI300X v5 rozpoczyna się od ośmiu procesorów GPU AMD Instinct MI300 i dwóch czwartych procesorów Intel Xeon Scalable 96 rdzeni fizycznych. Każdy procesor GPU na maszynie wirtualnej jest następnie połączony ze sobą za pośrednictwem linków 4th-Gen AMD Infinity Fabric z przepustowością 128 GB/s na procesor GPU i 896 GB/s zagregowanej przepustowości.

Wdrożenia oparte na protokole ND MI300X w wersji 5 mogą być skalowane w górę do tysięcy procesorów GPU z przepustowością połączenia wzajemnego na maszynę wirtualną o pojemności 3,2 TB/s. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Quantum-2 CX7 InfiniBand o pojemności 400 Gb/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych i obsługują funkcję GPUDirect RDMA.

Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotece ROCm Communication Collectives Library (RCCL) firmy AMD w celu bezproblemowego klastrowania procesorów GPU.

Wyświetl pełną stronę serii ND_MI300X_v5.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 96 procesorów wirtualnych Intel Xeon (Sapphire Rapids) [x86-64]
Pamięć 1850 GiB
Magazyn lokalny Dysk tymczasowy 1
8 dysków NVMe
Dysk tymczasowy 1000 GiB
Dyski NVMe GiB 28000
Magazyn zdalny 32 Dyski 80000 operacji we/wy na sekundę
1200 MB/s
Sieć 8 kart sieciowych
Akceleratory 8 procesorów GPU PROCESOR GPU AMD Instinct MI300X (192 GB)

Seria rodziny ND poprzedniej generacji

Aby uzyskać informacje o starszych rozmiarach, zobacz poprzednie rozmiary generacji.

Inne informacje o rozmiarze

Lista wszystkich dostępnych rozmiarów: rozmiary

Kalkulator cen: Kalkulator cen

Informacje o typach dysków: Typy dysków

Następne kroki

Dowiedz się więcej o tym, jak jednostki obliczeniowe platformy Azure (ACU) mogą ułatwić porównanie wydajności obliczeń w jednostkach SKU platformy Azure.

Zapoznaj się z usługą Azure Dedicated Hosts dla serwerów fizycznych, które mogą hostować co najmniej jedną maszynę wirtualną przypisaną do jednej subskrypcji platformy Azure.

Dowiedz się, jak monitorować maszyny wirtualne platformy Azure.