Seria "ND" podrodziny procesorów GPU z przyspieszoną serią rozmiarów maszyn wirtualnych
Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Maszyny ✔️ wirtualne z systemem Windows ✔️ — elastyczne zestawy ✔️ skalowania
Rodzina "ND" serii rozmiarów maszyn wirtualnych to jedno z wystąpień maszyn wirtualnych przyspieszanych przez procesor GPU platformy Azure. Są one przeznaczone do uczenia głębokiego, badań nad sztuczną inteligencją i zadań obliczeniowych o wysokiej wydajności, które korzystają z zaawansowanego przyspieszania procesora GPU. Wyposażone w procesory GPU FIRMY NVIDIA, maszyny wirtualne serii ND oferują wyspecjalizowane możliwości trenowania i wnioskowania złożonych modeli uczenia maszynowego, ułatwiając szybsze obliczenia i wydajną obsługę dużych zestawów danych. To sprawia, że są one szczególnie odpowiednie dla aplikacji akademickich i komercyjnych w zakresie opracowywania i symulacji sztucznej inteligencji, gdzie najnowocześniejsze technologie procesora GPU mają kluczowe znaczenie dla osiągnięcia szybkich i dokładnych wyników w przetwarzaniu sieci neuronowej i innych zadaniach intensywnie korzystających z obliczeń.
Obciążenia i przypadki użycia
Sztuczna inteligencja i uczenie głębokie: maszyny wirtualne rodziny ND są idealne do trenowania i wdrażania złożonych modeli uczenia głębokiego. Wyposażone w zaawansowane procesory GPU FIRMY NVIDIA zapewniają moc obliczeniową niezbędną do obsługi rozbudowanego trenowania sieci neuronowej z dużymi zestawami danych, co znacznie skraca czas trenowania.
Obliczenia o wysokiej wydajności (HPC): maszyny wirtualne rodziny ND są odpowiednie dla aplikacji HPC, które wymagają przyspieszenia procesora GPU. Pola takie jak badania naukowe, symulacje inżynieryjne (np. dynamika obliczeniowych płynów) i przetwarzanie genomiczne mogą korzystać z możliwości obliczeniowych z serii ND o wysokiej przepływności.
Renderowanie grafiki: procesory GPU rodziny ND doskonale nadają się do wykonywania zadań intensywnie korzystających z grafiki, w tym renderowania w czasie rzeczywistym na potrzeby animacji i produkcji wideo, a także symulacji wysokiej wierności w środowiskach rzeczywistości wirtualnej.
Wizualizacja zdalna: maszyny wirtualne z rodziną ND mogą służyć do zdalnego wizualizacji zadań intensywnie korzystających z danych, w których wysokiej klasy możliwości procesora GPU są niezbędne do przetwarzania i renderowania złożonych wizualizacji w chmurze, ułatwiając dostęp z mniej zaawansowanych maszyn klienckich.
Seria w rodzinie
Seria ND V1
Maszyny wirtualne serii ND to nowy dodatek do rodziny procesorów GPU przeznaczonych dla obciążeń sztucznej inteligencji i uczenia głębokiego. Oferują one doskonałą wydajność szkolenia i wnioskowania. Wystąpienia ND są obsługiwane przez procesory GPU NVIDIA Tesla P40 i Intel Xeon E5-2690 v4 (Broadwell). Te wystąpienia zapewniają doskonałą wydajność dla operacji zmiennoprzecinkowych o pojedynczej precyzji, w przypadku obciążeń sztucznej inteligencji korzystających z zestawu narzędzi Microsoft Cognitive Toolkit, TensorFlow, Caffe i innych struktur. Seria ND oferuje także dużo pojemniejszą pamięć procesora GPU (24 GB) mieszczącą znacznie większe modele sieci neuronowych. Podobnie jak w przypadku serii NC, seria ND oferuje konfigurację z dodatkowymi małymi opóźnieniami, siecią o wysokiej przepływności za pośrednictwem funkcji RDMA i łącznością InfiniBand, dzięki czemu można uruchamiać zadania trenowania na dużą skalę obejmujące wiele procesorów GPU.
Wyświetl pełną stronę serii ND.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 6 – 24 procesory wirtualne | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Pamięć | 112 - 448 GiB | |
Magazyn lokalny | 1 Dysk | 736 - 2948 GiB |
Magazyn zdalny | 12 — 32 Dyski | 20000 – 80000 operacji we/wy na sekundę 200 – 800 MB/s |
Sieć | 4 – 8 kart sieciowych | |
Akceleratory | 1 – 4 procesory GPU | Nvidia Tesla P40 GPU (24 GB) |
Seria NDv2
Maszyna wirtualna serii NDv2 to nowy dodatek do rodziny procesorów GPU zaprojektowany pod kątem potrzeb najbardziej wymagających obciążeń sztucznej inteligencji przyspieszonej przez procesor GPU, uczenia maszynowego, symulacji i HPC.
NDv2 jest obsługiwany przez 8 procesorów GPU połączonych z nvlinkiem NVIDIA Tesla V100, z których każdy ma 32 GB pamięci procesora GPU. Każda maszyna wirtualna NDv2 ma również 40 rdzeni innych niż HyperThreaded Intel Xeon Platinum 8168 (Skylake) i 672 GiB pamięci systemowej.
Wystąpienia NDv2 zapewniają doskonałą wydajność obciążeń HPC i AI korzystających z jąder obliczeniowych zoptymalizowanych pod kątem procesora GPU CUDA oraz wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury.
Krytycznie NDv2 jest tworzony dla obciążeń intensywnie skalowanych w górę (wykorzystując 8 procesorów GPU na maszynę wirtualną) i skalowanych w poziomie (wykorzystujących wiele maszyn wirtualnych pracujących razem). Seria NDv2 obsługuje teraz sieć zaplecza 100 Gigabit InfiniBand EDR, podobną do dostępnej w serii HB maszyny wirtualnej HPC, aby umożliwić klastrowanie o wysokiej wydajności dla scenariuszy równoległych, w tym trenowanie rozproszone dla sztucznej inteligencji i uczenia maszynowego. Ta sieć zaplecza obsługuje wszystkie główne protokoły InfiniBand, w tym te stosowane przez biblioteki NCCL2 firmy NVIDIA, co umożliwia bezproblemowe klastrowanie procesorów GPU.
Wyświetl pełną stronę serii NDv2
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 40 procesorów wirtualnych | Intel Xeon Platinum 8168 (Skylake) [x86-64] |
Pamięć | 672 GiB | |
Magazyn lokalny | 1 Dysk | 2948 GiB |
Magazyn zdalny | 32 Dyski | 80000 operacji we/wy na sekundę 800 MB/s |
Sieć | 8 kart sieciowych | 24000 Mb/s |
Akceleratory | Brak |
seria ND_A100_v4
Maszyna wirtualna z serii ND A100 w wersji 4 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Te rozmiary są przeznaczone do trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanych obciążeń HPC skalowanych w górę i skalowanych w poziomie.
Seria ND A100 v4 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA Ampere A100 40 GB Tensor Core. Wdrożenia oparte na systemie ND A100 w wersji 4 mogą być skalowane w górę do tysięcy procesorów GPU z przepustowością połączenia wzajemnego na maszynę wirtualną o pojemności 1,6 TB/s. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Mellanox HDR InfiniBand o pojemności 200 GB/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych platformy Azure i obsługują funkcję RDMA bezpośredniego procesora GPU.
Każdy procesor GPU oferuje łączność NVLINK 3.0 na potrzeby komunikacji na maszynie wirtualnej z 96 fizycznymi rdzeniami procesora AMD Epyc™ 7V12 (Rzym) 96. generacji.
Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL2 firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.
Wyświetl pełną stronę serii ND_A100_v4.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 96 procesorów wirtualnych | AMD EPYC 7V12 (Rzym) [x86-64] |
Pamięć | 900 GiB | |
Magazyn lokalny | 1 Dysk | 6000 GiB |
Magazyn zdalny | 32 Dyski | 80000 operacji we/wy na sekundę 800 MB/s |
Sieć | 8 kart sieciowych | 24000 Mb/s |
Akceleratory | 8 procesorów GPU | Procesor GPU Firmy Nvidia A100 (40 GB) |
seria NDm_A100_v4
Maszyna wirtualna serii NDm A100 v4 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Te rozmiary są przeznaczone do trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanych obciążeń HPC skalowanych w górę i skalowanych w poziomie.
Seria NDm A100 v4 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA Ampere A100 80 GB Tensor Core. Wdrożenia nDm A100 w wersji 4 mogą skalować w górę do tysięcy procesorów GPU z 1,6 TB/s przepustowości połączenia międzyoperacyjnego na maszynę wirtualną. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Mellanox HDR InfiniBand o pojemności 200 GB/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych platformy Azure i obsługują funkcję RDMA bezpośredniego procesora GPU.
Każdy procesor GPU oferuje łączność NVLINK 3.0 na potrzeby komunikacji na maszynie wirtualnej z 96 fizycznymi rdzeniami procesora AMD Epyc™ 7V12 (Rzym) 96. generacji.
Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL2 firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.
Wyświetl pełną stronę serii NDm_A100_v4.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 96 procesorów wirtualnych | AMD EPYC 7V12 (Rzym) [x86-64] |
Pamięć | 1900 GiB | |
Magazyn lokalny | 1 Dysk | 6400 GiB |
Magazyn zdalny | 32 Dyski | 80000 operacji we/wy na sekundę 800 MB/s |
Sieć | 8 kart sieciowych | 24000 Mb/s |
Akceleratory | 8 procesorów GPU | Procesor GPU Firmy Nvidia A100 (80 GB) |
seria ND_H100_v5
Maszyna wirtualna z serii ND H100 v5 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Ta seria jest przeznaczona do trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanego ze skalowaniem w górę i skalowalnego w poziomie obciążeń sztucznej inteligencji i HPC.
Seria ND H100 v5 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA H100 Tensor Core. Wdrożenia oparte na ND H100 v5 mogą być skalowane w górę do tysięcy procesorów GPU z 3,2 Tb/s przepustowości połączenia międzylokacyjnej na maszynę wirtualną. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Quantum-2 CX7 InfiniBand o pojemności 400 Gb/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych i obsługują funkcję RDMA bezpośredniego procesora GPU.
Każdy procesor GPU oferuje łączność NVLINK 4.0 na potrzeby komunikacji na maszynie wirtualnej, a wystąpienie ma 96 rdzeni procesora Intel Xeon Scalable 96 generacji.
Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.
Wyświetl pełną stronę serii ND_H100_v5.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 96 procesorów wirtualnych | Intel Xeon (Sapphire Rapids) [x86-64] |
Pamięć | 1900 GiB | |
Magazyn lokalny | 1 Dysk | 28000 GiB |
Magazyn zdalny | 32Disks | |
Sieć | 8 kart sieciowych | |
Akceleratory | 8 procesorów GPU | Procesor GPU Firmy Nvidia H100 (80 GB) |
seria ND_MI300X_v5
Maszyna wirtualna z serii ND MI300X v5 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Został zaprojektowany na potrzeby trenowania wysokiej klasy uczenia głębokiego i ściśle powiązanego ze skalowaniem w górę i skalowalnego w poziomie obciążeń sztucznej inteligencji i HPC.
Maszyna wirtualna z serii ND MI300X v5 rozpoczyna się od ośmiu procesorów GPU AMD Instinct MI300 i dwóch czwartych procesorów Intel Xeon Scalable 96 rdzeni fizycznych. Każdy procesor GPU na maszynie wirtualnej jest następnie połączony ze sobą za pośrednictwem linków 4th-Gen AMD Infinity Fabric z przepustowością 128 GB/s na procesor GPU i 896 GB/s zagregowanej przepustowości.
Wdrożenia oparte na protokole ND MI300X w wersji 5 mogą być skalowane w górę do tysięcy procesorów GPU z przepustowością połączenia wzajemnego na maszynę wirtualną o pojemności 3,2 TB/s. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Quantum-2 CX7 InfiniBand o pojemności 400 Gb/s. Te połączenia są automatycznie konfigurowane między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych i obsługują funkcję GPUDirect RDMA.
Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch i inne struktury. Ponadto połączenie infiniBand skalowane w poziomie obsługuje duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotece ROCm Communication Collectives Library (RCCL) firmy AMD w celu bezproblemowego klastrowania procesorów GPU.
Wyświetl pełną stronę serii ND_MI300X_v5.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 96 procesorów wirtualnych | Intel Xeon (Sapphire Rapids) [x86-64] |
Pamięć | 1850 GiB | |
Magazyn lokalny | Dysk tymczasowy 1 8 dysków NVMe |
Dysk tymczasowy 1000 GiB Dyski NVMe GiB 28000 |
Magazyn zdalny | 32 Dyski | 80000 operacji we/wy na sekundę 1200 MB/s |
Sieć | 8 kart sieciowych | |
Akceleratory | 8 procesorów GPU | PROCESOR GPU AMD Instinct MI300X (192 GB) |
Seria rodziny ND poprzedniej generacji
Aby uzyskać informacje o starszych rozmiarach, zobacz poprzednie rozmiary generacji.
Inne informacje o rozmiarze
Lista wszystkich dostępnych rozmiarów: rozmiary
Kalkulator cen: Kalkulator cen
Informacje o typach dysków: Typy dysków
Następne kroki
Dowiedz się więcej o tym, jak jednostki obliczeniowe platformy Azure (ACU) mogą ułatwić porównanie wydajności obliczeń w jednostkach SKU platformy Azure.
Zapoznaj się z usługą Azure Dedicated Hosts dla serwerów fizycznych, które mogą hostować co najmniej jedną maszynę wirtualną przypisaną do jednej subskrypcji platformy Azure.
Dowiedz się, jak monitorować maszyny wirtualne platformy Azure.