Udostępnij za pośrednictwem


Seria maszyn wirtualnych o przyspieszonym rozmiarze maszyn wirtualnych z pod rodziny procesorów GPU "NC"

Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Maszyny ✔️ wirtualne z systemem Windows ✔️ — elastyczne zestawy ✔️ skalowania

Rodzina podrzędna "NC" serii rozmiarów maszyn wirtualnych to jedno z wystąpień maszyn wirtualnych zoptymalizowanych pod kątem procesora GPU platformy Azure. Są one przeznaczone dla obciążeń intensywnie korzystających z obliczeń, takich jak sztuczna inteligencja i uczenie maszynowe, trenowanie modeli uczenia maszynowego, obliczenia o wysokiej wydajności (HPC) i aplikacje intensywnie korzystające z grafiki. Wyposażone w zaawansowane procesory GPU FIRMY NVIDIA, maszyny wirtualne z serii NC oferują znaczne przyspieszenie procesów wymagających dużej mocy obliczeniowej, w tym uczenia głębokiego, symulacji naukowych i renderowania 3D. Sprawia to, że są one szczególnie odpowiednie dla branż, takich jak badania technologiczne, rozrywka i inżynieria, gdzie szybkość renderowania i przetwarzania ma kluczowe znaczenie dla produktywności i innowacji.

Obciążenia i przypadki użycia

Sztuczna inteligencja i uczenie maszynowe: maszyny wirtualne serii NC są idealne do trenowania złożonych modeli uczenia maszynowego i uruchamiania aplikacji sztucznej inteligencji. Procesory GPU FIRMY NVIDIA zapewniają znaczne przyspieszenie obliczeń zwykle związanych z uczeniem głębokim i innymi intensywnymi zadaniami trenowania.

Obliczenia o wysokiej wydajności (HPC): te maszyny wirtualne są odpowiednie do symulacji naukowych, renderowania i innych obciążeń HPC, które mogą być przyspieszane przez procesory GPU. Takie dziedziny jak inżynieria, badania medyczne i modelowanie finansowe często używają maszyn wirtualnych z serii NC do efektywnego obsługi potrzeb obliczeniowych.

Renderowanie grafiki: maszyny wirtualne serii NC są również używane do zastosowań intensywnie korzystających z grafiki, w tym do edycji wideo, renderowania 3D i przetwarzania grafiki w czasie rzeczywistym. Są one szczególnie przydatne w branżach, takich jak tworzenie gier i produkcja filmowa.

Wizualizacja zdalna: w przypadku aplikacji wymagających wysokiej klasy możliwości wizualizacji, takich jak CAD i efekty wizualne, maszyny wirtualne z serii NC mogą zapewnić zdalnie niezbędną moc procesora GPU, umożliwiając użytkownikom pracę nad złożonymi zadaniami graficznymi bez konieczności korzystania z zaawansowanego sprzętu lokalnego.

Symulacja i analiza: Te maszyny wirtualne są również odpowiednie do szczegółowych symulacji i analiz w takich obszarach, jak testowanie awarii samochodowych, obliczana dynamika płynów i modelowanie pogody, gdzie możliwości procesora GPU mogą znacznie przyspieszyć czas przetwarzania.

Seria w rodzinie

Seria NC V1

Ważne

Maszyny wirtualne platformy Azure z serii NC i NC_Promo zostaną wycofane 6 września 2023 r. Aby uzyskać więcej informacji, zobacz NC i NC_Promo informacje o wycofaniu. Aby dowiedzieć się, jak migrować obciążenia do innych rozmiarów maszyn wirtualnych, zobacz przewodnik migracji obliczeń procesora GPU.

To ogłoszenie o wycofaniu nie dotyczy maszyn wirtualnych serii NCv3, NCasT4v3 i NC A100 v4.

Maszyny wirtualne z serii NC są obsługiwane przez kartę NVIDIA Tesla K80 i procesor Intel Xeon E5-2690 v3 (Haswell). Użytkownicy mogą szybciej chrupać przez dane przy użyciu funkcji CUDA na potrzeby aplikacji do eksploracji energii, symulacji awarii, renderowania śledzenia promieni, uczenia głębokiego i nie tylko. Konfiguracja NC24r zapewnia małe opóźnienia, interfejs sieciowy o wysokiej przepływności zoptymalizowany pod kątem ściśle powiązanych obciążeń przetwarzania równoległego.

Wyświetl pełną stronę serii NC.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 6 – 24 procesory wirtualne Intel Xeon E5-2690 v3 (Haswell) [x86-64]
Pamięć 56 - 224 GiB
Magazyn lokalny 1 Dysk 340 - 1440 GiB
Magazyn zdalny 24 – 64 Dyski
Sieć 1 – 4 karty sieciowe Mb/s
Akceleratory 1 – 4 procesory GPU Nvidia Tesla K80 GPU (24 GB)

seria NCads_H100_v5

Maszyny wirtualne serii NCads H100 v5 to nowy dodatek do rodziny procesorów GPU platformy Azure. Tej serii można używać do rzeczywistych aplikacja systemu Azure lied ai training and batch inference workloads (Trenowanie sztucznej inteligencji i wnioskowanie wsadowe). Maszyny wirtualne serii NCads H100 v5 są obsługiwane przez procesory GPU NVIDIA H100 NVL i procesory AMD EPYC™ Genu drugiej generacji. Maszyny wirtualne mają maksymalnie 2 procesory GPU NVIDIA H100 NVL z pamięcią 94 GB każdy, do 96 niewątków wielowątkowych procesorów AMD EPYC Genu i 640 GiB pamięci systemowej. Te maszyny wirtualne są idealne dla rzeczywistych obciążeń stosowanych sztucznej inteligencji, takich jak:

  • Przyspieszona analiza procesora GPU i bazy danych
  • Wnioskowanie wsadowe z dużym obciążeniem przetwarzaniem wstępnym i po przetworzeniu
  • Trenowanie modelu autonomii
  • Symulacja zbiornika ropy naftowej i gazu
  • Programowanie w usłudze Machine Learning (ML)
  • Przetwarzanie wideo
  • Usługi internetowe sztucznej inteligencji/uczenia maszynowego

Wyświetl pełną stronę serii NCads_H100_v5.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 40 – 80 procesorów wirtualnych AMD EPYC (Genua) [x86-64]
Pamięć 320 - 640 GiB
Magazyn lokalny 1 Dysk 3576 - 7152 GiB
Liczba operacji we/wy na sekundę (RR)
Mb/s (RR)
Magazyn zdalny 8 – 16 dysków 100000– 240000 operacji we/wy na sekundę
3000 – 7000 MB/s
Sieć 2 – 4 karty sieciowe 40 000 – 80 000 Mb/s
Akceleratory 1 – 2 procesory GPU Procesor GPU Nvidia PCIe H100 (94 GB)

seria NCCads_H100_v5

Seria maszyn wirtualnych NCCads H100 v5 to nowy dodatek do rodziny procesorów GPU platformy Azure. W tej jednostce SKU maszyny wirtualnej zaufane środowisko wykonawcze (TEE) obejmuje poufne maszyny wirtualne na procesorze CPU i dołączonym procesorze GPU, co umożliwia bezpieczne odciążanie danych, modeli i obliczeń do procesora GPU. Seria NCCads H100 v5 jest obsługiwana przez procesory AMD EPYC™ Genu 4 generacji i procesory GPU NVIDIA H100 Tensor Core. Te maszyny wirtualne mają 1 procesory GPU NVIDIA H100 NVL z pamięcią 94 GB, 40 rdzeni procesora AMD EPYC Genu i 320 GiB pamięci systemowej. Te maszyny wirtualne są idealne dla rzeczywistych obciążeń stosowanych sztucznej inteligencji, takich jak:

  • Przyspieszona analiza procesora GPU i bazy danych
  • Wnioskowanie wsadowe z dużym obciążeniem przetwarzaniem wstępnym i po przetworzeniu
  • Programowanie w usłudze Machine Learning (ML)
  • Przetwarzanie wideo
  • Usługi internetowe sztucznej inteligencji/uczenia maszynowego

Wyświetl pełną stronę serii NCCads_H100_v5.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 40 procesorów wirtualnych AMD EPYC (Genua) [x86-64]
Pamięć 320 GiB
Magazyn lokalny 1 Dysk 800 GiB
Magazyn zdalny 8 dysków 100000 operacji we/wy na sekundę
3000 MB/s
Sieć 2 karty sieciowe 40000 Mb/s
Akceleratory 1 procesor GPU Procesor GPU Firmy Nvidia H100 (94 GB)

Seria NCv2

Ważne

Maszyny wirtualne platformy Azure z serii NCv2 zostaną wycofane 6 września 2023 r. Aby uzyskać więcej informacji, zobacz informacje o wycofaniu NCv2. Aby dowiedzieć się, jak migrować obciążenia do innych rozmiarów maszyn wirtualnych, zobacz przewodnik migracji obliczeń procesora GPU.

To ogłoszenie o wycofaniu nie dotyczy maszyn wirtualnych serii NCv3, NCasT4v3 i NC A100 v4.

Maszyny wirtualne serii NCv2 są obsługiwane przez procesory GPU NVIDIA Tesla P100. Te procesory GPU mogą zapewnić więcej niż 2 razy wydajność obliczeniową serii NC. Klienci mogą korzystać z tych zaktualizowanych procesorów GPU dla tradycyjnych obciążeń HPC, takich jak modelowanie zbiorników, sekwencjonowanie DNA, analiza białek, symulacje Monte Carlo i inne. Oprócz procesorów GPU maszyny wirtualne serii NCv2 są również obsługiwane przez procesory Intel Xeon E5-2690 v4 (Broadwell). Konfiguracja NC24rs v2 zapewnia małe opóźnienia, interfejs sieciowy o wysokiej przepływności zoptymalizowany pod kątem ściśle powiązanych obciążeń przetwarzania równoległego.

Wyświetl pełną stronę serii NCv2.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 6 – 24 procesory wirtualne Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Pamięć 112 - 448 GiB
Magazyn lokalny 1 Dysk 736 - 2948 GiB
Magazyn zdalny 12 — 32 Dyski 20000 – 80000 operacji we/wy na sekundę
200 – 800 MB/s
Sieć 4 – 8 kart sieciowych
Akceleratory 1 – 4 procesory GPU Nvidia Tesla P100 GPU (16 GB)

Seria NCv3

Maszyny wirtualne serii NCv3 są obsługiwane przez procesory GPU NVIDIA Tesla V100. Te procesory GPU mogą zapewnić 1,5 x wydajność obliczeniową serii NCv2. Klienci mogą korzystać z tych zaktualizowanych procesorów GPU dla tradycyjnych obciążeń HPC, takich jak modelowanie zbiorników, sekwencjonowanie DNA, analiza białek, symulacje Monte Carlo i inne. Konfiguracja NC24rs v3 zapewnia małe opóźnienia, interfejs sieciowy o wysokiej przepływności zoptymalizowany pod kątem ściśle powiązanych obciążeń przetwarzania równoległego. Oprócz procesorów GPU maszyny wirtualne serii NCv3 są również obsługiwane przez procesory Intel Xeon E5-2690 v4 (Broadwell).

Ważne

W przypadku tej serii maszyn wirtualnych limit przydziału procesorów wirtualnych (rdzeni) w subskrypcji jest początkowo ustawiony na 0 w każdym regionie. Zażądaj zwiększenia limitu przydziału procesorów wirtualnych dla tej serii w dostępnym regionie. Te jednostki SKU nie są dostępne dla subskrypcji platformy Azure dla subskrybentów programu Visual Studio ani wersji próbnej. Poziom subskrypcji może nie obsługiwać wybierania lub wdrażania tych jednostek SKU.

Wyświetl pełną stronę serii NCv3.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 6 – 24 procesory wirtualne Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Pamięć 112 - 448 GiB
Magazyn lokalny 1 Dysk 736 - 2948 GiB
Liczba operacji we/wy na sekundę (RR)
Mb/s (RR)
Magazyn zdalny 12 — 32 Dyski 20000 – 80000 operacji we/wy na sekundę
200 – 800 MB/s
Sieć 4 – 8 kart sieciowych Mb/s
Akceleratory 1 - 4 Procesor GPU Nvidia Tesla V100 (16 GB)

Seria NCasT4_v3

Maszyny wirtualne serii NCasT4_v3 są obsługiwane przez procesory GPU Nvidia Tesla T4 i AMD EPYC 7V12(Rome). Maszyny wirtualne mają maksymalnie 4 procesory GPU NVIDIA T4 z 16 GB pamięci, do 64 niewątkowane procesory AMD EPYC 7V12 (Rzym) (częstotliwość podstawowa 2,45 GHz, wszystkie rdzenie szczytowe częstotliwości 3,1 GHz i jednordzeniowe częstotliwości szczytowe 3,3 GHz) i 440 GiB pamięci systemowej. Te maszyny wirtualne są idealne do wdrażania usług sztucznej inteligencji, takich jak wnioskowanie w czasie rzeczywistym żądań generowanych przez użytkownika lub interaktywne obciążenia grafiki i wizualizacji przy użyciu sterownika GRID firmy NVIDIA i technologii wirtualnego procesora GPU. Standardowe obciążenia obliczeniowe procesora GPU oparte na cudA, TensorRT, Caffe, ONNX i innych strukturach lub przyspieszone procesory GPU aplikacje graficzne oparte na openGL i DirectX można wdrożyć ekonomicznie, z bliska dla użytkowników, w NCasT4_v3 serii.

Wyświetl pełną stronę serii NCasT4_v3.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 4 — 64 procesory wirtualne AMD EPYC 7V12 (Rzym) [x86-64]
Pamięć 28 - 440 GiB
Magazyn lokalny 1 Dysk 176 - 2816 GiB
Liczba operacji we/wy na sekundę (RR)
Mb/s (RR)
Magazyn zdalny 8 – 32 Dyski Operacje we/wy na sekundę
Mb/s
Sieć 2 – 8 kart sieciowych 8000 – 32000 Mb/s
Akceleratory 1 – 4 procesory GPU Procesor GPU Nvidia Tesla T4 (16 GB)

seria NC_A100_v4

Maszyna wirtualna z serii NC A100 v4 to nowy dodatek do rodziny procesorów GPU platformy Azure. Tej serii można używać do rzeczywistych aplikacja systemu Azure lied ai training and batch inference workloads (Trenowanie sztucznej inteligencji i wnioskowanie wsadowe). Seria NC A100 v4 jest obsługiwana przez procesory GPU NVIDIA A100 PCIe i procesory AMD EPYC™ 7V13 (Milan). Maszyny wirtualne mają maksymalnie 4 procesory GPU NVIDIA A100 PCIe z pamięcią o pojemności 80 GB, do 96 rdzeni procesora AMD EPYC Milan i 880 GiB pamięci systemowej. Te maszyny wirtualne są idealne dla rzeczywistych obciążeń stosowanych sztucznej inteligencji, takich jak:

Przyspieszona analiza procesora GPU i bazy danych Wnioskowanie wsadowe z dużym obciążeniem wstępnie i po przetworzeniu modelu autonomii trenowanie modelu ropy naftowej i zbiornika gazu Symulacja uczenia maszynowego (ML) opracowywanie usług internetowych przetwarzania wideo/uczenia maszynowego

Wyświetl pełną stronę serii NC_A100_v4.

Element Ilość
Liczba jednostek
Specyfikacje
Identyfikator jednostki SKU, jednostki wydajności itp.
Procesor 24 – 96 procesorów wirtualnych AMD EPYC 7V13 (Mediolan) [x86-64]
Pamięć 220 - 880 GiB
Magazyn lokalny Dysk tymczasowy 1
1 — 4 dyski NVMe
64- 256 GiB Dysk tymczasowy
960 GiB NVMe Dysków
Magazyn zdalny 8 – 32 Dyski 30000– 120000 operacji we/wy na sekundę
1000 – 4000 MB/s
Sieć 2 – 8 kart sieciowych 20 000 – 80 000 Mb/s
Akceleratory 1 – 4 procesory GPU Procesor GPU Nvidia PCIe A100 (80 GB)

Seria rodziny NC poprzedniej generacji

Aby uzyskać informacje o starszych rozmiarach, zobacz poprzednie rozmiary generacji.

Inne informacje o rozmiarze

Lista wszystkich dostępnych rozmiarów: rozmiary

Kalkulator cen: Kalkulator cen

Informacje o typach dysków: Typy dysków

Następne kroki

Dowiedz się więcej o tym, jak jednostki obliczeniowe platformy Azure (ACU) mogą ułatwić porównanie wydajności obliczeń w jednostkach SKU platformy Azure.

Zapoznaj się z usługą Azure Dedicated Hosts dla serwerów fizycznych, które mogą hostować co najmniej jedną maszynę wirtualną przypisaną do jednej subskrypcji platformy Azure.

Dowiedz się, jak monitorować maszyny wirtualne platformy Azure.