Seria maszyn wirtualnych o przyspieszonym rozmiarze maszyn wirtualnych z pod rodziny procesorów GPU "NC"
Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Maszyny ✔️ wirtualne z systemem Windows ✔️ — elastyczne zestawy ✔️ skalowania
Rodzina podrzędna "NC" serii rozmiarów maszyn wirtualnych to jedno z wystąpień maszyn wirtualnych zoptymalizowanych pod kątem procesora GPU platformy Azure. Są one przeznaczone dla obciążeń intensywnie korzystających z obliczeń, takich jak sztuczna inteligencja i uczenie maszynowe, trenowanie modeli uczenia maszynowego, obliczenia o wysokiej wydajności (HPC) i aplikacje intensywnie korzystające z grafiki. Wyposażone w zaawansowane procesory GPU FIRMY NVIDIA, maszyny wirtualne z serii NC oferują znaczne przyspieszenie procesów wymagających dużej mocy obliczeniowej, w tym uczenia głębokiego, symulacji naukowych i renderowania 3D. Sprawia to, że są one szczególnie odpowiednie dla branż, takich jak badania technologiczne, rozrywka i inżynieria, gdzie szybkość renderowania i przetwarzania ma kluczowe znaczenie dla produktywności i innowacji.
Obciążenia i przypadki użycia
Sztuczna inteligencja i uczenie maszynowe: maszyny wirtualne serii NC są idealne do trenowania złożonych modeli uczenia maszynowego i uruchamiania aplikacji sztucznej inteligencji. Procesory GPU FIRMY NVIDIA zapewniają znaczne przyspieszenie obliczeń zwykle związanych z uczeniem głębokim i innymi intensywnymi zadaniami trenowania.
Obliczenia o wysokiej wydajności (HPC): te maszyny wirtualne są odpowiednie do symulacji naukowych, renderowania i innych obciążeń HPC, które mogą być przyspieszane przez procesory GPU. Takie dziedziny jak inżynieria, badania medyczne i modelowanie finansowe często używają maszyn wirtualnych z serii NC do efektywnego obsługi potrzeb obliczeniowych.
Renderowanie grafiki: maszyny wirtualne serii NC są również używane do zastosowań intensywnie korzystających z grafiki, w tym do edycji wideo, renderowania 3D i przetwarzania grafiki w czasie rzeczywistym. Są one szczególnie przydatne w branżach, takich jak tworzenie gier i produkcja filmowa.
Wizualizacja zdalna: w przypadku aplikacji wymagających wysokiej klasy możliwości wizualizacji, takich jak CAD i efekty wizualne, maszyny wirtualne z serii NC mogą zapewnić zdalnie niezbędną moc procesora GPU, umożliwiając użytkownikom pracę nad złożonymi zadaniami graficznymi bez konieczności korzystania z zaawansowanego sprzętu lokalnego.
Symulacja i analiza: Te maszyny wirtualne są również odpowiednie do szczegółowych symulacji i analiz w takich obszarach, jak testowanie awarii samochodowych, obliczana dynamika płynów i modelowanie pogody, gdzie możliwości procesora GPU mogą znacznie przyspieszyć czas przetwarzania.
Seria w rodzinie
Seria NC V1
Ważne
Maszyny wirtualne platformy Azure z serii NC i NC_Promo zostaną wycofane 6 września 2023 r. Aby uzyskać więcej informacji, zobacz NC i NC_Promo informacje o wycofaniu. Aby dowiedzieć się, jak migrować obciążenia do innych rozmiarów maszyn wirtualnych, zobacz przewodnik migracji obliczeń procesora GPU.
To ogłoszenie o wycofaniu nie dotyczy maszyn wirtualnych serii NCv3, NCasT4v3 i NC A100 v4.
Maszyny wirtualne z serii NC są obsługiwane przez kartę NVIDIA Tesla K80 i procesor Intel Xeon E5-2690 v3 (Haswell). Użytkownicy mogą szybciej chrupać przez dane przy użyciu funkcji CUDA na potrzeby aplikacji do eksploracji energii, symulacji awarii, renderowania śledzenia promieni, uczenia głębokiego i nie tylko. Konfiguracja NC24r zapewnia małe opóźnienia, interfejs sieciowy o wysokiej przepływności zoptymalizowany pod kątem ściśle powiązanych obciążeń przetwarzania równoległego.
Wyświetl pełną stronę serii NC.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 6 – 24 procesory wirtualne | Intel Xeon E5-2690 v3 (Haswell) [x86-64] |
Pamięć | 56 - 224 GiB | |
Magazyn lokalny | 1 Dysk | 340 - 1440 GiB |
Magazyn zdalny | 24 – 64 Dyski | |
Sieć | 1 – 4 karty sieciowe | Mb/s |
Akceleratory | 1 – 4 procesory GPU | Nvidia Tesla K80 GPU (24 GB) |
seria NCads_H100_v5
Maszyny wirtualne serii NCads H100 v5 to nowy dodatek do rodziny procesorów GPU platformy Azure. Tej serii można używać do rzeczywistych aplikacja systemu Azure lied ai training and batch inference workloads (Trenowanie sztucznej inteligencji i wnioskowanie wsadowe). Maszyny wirtualne serii NCads H100 v5 są obsługiwane przez procesory GPU NVIDIA H100 NVL i procesory AMD EPYC™ Genu drugiej generacji. Maszyny wirtualne mają maksymalnie 2 procesory GPU NVIDIA H100 NVL z pamięcią 94 GB każdy, do 96 niewątków wielowątkowych procesorów AMD EPYC Genu i 640 GiB pamięci systemowej. Te maszyny wirtualne są idealne dla rzeczywistych obciążeń stosowanych sztucznej inteligencji, takich jak:
- Przyspieszona analiza procesora GPU i bazy danych
- Wnioskowanie wsadowe z dużym obciążeniem przetwarzaniem wstępnym i po przetworzeniu
- Trenowanie modelu autonomii
- Symulacja zbiornika ropy naftowej i gazu
- Programowanie w usłudze Machine Learning (ML)
- Przetwarzanie wideo
- Usługi internetowe sztucznej inteligencji/uczenia maszynowego
Wyświetl pełną stronę serii NCads_H100_v5.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 40 – 80 procesorów wirtualnych | AMD EPYC (Genua) [x86-64] |
Pamięć | 320 - 640 GiB | |
Magazyn lokalny | 1 Dysk | 3576 - 7152 GiB Liczba operacji we/wy na sekundę (RR) Mb/s (RR) |
Magazyn zdalny | 8 – 16 dysków | 100000– 240000 operacji we/wy na sekundę 3000 – 7000 MB/s |
Sieć | 2 – 4 karty sieciowe | 40 000 – 80 000 Mb/s |
Akceleratory | 1 – 2 procesory GPU | Procesor GPU Nvidia PCIe H100 (94 GB) |
seria NCCads_H100_v5
Seria maszyn wirtualnych NCCads H100 v5 to nowy dodatek do rodziny procesorów GPU platformy Azure. W tej jednostce SKU maszyny wirtualnej zaufane środowisko wykonawcze (TEE) obejmuje poufne maszyny wirtualne na procesorze CPU i dołączonym procesorze GPU, co umożliwia bezpieczne odciążanie danych, modeli i obliczeń do procesora GPU. Seria NCCads H100 v5 jest obsługiwana przez procesory AMD EPYC™ Genu 4 generacji i procesory GPU NVIDIA H100 Tensor Core. Te maszyny wirtualne mają 1 procesory GPU NVIDIA H100 NVL z pamięcią 94 GB, 40 rdzeni procesora AMD EPYC Genu i 320 GiB pamięci systemowej. Te maszyny wirtualne są idealne dla rzeczywistych obciążeń stosowanych sztucznej inteligencji, takich jak:
- Przyspieszona analiza procesora GPU i bazy danych
- Wnioskowanie wsadowe z dużym obciążeniem przetwarzaniem wstępnym i po przetworzeniu
- Programowanie w usłudze Machine Learning (ML)
- Przetwarzanie wideo
- Usługi internetowe sztucznej inteligencji/uczenia maszynowego
Wyświetl pełną stronę serii NCCads_H100_v5.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 40 procesorów wirtualnych | AMD EPYC (Genua) [x86-64] |
Pamięć | 320 GiB | |
Magazyn lokalny | 1 Dysk | 800 GiB |
Magazyn zdalny | 8 dysków | 100000 operacji we/wy na sekundę 3000 MB/s |
Sieć | 2 karty sieciowe | 40000 Mb/s |
Akceleratory | 1 procesor GPU | Procesor GPU Firmy Nvidia H100 (94 GB) |
Seria NCv2
Ważne
Maszyny wirtualne platformy Azure z serii NCv2 zostaną wycofane 6 września 2023 r. Aby uzyskać więcej informacji, zobacz informacje o wycofaniu NCv2. Aby dowiedzieć się, jak migrować obciążenia do innych rozmiarów maszyn wirtualnych, zobacz przewodnik migracji obliczeń procesora GPU.
To ogłoszenie o wycofaniu nie dotyczy maszyn wirtualnych serii NCv3, NCasT4v3 i NC A100 v4.
Maszyny wirtualne serii NCv2 są obsługiwane przez procesory GPU NVIDIA Tesla P100. Te procesory GPU mogą zapewnić więcej niż 2 razy wydajność obliczeniową serii NC. Klienci mogą korzystać z tych zaktualizowanych procesorów GPU dla tradycyjnych obciążeń HPC, takich jak modelowanie zbiorników, sekwencjonowanie DNA, analiza białek, symulacje Monte Carlo i inne. Oprócz procesorów GPU maszyny wirtualne serii NCv2 są również obsługiwane przez procesory Intel Xeon E5-2690 v4 (Broadwell). Konfiguracja NC24rs v2 zapewnia małe opóźnienia, interfejs sieciowy o wysokiej przepływności zoptymalizowany pod kątem ściśle powiązanych obciążeń przetwarzania równoległego.
Wyświetl pełną stronę serii NCv2.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 6 – 24 procesory wirtualne | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Pamięć | 112 - 448 GiB | |
Magazyn lokalny | 1 Dysk | 736 - 2948 GiB |
Magazyn zdalny | 12 — 32 Dyski | 20000 – 80000 operacji we/wy na sekundę 200 – 800 MB/s |
Sieć | 4 – 8 kart sieciowych | |
Akceleratory | 1 – 4 procesory GPU | Nvidia Tesla P100 GPU (16 GB) |
Seria NCv3
Maszyny wirtualne serii NCv3 są obsługiwane przez procesory GPU NVIDIA Tesla V100. Te procesory GPU mogą zapewnić 1,5 x wydajność obliczeniową serii NCv2. Klienci mogą korzystać z tych zaktualizowanych procesorów GPU dla tradycyjnych obciążeń HPC, takich jak modelowanie zbiorników, sekwencjonowanie DNA, analiza białek, symulacje Monte Carlo i inne. Konfiguracja NC24rs v3 zapewnia małe opóźnienia, interfejs sieciowy o wysokiej przepływności zoptymalizowany pod kątem ściśle powiązanych obciążeń przetwarzania równoległego. Oprócz procesorów GPU maszyny wirtualne serii NCv3 są również obsługiwane przez procesory Intel Xeon E5-2690 v4 (Broadwell).
Ważne
W przypadku tej serii maszyn wirtualnych limit przydziału procesorów wirtualnych (rdzeni) w subskrypcji jest początkowo ustawiony na 0 w każdym regionie. Zażądaj zwiększenia limitu przydziału procesorów wirtualnych dla tej serii w dostępnym regionie. Te jednostki SKU nie są dostępne dla subskrypcji platformy Azure dla subskrybentów programu Visual Studio ani wersji próbnej. Poziom subskrypcji może nie obsługiwać wybierania lub wdrażania tych jednostek SKU.
Wyświetl pełną stronę serii NCv3.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 6 – 24 procesory wirtualne | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
Pamięć | 112 - 448 GiB | |
Magazyn lokalny | 1 Dysk | 736 - 2948 GiB Liczba operacji we/wy na sekundę (RR) Mb/s (RR) |
Magazyn zdalny | 12 — 32 Dyski | 20000 – 80000 operacji we/wy na sekundę 200 – 800 MB/s |
Sieć | 4 – 8 kart sieciowych | Mb/s |
Akceleratory | 1 - 4 | Procesor GPU Nvidia Tesla V100 (16 GB) |
Seria NCasT4_v3
Maszyny wirtualne serii NCasT4_v3 są obsługiwane przez procesory GPU Nvidia Tesla T4 i AMD EPYC 7V12(Rome). Maszyny wirtualne mają maksymalnie 4 procesory GPU NVIDIA T4 z 16 GB pamięci, do 64 niewątkowane procesory AMD EPYC 7V12 (Rzym) (częstotliwość podstawowa 2,45 GHz, wszystkie rdzenie szczytowe częstotliwości 3,1 GHz i jednordzeniowe częstotliwości szczytowe 3,3 GHz) i 440 GiB pamięci systemowej. Te maszyny wirtualne są idealne do wdrażania usług sztucznej inteligencji, takich jak wnioskowanie w czasie rzeczywistym żądań generowanych przez użytkownika lub interaktywne obciążenia grafiki i wizualizacji przy użyciu sterownika GRID firmy NVIDIA i technologii wirtualnego procesora GPU. Standardowe obciążenia obliczeniowe procesora GPU oparte na cudA, TensorRT, Caffe, ONNX i innych strukturach lub przyspieszone procesory GPU aplikacje graficzne oparte na openGL i DirectX można wdrożyć ekonomicznie, z bliska dla użytkowników, w NCasT4_v3 serii.
Wyświetl pełną stronę serii NCasT4_v3.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 4 — 64 procesory wirtualne | AMD EPYC 7V12 (Rzym) [x86-64] |
Pamięć | 28 - 440 GiB | |
Magazyn lokalny | 1 Dysk | 176 - 2816 GiB Liczba operacji we/wy na sekundę (RR) Mb/s (RR) |
Magazyn zdalny | 8 – 32 Dyski | Operacje we/wy na sekundę Mb/s |
Sieć | 2 – 8 kart sieciowych | 8000 – 32000 Mb/s |
Akceleratory | 1 – 4 procesory GPU | Procesor GPU Nvidia Tesla T4 (16 GB) |
seria NC_A100_v4
Maszyna wirtualna z serii NC A100 v4 to nowy dodatek do rodziny procesorów GPU platformy Azure. Tej serii można używać do rzeczywistych aplikacja systemu Azure lied ai training and batch inference workloads (Trenowanie sztucznej inteligencji i wnioskowanie wsadowe). Seria NC A100 v4 jest obsługiwana przez procesory GPU NVIDIA A100 PCIe i procesory AMD EPYC™ 7V13 (Milan). Maszyny wirtualne mają maksymalnie 4 procesory GPU NVIDIA A100 PCIe z pamięcią o pojemności 80 GB, do 96 rdzeni procesora AMD EPYC Milan i 880 GiB pamięci systemowej. Te maszyny wirtualne są idealne dla rzeczywistych obciążeń stosowanych sztucznej inteligencji, takich jak:
Przyspieszona analiza procesora GPU i bazy danych Wnioskowanie wsadowe z dużym obciążeniem wstępnie i po przetworzeniu modelu autonomii trenowanie modelu ropy naftowej i zbiornika gazu Symulacja uczenia maszynowego (ML) opracowywanie usług internetowych przetwarzania wideo/uczenia maszynowego
Wyświetl pełną stronę serii NC_A100_v4.
Element | Ilość Liczba jednostek |
Specyfikacje Identyfikator jednostki SKU, jednostki wydajności itp. |
---|---|---|
Procesor | 24 – 96 procesorów wirtualnych | AMD EPYC 7V13 (Mediolan) [x86-64] |
Pamięć | 220 - 880 GiB | |
Magazyn lokalny | Dysk tymczasowy 1 1 — 4 dyski NVMe |
64- 256 GiB Dysk tymczasowy 960 GiB NVMe Dysków |
Magazyn zdalny | 8 – 32 Dyski | 30000– 120000 operacji we/wy na sekundę 1000 – 4000 MB/s |
Sieć | 2 – 8 kart sieciowych | 20 000 – 80 000 Mb/s |
Akceleratory | 1 – 4 procesory GPU | Procesor GPU Nvidia PCIe A100 (80 GB) |
Seria rodziny NC poprzedniej generacji
Aby uzyskać informacje o starszych rozmiarach, zobacz poprzednie rozmiary generacji.
Inne informacje o rozmiarze
Lista wszystkich dostępnych rozmiarów: rozmiary
Kalkulator cen: Kalkulator cen
Informacje o typach dysków: Typy dysków
Następne kroki
Dowiedz się więcej o tym, jak jednostki obliczeniowe platformy Azure (ACU) mogą ułatwić porównanie wydajności obliczeń w jednostkach SKU platformy Azure.
Zapoznaj się z usługą Azure Dedicated Hosts dla serwerów fizycznych, które mogą hostować co najmniej jedną maszynę wirtualną przypisaną do jednej subskrypcji platformy Azure.
Dowiedz się, jak monitorować maszyny wirtualne platformy Azure.