Seria NDm A100 v4
Uwaga
W tym artykule odwołuje się do systemu CentOS — dystrybucji systemu Linux, która zbliża się do stanu zakończenia życia (EOL). Rozważ odpowiednie użycie i zaplanuj. Aby uzyskać więcej informacji, zobacz wskazówki dotyczące zakończenia życia systemu CentOS.
Dotyczy: ✔️ Maszyny wirtualne z systemem Linux Maszyny ✔️ wirtualne z systemem Windows ✔️ — elastyczne zestawy ✔️ skalowania
Maszyna wirtualna serii NDm A100 v4 to nowy flagowy dodatek do rodziny procesorów GPU platformy Azure. Jest ona przeznaczona dla zaawansowanych Edukacja trenowania i ściśle sprzężonych obciążeń HPC skalowanych w górę i skalowanych w poziomie.
Seria NDm A100 v4 rozpoczyna się od jednej maszyny wirtualnej i ośmiu procesorów GPU NVIDIA Ampere A100 80 GB Tensor Core. Wdrożenia nDm A100 w wersji 4 mogą skalować w górę do tysięcy procesorów GPU z 1,6 TB/s przepustowości połączenia międzyoperacyjnego na maszynę wirtualną. Każdy procesor GPU na maszynie wirtualnej jest dostarczany z własnym dedykowanym, niezależnym od topologii połączeniem NVIDIA Mellanox HDR InfiniBand o pojemności 200 GB/s. Te połączenia są konfigurowane automatycznie między maszynami wirtualnymi zajmującymi ten sam zestaw skalowania maszyn wirtualnych i obsługują funkcję GPUDirect RDMA.
Każdy procesor GPU oferuje łączność NVLINK 3.0 na potrzeby komunikacji na maszynie wirtualnej, a wystąpienie jest wspierane przez 96 rdzeni procesora CPU AMD Epyc™ 7V12 (Rzym).
Te wystąpienia zapewniają doskonałą wydajność dla wielu narzędzi sztucznej inteligencji, uczenia maszynowego i analizy, które obsługują przyspieszanie procesora GPU "out-of-the-box", takie jak TensorFlow, Pytorch, Caffe, RAPIDS i inne struktury. Ponadto połączenie infiniBand skalowalnego w poziomie jest obsługiwane przez duży zestaw istniejących narzędzi sztucznej inteligencji i HPC opartych na bibliotekach komunikacyjnych NCCL2 firmy NVIDIA na potrzeby bezproblemowego klastrowania procesorów GPU.
Ważne
Aby rozpocząć pracę z maszynami wirtualnymi NDm A100 v4, zapoznaj się z tematem Konfiguracja i optymalizacja obciążenia HPC, aby zapoznać się z krokami, takimi jak konfiguracja sterownika i sieci. Ze względu na zwiększoną ilość operacji we/wy pamięci procesora GPU nDm A100 v4 wymaga użycia maszyn wirtualnych generacji 2 i obrazów platformy handlowej. Zdecydowanie zalecane są obrazy HPC platformy Azure. Obsługiwane są obrazy z systemem Azure HPC Ubuntu 18.04, 20.04 i Azure HPC CentOS 7.9.
Premium Storage: obsługiwane
Buforowanie usługi Premium Storage: obsługiwane
Dyski w warstwie Ultra: obsługiwane (dowiedz się więcej o dostępności, użyciu i wydajności)
Migracja na żywo: nieobsługiwana
Aktualizacje zachowywania pamięci: nieobsługiwane
Obsługa generowania maszyn wirtualnych: generacja 2
Przyspieszona sieć: obsługiwana
Efemeryczne dyski systemu operacyjnego: obsługiwane
InfiniBand: obsługiwane, GPUDirect RDMA, 8 x 200 Gigabit HDR
Nvidia NVLink Interconnect: obsługiwane
Wirtualizacja zagnieżdżona: nieobsługiwana
Seria NDm A100 v4 obsługuje następujące wersje jądra:
CentOS 7.9 HPC: 3.10.0-1160.24.1.el7.x86_64
Ubuntu 18.04: 5.4.0-1043-azure
Ubuntu 20.04: 5.4.0-1046-azure
Rozmiar | Procesor wirtualny | Pamięć: GiB | Magazyn tymczasowy (SSD): GiB | Procesor GPU | Pamięć procesora GPU: GiB | Maks. liczba dysków danych | Maksymalna przepływność niebuforowanych dysków: liczba operacji we/wy na sekundę / MB/s | Maksymalna przepustowość sieci | Maksymalna liczba kart sieciowych |
---|---|---|---|---|---|---|---|---|---|
Standard_ND96amsr_A100_v4 | 96 | 1900 | 6400 | 8 A100 80 GB procesorów GPU (NVLink 3.0) | 80 | 32 | 80,000 / 800 | 24 000 Mb/s | 8 |
Definicje tabel rozmiaru
Pojemność magazynu jest podawana w jednostkach GiB (1024^3 bajtów). Podczas porównywania dysków mierzonych w GB (1000^3 bajtów) z dyskami mierzonymi w GiB (1024^3) pamiętaj, że liczby pojemności podane w GiB mogą wydawać się mniejsze. Na przykład 1023 GiB = 1098,4 GB.
Przepływność dysku mierzona jest jako liczba operacji wejścia/wyjścia na sekundę i MB/s, gdzie 1 MB/s = 10^6 bajtów/s.
Dyski danych mogą działać w trybie buforowanym lub niebuforowanym. Dla pracy dysku danych w trybie buforowanym tryb pamięci podręcznej hosta jest ustawiony na wartość ReadOnly lub ReadWrite. Dla pracy dysku danych bez buforowania tryb pamięci podręcznej hosta jest ustawiony na wartość None.
Aby dowiedzieć się, jak uzyskać najlepszą wydajność magazynu dla maszyn wirtualnych, zobacz Wydajność maszyny wirtualnej i dysku.
Oczekiwana przepustowość sieci to maksymalna zagregowana przepustowość przydzielona na typ maszyny wirtualnej dla wszystkich kart sieciowych dla wszystkich miejsc docelowych. Aby uzyskać więcej informacji, zobacz Przepustowość sieci maszyny wirtualnej.
Górne limity nie są gwarantowane. Wskazówki dotyczące ofert limitów dotyczące wybierania odpowiedniego typu maszyny wirtualnej dla zamierzonej aplikacji. Rzeczywista wydajność sieci zależy od kilku czynników, w tym przeciążenia sieci, obciążeń aplikacji i ustawień sieci. Aby uzyskać informacje na temat optymalizowania przepływności sieci, zobacz Optymalizowanie przepływności sieci dla maszyn wirtualnych platformy Azure. Aby osiągnąć oczekiwaną wydajność sieci w systemie Linux lub Windows, może być konieczne wybranie określonej wersji lub zoptymalizowanie maszyny wirtualnej. Aby uzyskać więcej informacji, zobacz Testowanie przepustowości/przepływności (NTTTCP).
Inne rozmiary i informacje
- Ogólnego przeznaczenia
- Optymalizacja pod kątem pamięci
- Optymalizacja pod kątem magazynu
- Optymalizacja pod kątem procesora GPU
- Obliczenia o wysokiej wydajności
- Poprzednie generacje
Kalkulator cen: Kalkulator cen
Aby uzyskać więcej informacji na temat typów dysków, zobacz Jakie typy dysków są dostępne na platformie Azure?
Następne kroki
Dowiedz się więcej o tym, jak jednostki obliczeniowe platformy Azure (ACU) mogą ułatwić porównanie wydajności obliczeń w jednostkach SKU platformy Azure.