'ND' 子系列 GPU 加速的虛擬機器大小系列
適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集
VM 大小系列的 'ND' 系列是其中一個 Azure 的 GPU 加速 VM 執行個體。 它們專為深度學習、AI 研究和高效能計算工作所設計,可受益於強大的 GPU 加速。 ND 系列 VM 配備了 NVIDIA GPU,可提供專業化的功能來定型和推斷複雜的機器學習模型,以加速計算和有效率地處理大型資料集。 這使得它們特別適合人工智慧開發和模擬中的學術和商業應用,其中尖端的 GPU 技術對於在神經網路處理和其他計算密集型的工作中獲得快速、準確的結果至關重要。
工作負載和使用案例
AI 和深度學習:ND 系列 VM 非常適合用於定型和部署複雜的深度學習模型。 它們配備了強大的 NVIDIA GPU,可提供處理大型資料集的廣泛神經網路定型所需的計算能力,大幅降低了定型的時間。
高效能運算 (HPC):ND 系列 VM 適用於需要 GPU 加速的 HPC 應用程式。 科學研究、工程模擬 (例如計算流體力學)和基因處理等領域可以受益於 ND 系列 VM 的高輸送量計算功能。
圖形呈現:ND 系列的 GPU 使其成為圖形密集型工作的絕佳選擇,包括動畫和視訊製作即時的呈現,以及虛擬實境環境的高逼真度模擬。
遠端視覺效果:ND 系列 VM 可用於資料密集型工作的遠端視覺效果,其中需要高階 GPU 功能來處理和呈現雲端上的複雜視覺效果,以方便從功能較弱的用戶端電腦中存取。
家族中的系列
ND 系列 V1
ND 系列的虛擬機器是 GPU 系列的新成員,專為 AI 和深度學習工作負載所設計。 它們能為訓練和推斷提供絕佳效能。 ND 執行個體由 NVIDIA Tesla P40 GPU 和 Intel Xeon E5-2690 v4 (Broadwell) CPU 提供。 這些執行個體為單精確度浮點數作業、使用 Microsoft Cognitive Toolkit 的 AI 工作負載、TensorFlow、Caffe 及其他架構,提供絕佳的效能。 ND 系列並提供更大的 GPU 記憶體大小 (24 GB),而能夠用在更大的類神經網路模型。 如同 NC 系列,ND 系列透過 RDMA 提供具有次要低延遲且高輸送量網路的設定,以及 InfiniBand 連線能力,讓您能夠執行使用橫跨數個 GPU 的大規模訓練作業。
部分 | 數量 計數單位 |
規格 SKU 識別碼、效能單位等。 |
---|---|---|
處理器 | 6 - 24 個 vCPU | Intel Xeon E5-2690 v4 (Broadwell) [x86-64] |
記憶體 | 112 - 448 GiB | |
本機存放區 | 1 個磁碟 | 736 - 2948 GiB |
遠端儲存體 | 12 - 32 個磁碟 | 20000 - 80000 IOPS 200 - 800 MBps |
網路 | 4 - 8 個 NIC | |
加速器 | 1 - 4 個 GPU | Nvidia Tesla P40 GPU (24GB) |
NDv2 系列
NDv2 系列虛擬機器是新加入 GPU 家族的系列,專用於處理需求量最大的 GPU 加速 AI、機器學習、模擬及 HPC 工作負載。
NDv2 由 8 個 NVIDIA Tesla V100 NVLINK 連線的 GPU 提供,各配備 32 GB 的 GPU 記憶體。 每個 NDv2 VM 也有 40 個非超執行緒 Intel Xeon Platinum 8168 (Skylake) 核心和 672 GiB 的系統記憶體。
NDv2 執行個體針對使用 CUDA GPU 最佳化計算核心的 HPC 和 AI 工作負載提供絕佳的效能,以及許多支援 GPU 加速的 AI、ML 和分析工具,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。
關鍵是,NDv2 是針對計算密集的擴大 (每個 VM 利用 8 個 GPU) 和擴增 (利用多個一起運作的 VM) 工作負載所建置。 NDv2 系列現在支援 100-Gb InfiniBand EDR 後端網路,類似於 HPC VM 的 HB 系列上可用的網路,以允許將高效能叢集用於平行案例,包括 AI 和 ML 的分散式訓練。 此後端網路支援所有主要 InfiniBand 通訊協定 (包括 NVIDIA 的 NCCL2 程式庫所採用的通訊協定) 允許無縫叢集 GPU。
部分 | 數量 計數單位 |
規格 SKU 識別碼、效能單位等。 |
---|---|---|
處理器 | 40 個 vCPU | Intel Xeon Platinum 8168 (Skylake) [x86-64] |
記憶體 | 672 GiB | |
本機存放區 | 1 個磁碟 | 2948 GiB |
遠端儲存體 | 32 個磁碟 | 80000 IOPS 800 MBps |
網路 | 8 張NIC | 24000 Mbps |
加速器 | 無 |
ND_A100_v4-series
ND A100 v4 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 這些大小專為高階深度學習訓練所設計,緊密結合擴大又擴增的 HPC 工作負載。
ND A100 v4 系列從單一 VM 和八個 NVIDIA Ampere A100 40GB Tensor Core GPU 開始提供。 以 ND A100 v4 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 1.6 TB/秒。 VM 內的每個 GPU 都隨附自己的專用、與拓撲無關的 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 連線。 這些連線會在佔用相同 Azure 虛擬機器擴展集的 VM 之間自動設定,並支援 GPU Direct RDMA。
每個 GPU 都配備 NVLINK 3.0 連線功能,可在 VM 內進行通訊,且有 96 個實體第 2 代 AMD Epyc™ 7V12 (Rome) CPU 核心在背後支援。
這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具提供絕佳的效能,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 此外,向外延展的 InfiniBand 互連支援大量現有的 AI 和 HPC 工具,這些工具以 NVIDIA NCCL2 通訊程式庫為建置基礎,以順暢地群集 GPU。
部分 | 數量 計數單位 |
規格 SKU 識別碼、效能單位等。 |
---|---|---|
處理器 | 96 個 vCPU | AMD EPYC 7V12 (Rome) [x86-64] |
記憶體 | 900 GiB | |
本機存放區 | 1 個磁碟 | 6000 GiB |
遠端儲存體 | 32 個磁碟 | 80000 IOPS 800 MBps |
網路 | 8 張NIC | 24000 Mbps |
加速器 | 8 GPUs | Nvidia PCIe A100 GPU (40GB) |
NDm_A100_v4 系列
NDm A100 v4 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 這些大小專為高階深度學習訓練所設計,緊密結合擴大又擴增的 HPC 工作負載。
NDm A100 v4 系列從單一 VM 和八個 NVIDIA Ampere A100 80GB Tensor Core GPU 開始提供。 以 NDm A100 v4 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 1.6 TB/秒。 VM 內的每個 GPU 隨附自己專用、與拓撲無關的 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 連線。 這些連線會在佔用相同 Azure 虛擬機器擴展集的 VM 之間自動設定,並支援 GPU Direct RDMA。
每個 GPU 都配備 NVLINK 3.0 連線功能,可在 VM 內進行通訊,且有 96 個實體第 2 代 AMD Epyc™ 7V12 (Rome) CPU 核心在背後支援。
這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具提供絕佳的效能,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 此外,向外延展的 InfiniBand 互連支援大量現有的 AI 和 HPC 工具,這些工具以 NVIDIA NCCL2 通訊程式庫為建置基礎,以順暢地群集 GPU。
部分 | 數量 計數單位 |
規格 SKU 識別碼、效能單位等。 |
---|---|---|
處理器 | 96 個 vCPU | AMD EPYC 7V12 (Rome) [x86-64] |
記憶體 | 1900 GiB | |
本機存放區 | 1 個磁碟 | 6400 GiB |
遠端儲存體 | 32 個磁碟 | 80000 IOPS 800 MBps |
網路 | 8 張NIC | 24000 Mbps |
加速器 | 8 GPUs | Nvidia PCIe A100 GPU (80GB) |
ND_H100_v5-series
ND H100 v5 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 此系列專為高階深度學習訓練所設計,緊密結合擴大和向外延展的生成式 AI 和 HPC 工作負載。
ND H100 v5 系列從單一 VM 和八個 NVIDIA H100 Tensor Core GPU 開始提供。 以 ND H100 v5 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 3.2 Tb/秒。 VM 內的每個 GPU 隨附自己專用、與拓撲無關的 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 連線。 這些連線會在佔用相同虛擬機器擴展集的 VM 之間自動設定,並支援 GPU Direct RDMA。
每個 GPU 都配備 NVLINK 4.0 連線功能,可在 VM 內進行通訊,而且執行個體有 96 個實體第 4 代 Intel Xeon 可調整處理器核心。
這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具提供絕佳的效能,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 此外,向外延展的 InfiniBand 互連支援大量現有的 AI 和 HPC 工具,這些工具以 NVIDIA NCCL 通訊程式庫為建置基礎,以順暢地群集 GPU。
部分 | 數量 計數單位 |
規格 SKU 識別碼、效能單位等。 |
---|---|---|
處理器 | 96 個 vCPU | Intel Xeon (Sapphire Rapids) [x86-64] |
記憶體 | 1900 GiB | |
本機存放區 | 1 個磁碟 | 28000 GiB |
遠端儲存體 | 32 個磁碟 | |
網路 | 8 張NIC | |
加速器 | 8 GPUs | Nvidia PCIe H100 GPU (80GB) |
ND_MI300X_v5-series
ND MI300X v5 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 它專為高階深度學習訓練所設計,緊密結合擴大又擴增的生成式 AI 和 HPC 工作負載。
ND MI300X v5 系列 VM 從八個 AMD Instinct MI300 GPU 和兩個第四代 Intel Xeon Scalable 處理器開始,總共有 96 個實體核心。 然後,VM 中的每個 GPU 都會透過第 4 代 AMD Infinity Fabric 連結彼此連線,而每個 GPU 的頻寬為 128 GB/秒,彙總頻寬為 896 GB/秒。
以 ND MI300X v5 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 3.2 Tb/秒。 VM 內的每個 GPU 隨附自己專用、與拓撲無關的 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 連線。 這些連線會在佔用相同虛擬機器擴展集的 VM 之間自動設定,並支援 GPUDirect RDMA。
這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具 (例如 TensorFlow、Pytorch 和其他架構) 提供絕佳的效能。 此外,擴增的 InfiniBand 互連支援大量現有的 AI 和 HPC 工具,這些工具以 AMD 的 ROCm Communication Collectives Library (RCCL) 為建置基礎,可實現 GPU 的無縫叢集。
部分 | 數量 計數單位 |
規格 SKU 識別碼、效能單位等。 |
---|---|---|
處理器 | 96 個 vCPU | Intel Xeon (Sapphire Rapids) [x86-64] |
記憶體 | 1850 GiB | |
本機儲存體 | 1 個磁碟 | 1000 GiB |
遠端儲存體 | 32 個磁碟 | 40800 IOPS 612 MBps |
網路 | 8 張NIC | |
加速器 | 8 GPUs | AMD Instinct MI300X GPU (192GB) |
上一代 ND 系列系列
如需較舊的大小,請參閱上一代大小。
其他大小資訊
所有可用大小清單:大小
定價計算機:定價計算機
磁碟類型的相關資訊:磁碟類型
下一步
深入了解 Azure 計算單位 (ACU) 如何協助您比較各個 Azure SKU 的計算效能。
請參閱 Azure 專用主機,讓實體伺服器能夠裝載指派給一個 Azure 訂用帳戶的一或多部虛擬機器。
了解如何監視 Azure 虛擬機器。