分享方式:


'ND' 子系列 GPU 加速的虛擬機器大小系列

適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集

VM 大小系列的 'ND' 系列是其中一個 Azure 的 GPU 加速 VM 執行個體。 它們專為深度學習、AI 研究和高效能計算工作所設計,可受益於強大的 GPU 加速。 ND 系列 VM 配備了 NVIDIA GPU,可提供專業化的功能來定型和推斷複雜的機器學習模型,以加速計算和有效率地處理大型資料集。 這使得它們特別適合人工智慧開發和模擬中的學術和商業應用,其中尖端的 GPU 技術對於在神經網路處理和其他計算密集型的工作中獲得快速、準確的結果至關重要。

工作負載和使用案例

AI 和深度學習:ND 系列 VM 非常適合用於定型和部署複雜的深度學習模型。 它們配備了強大的 NVIDIA GPU,可提供處理大型資料集的廣泛神經網路定型所需的計算能力,大幅降低了定型的時間。

高效能運算 (HPC):ND 系列 VM 適用於需要 GPU 加速的 HPC 應用程式。 科學研究、工程模擬 (例如計算流體力學)和基因處理等領域可以受益於 ND 系列 VM 的高輸送量計算功能。

圖形呈現:ND 系列的 GPU 使其成為圖形密集型工作的絕佳選擇,包括動畫和視訊製作即時的呈現,以及虛擬實境環境的高逼真度模擬。

遠端視覺效果:ND 系列 VM 可用於資料密集型工作的遠端視覺效果,其中需要高階 GPU 功能來處理和呈現雲端上的複雜視覺效果,以方便從功能較弱的用戶端電腦中存取。

家族中的系列

ND 系列 V1

ND 系列的虛擬機器是 GPU 系列的新成員,專為 AI 和深度學習工作負載所設計。 它們能為訓練和推斷提供絕佳效能。 ND 執行個體由 NVIDIA Tesla P40 GPU 和 Intel Xeon E5-2690 v4 (Broadwell) CPU 提供。 這些執行個體為單精確度浮點數作業、使用 Microsoft Cognitive Toolkit 的 AI 工作負載、TensorFlow、Caffe 及其他架構,提供絕佳的效能。 ND 系列並提供更大的 GPU 記憶體大小 (24 GB),而能夠用在更大的類神經網路模型。 如同 NC 系列,ND 系列透過 RDMA 提供具有次要低延遲且高輸送量網路的設定,以及 InfiniBand 連線能力,讓您能夠執行使用橫跨數個 GPU 的大規模訓練作業。

檢視完整的 ND 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 6 - 24 個虛擬核心 Intel® Xeon® E5-2690 v4 (Broadwell)
記憶體 112 - 448GiB
資料磁碟 12 - 32 個磁碟 20000 - 80000IOPS/200 - 800MBps
網路 4 - 8 張NIC
加速器 1 - 4 顆GPU NVIDIA Tesla P40 24GiB
每個 VM 24 - 96GiB

NDv2 系列

NDv2 系列虛擬機器是新加入 GPU 家族的系列,專用於處理需求量最大的 GPU 加速 AI、機器學習、模擬及 HPC 工作負載。 NDv2 由 8 個 NVIDIA Tesla V100 NVLINK 連線的 GPU 提供,各配備 32 GB 的 GPU 記憶體。 每個 NDv2 VM 也有 40 個非超執行緒 Intel Xeon Platinum 8168 (Skylake) 核心和 672 GiB 的系統記憶體。 NDv2 執行個體針對使用 CUDA GPU 最佳化計算核心的 HPC 和 AI 工作負載提供絕佳的效能,以及許多支援 GPU 加速的 AI、ML 和分析工具,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 關鍵是,NDv2 是針對計算密集的擴大 (每個 VM 利用 8 個 GPU) 和擴增 (利用多個一起運作的 VM) 工作負載所建置。 NDv2 系列現在支援 100-Gb InfiniBand EDR 後端網路,類似於 HPC VM 的 HB 系列上可用的網路,以允許將高效能叢集用於平行案例,包括 AI 和 ML 的分散式訓練。 此後端網路支援所有主要 InfiniBand 通訊協定 (包括 NVIDIA 的 NCCL2 程式庫所採用的通訊協定) 允許無縫叢集 GPU。

檢視完整的 NDv2 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 40 個虛擬核心 Intel® Xeon® 白金級 8168 (Skylake)
記憶體 672GiB
資料磁碟 32 個磁碟 80000IOPS / 800MBps
網路 8 張NIC 24000Mbps
加速器 8 顆GPU NVIDIA V100 (NVLink) 32GiB
每個 VM 256GiB

ND_A100_v4-series

ND A100 v4 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 專為高階深度學習訓練所設計,緊密結合擴大又擴增的 HPC 工作負載。 ND A100 v4 系列從單一 VM 和八個 NVIDIA Ampere A100 40GB Tensor Core GPU 開始提供。 以 ND A100 v4 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 1.6 TB/秒。 VM 內的每個 GPU 都隨附自己的專用、與拓撲無關的 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 連線。 這些連線會在佔用相同虛擬機器擴展集的 VM 之間自動設定,並支援 GPUDirect RDMA。 每個 GPU 都配備 NVLINK 3.0 連線功能,可在 VM 內進行通訊,而且執行個體有 96 個實體第 2 代 AMD Epyc™ 7V12 (Rome) CPU 核心的支援。 這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具提供絕佳的效能,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 此外,有大量現有 AI 和 HPC 工具支援擴增的 InfiniBand 互連,這些工具以 NVIDIA NCCL2 通訊程式庫為建置基礎,可以順暢地群集 GPU。

檢視完整的 ND_A100_v4 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 96 個虛擬核心 AMD Epyc™ 7V12 (Rome)
記憶體 900GiB
資料磁碟 32 個磁碟 80000IOPS / 800MBps
網路 8 張NIC 24000Mbps
加速器 8 顆GPU NVIDIA A100 (NVLink) 40GiB
每個 VM 320GiB

NDm_A100_v4 系列

NDm A100 v4 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 專為高階深度學習訓練所設計,緊密結合擴大又擴增的 HPC 工作負載。 NDm A100 v4 系列從單一 VM 和八個 NVIDIA Ampere A100 80GB Tensor Core GPU 開始提供。 以 NDm A100 v4 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 1.6 TB/秒。 VM 內的每個 GPU 隨附自己專用、與拓撲無關的 200 GB/秒 NVIDIA Mellanox HDR InfiniBand 連線。 這些連線會在佔用相同虛擬機器擴展集的 VM 之間自動設定,並支援 GPUDirect RDMA。 每個 GPU 都配備 NVLINK 3.0 連線功能,可在 VM 內進行通訊,而且執行個體有 96 個實體第 2 代 AMD Epyc™ 7V12 (Rome) CPU 核心的支援。 這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具提供絕佳的效能,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 此外,有大量現有 AI 和 HPC 工具支援擴增的 InfiniBand 互連,這些工具以 NVIDIA NCCL2 通訊程式庫為建置基礎,可以順暢地群集 GPU。

檢視完整的 NDm_A100_v4 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 96 個虛擬核心 AMD Epyc™ 7V12 (Rome)
記憶體 900GiB
資料磁碟 32 個磁碟 80000IOPS / 800MBps
網路 8 張NIC 24000Mbps
加速器 8 顆GPU NVIDIA A100 (NVLink) 80GiB
每個 VM 640GiB

ND_H100_v5-series

ND H100 v5 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 專為高階深度學習訓練所設計,緊密結合擴大又擴增的生成式 AI 和 HPC 工作負載。 ND H100 v5 系列從單一 VM 和八個 NVIDIA H100 Tensor Core GPU 開始提供。 以 ND H100 v5 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 3.2 Tb/秒。 VM 內的每個 GPU 隨附自己專用、與拓撲無關的 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 連線。 這些連線會在佔用相同虛擬機器擴展集的 VM 之間自動設定,並支援 GPUDirect RDMA。 每個 GPU 都配備 NVLINK 4.0 連線功能,可在 VM 內進行通訊,而且執行個體有 96 個實體第 4 代 Intel Xeon 可擴充處理器核心的支援。 這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具提供絕佳的效能,例如 TensorFlow、Pytorch、Caffe、RAPIDS 和其他架構。 此外,有大量現有 AI 和 HPC 工具支援擴增的 InfiniBand 互連,這些工具以 NVIDIA NCCL 通訊程式庫為建置基礎,可以順暢地群集 GPU。

檢視完整的 ND_H100_v5 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 96 個虛擬核心 Intel® Xeon® Scalable (Sapphire Rapids)
記憶體 1900GiB
資料磁碟 32 個磁碟 40800IOPS / 612MBps
網路 8 張NIC 80000Mbps
加速器 8 顆GPU NVIDIA H100 (NVLink) 80GiB
每個 VM 640GiB

ND_MI300X_v5-series

ND MI300X v5 系列虛擬機器 (VM) 是 Azure GPU 系列新的主打產品。 它專為高階深度學習訓練所設計,緊密結合擴大又擴增的生成式 AI 和 HPC 工作負載。

ND MI300X v5 系列 VM 從八個 AMD Instinct MI300 GPU 和兩個第四代 Intel Xeon Scalable 處理器開始,總共有 96 個實體核心。 然後,VM 中的每個 GPU 都會透過第 4 代 AMD Infinity Fabric 連結彼此連線,而每個 GPU 的頻寬為 128 GB/秒,彙總頻寬為 896 GB/秒。

以 ND MI300X v5 為基礎的部署可以擴大至數千個 GPU,每個 VM 的互連頻寬為 3.2 Tb/秒。 VM 內的每個 GPU 隨附自己專用、與拓撲無關的 400 Gb/秒 NVIDIA Quantum-2 CX7 InfiniBand 連線。 這些連線會在佔用相同虛擬機器擴展集的 VM 之間自動設定,並支援 GPUDirect RDMA。

這些執行個體可為許多支援 GPU 加速「現成可用」的 AI、ML 和分析工具 (例如 TensorFlow、Pytorch 和其他架構) 提供絕佳的效能。 此外,擴增的 InfiniBand 互連支援大量現有的 AI 和 HPC 工具,這些工具以 AMD 的 ROCm Communication Collectives Library (RCCL) 為建置基礎,可實現 GPU 的無縫叢集。

檢視完整的 ND_MI300X_v5 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 96 個虛擬核心 Intel® Xeon® Scalable (Sapphire Rapids)
記憶體 1850 GiB
本機儲存體 1 個磁碟 1000 GiB
遠端磁碟 32 個磁碟 40800 IOPS
612 MBps
網路 8 張NIC 80000 Mbps
加速器 8 GPUs AMD MI300X 192 GiB
每一個 VM 1535 GiB

前一代ND系列系列

如需較舊的大小,請參閱 上一代大小

其他大小資訊

所有可用大小清單:大小

定價計算機:定價計算機

磁碟類型的相關資訊:磁碟類型

下一步

深入了解 Azure 計算單位 (ACU) 如何協助您比較各個 Azure SKU 的計算效能。

請參閱 Azure 專用主機,讓實體伺服器能夠裝載指派給一個 Azure 訂用帳戶的一或多部虛擬機器。

了解如何監視 Azure 虛擬機器