共用方式為


「NC」子系列 GPU 加速的 VM 大小系列

適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集

VM 大小系列的「NC」系列是其中一個 Azure 的 GPU 加速 VM 執行個體, 專為計算密集型工作負載所設計,例如 AI 和機器學習模型定型、高效能運算 (HPC) 和圖形密集型應用程式。 NC 系列 VM 配備強大的 NVIDIA GPU,可大幅加快需要大量計算能力的流程,包括深度學習、科學模擬和 3D 轉譯, 因此特別適合技術研究、娛樂和工程等產業。因為在這些產業中,轉譯和流程速度對生產力和創新來說至關重要。

工作負載和使用案例

AI 和機器學習:NC 系列 VM 非常適合訓練複雜的機器學習模型以及執行 AI 應用程式。 NVIDIA GPU 可顯著加快通常涉及深度學習和其他密集訓練工作的計算。

高效能運算 (HPC):這些 VM 最適合用在由 GPU 加速的科學模擬、轉譯和其他 HPC 工作負載。 工程、醫學研究和財務模型化等領域多半會使用 NC 系列 VM,以便有效率地處理其計算需求。

圖形轉譯:NC 系列 VM 也適合用在圖形密集型應用程式,包括影片編輯、3D 轉譯和即時圖形處理; 在遊戲開發和電影製作等產業中,更是特別有用。

遠端視覺效果:對於需要高端視覺效果功能的應用程式 (例如 CAD 和視覺效果) 來說,NC 系列 VM 可以從遠端提供必要的 GPU 功能,就算使用者的本機硬體功能並不強大,也能處理複雜的圖形工作。

模擬和分析:這些 VM 也適用於汽車碰撞測試、計算流體動力學和天氣模型化等領域的詳細模擬和分析,因為其 GPU 功能可以大幅加快處理時間。

系列中的系列

NC 系列 V1

重要

NC 和 NC_Promo 系列 Azure 虛擬機器 (VM) 會在 2023 年 9 月 6 日淘汰。 如需詳細資訊,請參閱 NC 和 NC_Promo 淘汰資訊。 如需如何將工作負載移轉至其他 VM 大小的詳細資訊,請參閱 GPU 計算移轉指南

此淘汰公告不適用於 NCv3、NCasT4v3 和 NC A100 v4 系列 VM。

NC 系列 VM 由 NVIDIA Tesla K80 卡和 Intel Xeon E5-2690 v3 (Haswell) 處理器提供。 使用者可使用 CUDA 更快速地處理資料,以進行能源探勘應用、撞擊模擬、光線追蹤成像、深度學習等等。 NC24r 設定提供低延遲且高輸送量網路介面,最適合用於緊密結合的平行計算工作負載。

檢視完整的 NC 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 6 - 24 個 vCPU Intel Xeon E5-2690 v3 (Haswell) [x86-64]
記憶體 56 - 224 GiB
本機存放區 1 個磁碟 340 - 1440 GiB
遠端儲存體 24 - 64 個磁碟
網路 1 - 4 個 NIC Mbps
加速器 1 - 4 個 GPU Nvidia Tesla K80 GPU (24GB)

NCads_H100_v5 系列

NCads H100 v5 系列虛擬機器 (VM)是 Azure GPU 系列的新成員。 此系列適用於實際 Azure 應用 AI 訓練和批次推斷工作負載。 NCads H100 v5 系列虛擬機器由 NVIDIA H100 NVL GPU 和第 4 代 AMD EPYC™ Genoa 處理器提供技術支援。 此系列 VM 最多可有 2 個 NVIDIA H100 NVL GPU,每個 GPU 具有 94GB 記憶體,最多 96 個非多執行緒 AMD EPYC 處理器核心和 640 GiB 的系統記憶體。 這些 VM 適用於實際應用的 AI 工作負載,例如:

  • GPU 加速分析和資料庫
  • 包含大量前置和後置處理的批次推斷
  • 自主模型定型
  • 石油與天然氣貯存槽模擬
  • 機器學習 (ML) 開發
  • 影片處理
  • AI/ML Web 服務

檢視完整的NCads_H100_v5系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 40 - 80 個 vCPU AMD EPYC (Genoa) [x86-64]
記憶體 320 - 640 GiB
本機存放區 1 個磁碟 3576 - 7152 GiB
IOPS (RR)
MBps (RR)
遠端儲存體 8 - 16 個磁碟 100000 - 240000 IOPS
3000 - 7000 MBps
網路 2 - 4 NICs 40,000 - 80,000 Mbps
加速器 1 - 2 個 GPU Nvidia PCIe H100 GPU (94GB)

NCCads_H100_v5系列

NCCads H100 v5 系列虛擬機是 Azure GPU 系列的新新增專案。 在此 VM SKU 中,信任的執行環境 (TEE) 跨越 CPU 和連結 GPU 上的機密 VM,讓數據、模型和計算的安全卸載至 GPU。 NCCads H100 v5 系列由第 4 代 AMD EPYC™ 基因處理器和 NVIDIA H100 Tensor Core GPU 提供電源。 這些 VM 具有 1 個 NVIDIA H100 NVL GPU,具有 94 GB 記憶體、40 個非多線程 AMD EPYC 基因處理器核心,以及 320 GiB 的系統記憶體。 這些 VM 適用於實際應用的 AI 工作負載,例如:

  • GPU 加速分析和資料庫
  • 包含大量前置和後置處理的批次推斷
  • 機器學習 (ML) 開發
  • 影片處理
  • AI/ML Web 服務

檢視完整的NCCads_H100_v5系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 40 個 vCPU AMD EPYC (Genoa) [x86-64]
記憶體 320 GiB
本機存放區 1 個磁碟 800 GiB
遠端儲存體 8 個磁碟 100000 IOPS
3000 MBps
網路 2 NIC 40000 Mbps
加速器 1 GPU Nvidia H100 GPU (94GB)

NCv2 系列

重要

NCv2 系列 Azure 虛擬機器 (VM) 會在 2023 年 9 月 6 日淘汰。 如需詳細資訊,請參閱 NCv2 淘汰資訊。 如需如何將工作負載移轉至其他 VM 大小的詳細資訊,請參閱 GPU 計算移轉指南

此淘汰公告不適用於 NCv3、NCasT4v3 和 NC A100 v4 系列 VM。

NCv2 系列 VM 是由 NVIDIA Tesla P100 GPU 提供技術支援。 這些 GPU 可提供 NC 系列 2 倍以上的計算效能。 客戶可善用這些更新的 GPU,進行傳統 HPC 工作負載,例如水庫模型化、DNA 排序、蛋白質分析、蒙地卡羅模擬等案例。 除了 GPU 之外,NCv2 系列 VM 也由 Intel Xeon E5-2690 v4 (Broadwell) CPU 提供技術支援。 NC24rs v2 組態提供低延遲且高輸送量網路介面,最適合用於緊密結合的平行計算工作負載。

檢視完整的 NCv2 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 6 - 24 個 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
記憶體 112 - 448 GiB
本機存放區 1 個磁碟 736 - 2948 GiB
遠端儲存體 12 - 32 個磁碟 20000 - 80000 IOPS
200 - 800 MBps
網路 4 - 8 個 NIC
加速器 1 - 4 個 GPU Nvidia Tesla P100 GPU (16GB)

NCv3 系列

NCv3 系列 VM 是由 NVIDIA Tesla V100 GPU 提供技術支援。 這些 GPU 可提供 NCv2 系列 1.5 倍的計算效能。 客戶可善用這些更新的 GPU,進行傳統 HPC 工作負載,例如水庫模型化、DNA 排序、蛋白質分析、蒙地卡羅模擬等案例。 NC24rs v3 組態提供低延遲且高輸送量網路介面,最適合用於緊密結合的平行計算工作負載。 除了 GPU 之外,NCv3 系列 VM 也由 Intel Xeon E5-2690 v4 (Broadwell) CPU 提供技術支援。

重要

對於此 VM 系列,一開始會在您的訂用帳戶中,將每個區域中的 vCPU (核心) 配額設為 0。 在可用區域中,針對這個系列要求增加 vCPU 配額。 這些 SKU 不適用於試用版或 Visual Studio 訂閱者的 Azure 訂用帳戶。 您的訂用帳戶層級可能不支援選取或部署這些 SKU。

檢視完整的 NCv3 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 6 - 24 個 vCPU Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
記憶體 112 - 448 GiB
本機存放區 1 個磁碟 736 - 2948 GiB
IOPS (RR)
MBps (RR)
遠端儲存體 12 - 32 個磁碟 20000 - 80000 IOPS
200 - 800 MBps
網路 4 - 8 個 NIC Mbps
加速器 1 - 4 Nvidia Tesla V100 GPU (16GB)

NCasT4_v3 系列

NCasT4_v3系列虛擬機器由 Nvidia Tesla T4 GPU 和 AMD EPYC 7V12 (Rome) CPU 提供。 VM 最多可提供 4 個 NVIDIA T4 GPU,每個 CPU 的記憶體為 16 GB,最多 64 個非多執行緒 AMD EPYC 7V12 (Rome) 處理器核心 (基礎頻率為 2.45 GHz、全核心尖峰頻率為 3.1 GHz 和 3.3 GHz 的單核心尖峰頻率) 和 440 GiB 的系統記憶體。 這些虛擬機器很適合用來部署 AI 服務,例如即時推斷使用者產生的要求,或使用 NVIDIA 的 GRID 驅動程式和虛擬 GPU 技術進行互動式圖形和視覺效果工作負載。 以 CUDA、TensorRT、Caffe、ONNX 和其他架構為基礎的標準 GPU 計算工作負載,或以 OpenGL 和 DirectX 為基礎的 GPU 加速圖形化應用程式,可以在 NCasT4_v3 系列上以接近使用者的型態,以經濟實惠的方式部署。

檢視完整的 NCasT4_v3 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 4 - 64 個 vCPU AMD EPYC 7V12 (Rome) [x86-64]
記憶體 28 - 440 GiB
本機存放區 1 個磁碟 176 - 2816 GiB
IOPS (RR)
MBps (RR)
遠端儲存體 8 - 32 個磁碟 IOPS
MBps
網路 2 - 8 個 NIC 8000 - 32000 Mbps
加速器 1 - 4 個 GPU Nvidia Tesla T4 GPU (16GB)

NC_A100_v4 系列

NC A100 v4 系列虛擬機器是 Azure GPU 系列的新成員。 此系列適用於實際 Azure 應用 AI 訓練和批次推斷工作負載。 NC A100 v4 系列由 NVIDIA A100 PCIe GPU 和第三代 AMD EPYC™ 7V13 (Milan) 處理器提供技術支援。 此系列 VM 最多有 4 個 NVIDIA A100 PCIe GPU,每個 GPU 具有 80GB 記憶體,最多 96 個非多執行緒 AMD EPYC Milan 處理器核心和 880 GiB 的系統記憶體。 這些 VM 適用於實際應用的 AI 工作負載,例如:

GPU 加速分析和資料庫 Batch 推斷與繁重的前置和後處理自主性模型訓練石油和天然氣儲層模擬機器學習 (ML) 開發影片處理 AI/ML Web 服務

檢視完整的 NC_A100_v4 系列頁面

部分 數量
計數單位
規格
SKU 識別碼、效能單位等。
處理器 24 - 96 個 vCPU AMD EPYC 7V13 (Milan) [x86-64]
記憶體 220 - 880 GiB
本機存放區 1 個暫存磁碟
1-4 個 NVMe 磁碟
64 - 256 GiB 暫存磁碟
960 GiB NVMe 磁碟
遠端儲存體 8 - 32 個磁碟 30000 - 120000 IOPS
1000 - 4000 MBps
網路 2 - 8 個 NIC 20,000 - 80,000 Mbps
加速器 1 - 4 個 GPU Nvidia PCIe A100 GPU (80GB)

上一代 NC 系列數列

如需較舊的大小,請參閱上一代大小

其他大小資訊

所有可用大小清單:大小

定價計算機:定價計算機

磁碟類型的相關資訊:磁碟類型

下一步

深入了解 Azure 計算單位 (ACU) 如何協助您比較各個 Azure SKU 的計算效能。

請參閱 Azure 專用主機,讓實體伺服器能夠裝載指派給一個 Azure 訂用帳戶的一或多部虛擬機器。

了解如何監視 Azure 虛擬機器