다음을 통해 공유


'ND' 하위 제품군 GPU 가속 가상 머신 크기 시리즈

적용 대상: ✔️ Linux VM ✔️ Windows VM ✔️ 유연한 확장 집합 ✔️ 균일한 확장 집합

VM 크기 시리즈의 'ND' 제품군은 Azure의 GPU 가속 VM 인스턴스 중 하나입니다. 강력한 GPU 가속의 이점을 활용하는 딥 러닝, AI 연구 및 고성능 컴퓨팅 작업을 위해 설계되었습니다. NVIDIA GPU가 장착된 ND 시리즈 VM은 복잡한 기계 학습 모델의 학습 및 유추를 위한 특수 기능을 제공하여 보다 빠른 계산과 대규모 데이터 세트의 효율적인 처리를 지원합니다. 따라서 AI 개발 및 시뮬레이션 분야의 학술 및 상용 애플리케이션에 특히 적합합니다. 여기서 최첨단 GPU 기술은 신경망 처리 및 기타 계산 집약적인 작업에서 빠르고 정확한 결과를 달성하는 데 중요합니다.

워크로드 및 사용 사례

AI 및 딥 러닝: ND 제품군 VM은 복잡한 딥 러닝 모델을 학습하고 배포하는 데 이상적입니다. 강력한 NVIDIA GPU가 탑재되어 대규모 데이터 세트로 광범위한 신경망 학습을 처리하는 데 필요한 계산 성능을 제공하여 학습 시간을 크게 단축합니다.

HPC(고성능 컴퓨팅): ND 제품군 VM은 GPU 가속이 필요한 HPC 애플리케이션에 적합합니다. 과학 연구, 엔지니어링 시뮬레이션(예: 전산 유체 역학) 및 게놈 처리와 같은 분야는 ND 시리즈 VM의 높은 처리량 계산 기능의 이점을 활용할 수 있습니다.

그래픽 렌더링: ND 제품군의 GPU는 애니메이션 및 동영상 프로덕션을 위한 실시간 렌더링뿐만 아니라 가상 현실 환경을 위한 고품질 시뮬레이션을 비롯한 그래픽 집약적인 작업에 적합합니다.

원격 시각화: ND 제품군 VM은 데이터 집약적인 작업의 원격 시각화에 사용할 수 있습니다. 여기서는 클라우드를 통해 복잡한 시각화를 처리하고 렌더링하는 데 고급 GPU 기능이 필요하며 성능이 떨어지는 클라이언트 컴퓨터에서도 액세스가 용이합니다.

제품군 시리즈

ND-series V1

ND 시리즈 가상 머신은 AI 및 딥러닝 워크로드용으로 설계된 GPU 제품군에 새로 추가됩니다. 이 가상 머신은 교육 및 유추에 우수한 성능을 제공합니다. ND 인스턴스는 NVIDIA Tesla P40 GPU 및 Intel Xeon E5-2690 v4(Broadwell) CPU로 구동됩니다. 이 인스턴스는 단정밀도 부동 소수점 작업, Microsoft Cognitive Toolkit, TensorFlow, Caffe 및 기타 프레임워크를 활용하는 AI 워크로드에 우수한 성능을 제공합니다. ND 시리즈는 또한 훨씬 큰 GPU 메모리 크기(24GB)를 제공하므로 더 큰 규모의 신경망 모델에도 적합합니다. NC 시리즈와 마찬가지로 ND 시리즈는 RDMA를 통한 대기 시간이 낮고 처리량이 높은 보조 네트워크 및 InfiniBand 연결과 함께 구성할 수 있으므로 여러 GPU를 사용한 대규모 교육 작업을 실행할 수 있습니다.

전체 ND-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 6~24vCore Intel® Xeon® E5-2690 v4(Broadwell)
메모리 112~448GiB
데이터 디스크 12 - 32디스크 20000~80000IOPS / 200~800MBps
네트워크 4~8NIC
바로 연결 1~4GPU NVIDIA Tesla P40 24GiB
VM당 24~96GiB

NDv2 시리즈

NDv2 시리즈 가상 머신은 가장 까다로운 GPU 가속 AI, 기계 학습, 시뮬레이션 및 HPC 워크로드의 요구 사항에 맞게 설계된 GPU 제품군에 새롭게 추가되었습니다. NDv2는 NVIDIA Tesla V100 NVLINK에 연결된 8개의 GPU로 구동되며, 각 GPU의 메모리는 32GB입니다. 또한 각 NDv2 VM은 40개의 non-HyperThreaded Intel Xeon Platinum 8168 (Skylake) 코어 및 672GiB의 시스템 메모리를 갖추고 있습니다. NDv2 인스턴스는 CUDA GPU에 최적화된 계산 커널 및 GPU 가속화를 지원하는 많은 AI, ML, 분석 도구(예: TensorFlow, Pytorch, Caffe, RAPIDS, 다른 프레임워크)를 활용하여 HPC 및 AI 워크로드에 탁월한 성능을 제공합니다. 특히, NDv2는 계산 집약적인 스케일 업(VM당 8개의 GPU 활용) 워크로드와 스케일 아웃(여러 VM을 함께 활용) 워크로드에 모두 적합하게 빌드되었습니다. 현재 NDv2 시리즈는 HPC VM의 HB 시리즈와 유사한 100기가비트 InfiniBand EDR 백엔드 네트워킹을 지원하여 AI 및 ML에 대한 분산 학습을 포함한 병렬 시나리오에 대한 고성능 클러스터링이 가능합니다. 해당 백엔드 네트워크는 NVIDIA의 NCCL2 라이브러리에서 사용되는 프로토콜을 포함하여 모든 주요 InfiniBand 프로토콜을 지원하여 GPU가 원활하게 클러스터링할 수 있습니다.

전체 NDv2-series 페이지 보기

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 40vCore Intel® Xeon® Platinum 8168(Skylake)
메모리 672GiB
데이터 디스크 32디스크 80000IOPS / 800MBps
네트워크 8NIC 24000Mbps
바로 연결 8GPU NVIDIA V100(NVLink) 32GiB
VM당 256GiB

ND_A100_v4-series

ND A100 v4 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새롭게 추가된 주력 제품입니다. 고급 딥 러닝 학습과 긴밀하게 결합된 스케일 업 및 스케일 아웃 HPC 워크로드를 위해 설계되었습니다. ND A100 v4 시리즈는 단일 VM과 8개의 NVIDIA Ampere A100 40GB Tensor Core GPU로 시작합니다. ND A100 v4 기반 배포는 VM당 1.6TB/초의 상호 연결 대역폭을 사용하여 수천 개의 GPU로 스케일 업할 수 있습니다. VM 내의 각 GPU에는 고유한 전용 토폴로지 독립적 200GB/초 NVIDIA Mellanox HDR InfiniBand 연결이 제공됩니다. 이러한 연결은 동일한 가상 머신 확장 집합을 차지하는 VM 간에 자동으로 구성되며 GPUDirect RDMA를 지원합니다. 각 GPU는 VM 내의 통신을 위한 NVLINK 3.0 연결을 제공하며, 인스턴스는 96 물리적 2세대 AMD Epyc™ 7V12(Rome) CPU 코어에서 지원됩니다. 이러한 인스턴스는 GPU 가속화를 '기본으로' 지원하는 많은 AI, ML, 분석 도구(예: TensorFlow, Pytorch, Caffe, RAPIDS, 다른 프레임워크)에 탁월한 성능을 제공합니다. 또한 스케일 아웃 InfiniBand 상호 연결은 GPU의 원활한 클러스터링을 위해 NVIDIA의 NCCL2 통신 라이브러리를 기반으로 하는 대규모 기존 AI 및 HPC 도구 집합에서 지원됩니다.

전체 ND_A100_v4-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 96vCore AMD Epyc™ 7V12(Rome)
메모리 900GiB
데이터 디스크 32디스크 80000IOPS / 800MBps
네트워크 8NIC 24000Mbps
바로 연결 8GPU NVIDIA A100(NVLink) 40GiB
VM당 320GiB

NDm_A100_v4 시리즈

NDm A100 v4 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새롭게 추가된 주력 제품입니다. 고급 딥 러닝 학습과 긴밀하게 결합된 스케일 업 및 스케일 아웃 HPC 워크로드를 위해 설계되었습니다. NDm A100 v4 시리즈는 단일 VM과 8개의 NVIDIA Ampere A100 80GB Tensor Core GPU로 시작합니다. NDm A100 v4 기반 배포는 VM당 1.6TB/초의 상호 연결 대역폭을 사용하여 수천 개의 GPU로 스케일 업할 수 있습니다. VM 내의 각 GPU에는 고유한 전용 토폴로지 독립적 200GB/초 NVIDIA Mellanox HDR InfiniBand 연결이 제공됩니다. 이러한 연결은 동일한 가상 머신 확장 집합을 차지하는 VM 간에 자동으로 구성되며 GPUDirect RDMA를 지원합니다. 각 GPU는 VM 내의 통신을 위한 NVLINK 3.0 연결을 제공하며, 인스턴스는 96 물리적 2세대 AMD Epyc™ 7V12(Rome) CPU 코어에서 지원됩니다. 이러한 인스턴스는 GPU 가속화를 '기본으로' 지원하는 많은 AI, ML, 분석 도구(예: TensorFlow, Pytorch, Caffe, RAPIDS, 다른 프레임워크)에 탁월한 성능을 제공합니다. 또한 스케일 아웃 InfiniBand 상호 연결은 GPU의 원활한 클러스터링을 위해 NVIDIA의 NCCL2 통신 라이브러리를 기반으로 하는 대규모 기존 AI 및 HPC 도구 집합에서 지원됩니다.

전체 NDm_A100_v4-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 96vCore AMD Epyc™ 7V12(Rome)
메모리 900GiB
데이터 디스크 32디스크 80000IOPS / 800MBps
네트워크 8NIC 24000Mbps
바로 연결 8GPU NVIDIA A100(NVLink) 80GiB
VM당 640GiB

ND_H100_v5-series

ND H100 v5 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새롭게 추가된 주력 제품입니다. 고급 딥 러닝 학습과 긴밀하게 결합된 스케일 업 및 스케일 아웃 생성 AI 및 HPC 워크로드를 위해 설계되었습니다. ND H100 v5 시리즈는 단일 VM과 8개의 NVIDIA H100 Tensor Core GPU로 시작합니다. ND H100 v5 기반 배포는 VM당 3.2Tb/s의 상호 연결 대역폭을 사용하여 수천 개의 GPU로 스케일 업할 수 있습니다. VM 내의 각 GPU에는 고유한 전용 토폴로지 독립적 400Gb/s NVIDIA Quantum-2 CX7 InfiniBand 연결이 제공됩니다. 이러한 연결은 동일한 가상 머신 확장 집합을 차지하는 VM 간에 자동으로 구성되며 GPUDirect RDMA를 지원합니다. 각 GPU는 VM 내에서 통신하기 위한 NVLINK 4.0 연결을 제공하며 인스턴스는 96개의 물리적 4세대 Intel Xeon 확장 가능 프로세서 코어에서 지원됩니다. 이러한 인스턴스는 GPU 가속화를 ‘기본으로’ 지원하는 많은 AI, ML, 분석 도구(예: TensorFlow, Pytorch, Caffe, RAPIDS, 다른 프레임워크)에 탁월한 성능을 제공합니다. 또한 스케일 아웃 InfiniBand 상호 연결은 GPU의 원활한 클러스터링을 위해 NVIDIA의 NCCL 통신 라이브러리를 기반으로 하는 대규모 기존 AI 및 HPC 도구 집합에서 지원됩니다.

전체 ND_H100_v5-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 96vCore Intel® Xeon® Scalable(Sapphire Rapids)
메모리 1900GiB
데이터 디스크 32디스크 40800IOPS / 612MBps
네트워크 8NIC 80000Mbps
바로 연결 8GPU NVIDIA H100(NVLink) 80GiB
VM당 640GiB

ND_MI300X_v5-series

ND MI300X v5 시리즈 VM(가상 머신)은 Azure GPU 제품군에 추가된 새로운 주력 제품입니다. 고급 딥 러닝 학습과 긴밀하게 결합된 스케일 업 및 스케일 아웃 생성형 AI 및 HPC 워크로드를 위해 설계되었습니다.

ND MI300X v5 시리즈 VM은 총 96개의 물리적 코어에 대해 8개의 AMD Instinct MI300 GPU와 2개의 4세대 Intel Xeon Scalable 프로세서로 시작합니다. 그런 다음 VM 내의 각 GPU는 GPU당 128GB/s 대역폭 및 896GB/s 총 대역폭을 갖춘 4세대 AMD Infinity Fabric 링크를 통해 서로 연결됩니다.

ND MI300X v5 기반 배포는 VM당 3.2Tb/s의 상호 연결 대역폭으로 최대 수천 개의 GPU로 스케일 업할 수 있습니다. VM 내의 각 GPU에는 고유한 전용 토폴로지 독립적 400Gb/s NVIDIA Quantum-2 CX7 InfiniBand 연결이 제공됩니다. 이러한 연결은 동일한 가상 머신 확장 집합을 차지하는 VM 간에 자동으로 구성되며 GPUDirect RDMA를 지원합니다.

이러한 인스턴스는 GPU 가속화를 '기본으로' 지원하는 많은 AI, ML, 분석 도구(예: TensorFlow, Pytorch, 다른 프레임워크)에 탁월한 성능을 제공합니다. 또한 스케일 아웃 InfiniBand 상호 연결은 GPU의 원활한 클러스터링을 위해 AMD의 RCCL(ROCm Communication Collectives Library)을 기반으로 빌드된 대규모 기존 AI 및 HPC 도구 집합을 지원합니다.

전체 ND_MI300X_v5 시리즈 페이지를 확인합니다.

요소 수량
개수 단위
사양
SKU ID, 성능 단위 등
프로세서 96개 vCore Intel® Xeon® Scalable(Sapphire Rapids)
메모리 1850GiB
로컬 스토리지 1개 디스크 1000GiB
원격 디스크 32개 디스크 40800 IOPS
612MBps
네트워크 8NIC 80000Mbps
가속기 GPU 8개 AMD MI300X 192GiB
VM당 1535GiB

이전 세대 ND 제품군 시리즈

이전 크기의 경우 이전 세대 크기를 참조 하세요.

기타 사이즈 정보

사용 가능한 모든 크기 목록: 크기

가격 계산기: 가격 계산기

디스크 유형에 대한 정보: 디스크 유형

다음 단계

ACU(Azure 컴퓨팅 단위)가 Azure SKU 간의 Compute 성능을 비교하는 데 어떻게 도움을 줄 수 있는지 알아봅니다.

하나의 Azure 구독에 할당된 하나 이상의 가상 머신을 호스팅할 수 있는 실제 서버에 대해서는 Azure Dedicated Host를 확인합니다.

Azure Virtual Machines 모니터링 방법을 알아봅니다.