다음을 통해 공유


'NC' 하위 제품군 GPU 가속 VM 크기 시리즈

적용 대상: ✔️ Linux VM ✔️ Windows VM ✔️ 유연한 확장 집합 ✔️ 균일한 확장 집합

VM 크기 시리즈의 'NC' 하위 제품군은 Azure의 GPU 최적화 VM 인스턴스 중 하나입니다. AI 및 기계 학습 모델 학습, HPC(고성능 컴퓨팅), 그래픽 집약적인 애플리케이션과 같은 컴퓨팅 집약적인 워크로드를 위해 설계되었습니다. 강력한 NVIDIA GPU가 탑재된 NC 시리즈 VM은 딥 러닝, 과학 시뮬레이션, 3D 렌더링 등 엄청난 계산 성능이 필요한 프로세스에 상당한 가속을 제공합니다. 따라서 렌더링 및 처리 속도가 생산성과 혁신에 중요한 기술 연구, 엔터테인먼트, 엔지니어링과 같은 산업에 특히 적합합니다.

워크로드 및 사용 사례

AI 및 기계 학습: NC 시리즈 VM은 복잡한 기계 학습 모델을 학습하고 AI 애플리케이션을 실행하는 데 이상적입니다. NVIDIA GPU는 일반적으로 딥 러닝 및 기타 집중적인 학습 작업과 관련된 계산에 상당한 가속을 제공합니다.

HPC(고성능 컴퓨팅): 이러한 VM은 과학 시뮬레이션, 렌더링 및 GPU로 가속화할 수 있는 기타 HPC 워크로드에 적합합니다. 엔지니어링, 의학 연구, 재무 모델링과 같은 분야에서는 계산 요구 사항을 효율적으로 처리하기 위해 NC 시리즈 VM을 사용하는 경우가 많습니다.

그래픽 렌더링: NC 시리즈 VM은 동영상 편집, 3D 렌더링, 실시간 그래픽 처리 등 그래픽 집약적인 애플리케이션에도 사용됩니다. 게임 개발, 영화 프로덕션 등의 산업에서 특히 유용합니다.

원격 시각화: CAD 및 시각 효과와 같은 고급 시각화 기능이 필요한 애플리케이션의 경우 NC 시리즈 VM은 필요한 GPU 성능을 원격으로 제공하여 사용자가 강력한 로컬 하드웨어 없이도 복잡한 그래픽 작업을 수행할 수 있도록 합니다.

시뮬레이션 및 분석: 이러한 VM은 GPU 기능을 통해 처리 시간을 크게 단축할 수 있는 자동차 크래시 테스트, 전산 유체 역학, 날씨 모델링과 같은 분야의 상세한 시뮬레이션 및 분석에도 적합합니다.

제품군 시리즈

NC-series V1

NC 시리즈 VM은 NVIDIA Tesla K80 카드 및 Intel Xeon E5-2690 v3(Haswell) 프로세서를 기반으로 합니다. 사용자는 에너지 탐색 애플리케이션, 충돌 시뮬레이션, 광선 추적 렌더링, 딥러닝 등에 CUDA를 활용하여 데이터를 더 빠르게 처리할 수 있습니다. NC24r 구성은, 긴밀하게 결합된 병렬 컴퓨팅 워크로드용으로 최적화된 대기 시간이 짧고 처리량이 높은 네트워크 인터페이스를 제공합니다.

전체 NC-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 6~24vCore Intel® Xeon® E5-2690 v3(Haswell)
메모리 56~224GiB
데이터 디스크 24~64디스크
네트워크 1~4NIC
바로 연결 1~4GPU NVIDIA Tesla K80 12GiB
VM당 12~48GiB

NCads_-_H100_v5-series

NCads H100 v5 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새로 추가되었습니다. 실제 Azure Applied AI 학습 및 일괄 처리 유추 워크로드에 이 시리즈를 사용할 수 있습니다. NCads H100 v5 시리즈 가상 머신은 NVIDIA H100 NVL GPU 및 4세대 AMD EPYC™ Genoa 프로세서로 구동됩니다. VM에는 최대 2개의 NVIDIA H100 NVL GPU(각각 94GB 메모리 포함), 최대 96개의 비다중 스레드 AMD EPYC Genoa 프로세서 코어 및 640GiB의 시스템 메모리가 탑재되어 있습니다.

전체 NCads_-_H100_v5-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 40~80vCore AMD EPYC™(Genoa)
메모리 320~640GiB
데이터 디스크 8~16디스크 100000~240000IOPS / 3000~7000MBps
네트워크 2 - 4NIC 40000~80000Mbps
바로 연결 1~2GPU NVIDIA H100 NVL 94GiB
VM당 94~188GiB

NCv2 시리즈

NCv2 시리즈 VM은 NVIDIA Tesla P100 GPU로 구동됩니다. 이러한 GPU는 NC 시리즈보다 2배를 초과하는 계산 성능을 제공할 수 있습니다. 고객은 저수지 모델링, DNA 배열, 단백질 분석, 몬테카를로 시뮬레이션 등 기존 HPC 워크로드에 이러한 업데이트된 GPU를 활용할 수 있습니다. GPU 외에 NCv2 시리즈 VM은 Intel Xeon E5-2690 v4(Broadwell) CPU로도 구동됩니다. NC24rs v2 구성은 긴밀하게 결합된 병렬 컴퓨팅 작업에 최적화된 짧은 대기 시간과 높은 처리량의 네트워크 인터페이스를 제공합니다.

전체 NCv2-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 6~24vCore Intel® Xeon® E5-2690 v4(Broadwell)
메모리 112~448GiB
데이터 디스크 12 - 32디스크 20000~80000IOPS / 200~800MBps
네트워크 4~8NIC
바로 연결 1~4GPU NVIDIA Tesla P100 16GiB
VM당 16~64GiB

NCv3 시리즈

NCv3 시리즈 VM은 NVIDIA Tesla V100 GPU로 구동됩니다. 이러한 GPU는 NCv2 시리즈보다 1.5배의 계산 성능을 제공할 수 있습니다. 고객은 저수지 모델링, DNA 배열, 단백질 분석, 몬테카를로 시뮬레이션 등 기존 HPC 워크로드에 이러한 업데이트된 GPU를 활용할 수 있습니다. NC24rs v3 구성은 긴밀하게 결합된 병렬 컴퓨팅 작업에 최적화된 짧은 대기 시간과 높은 처리량의 네트워크 인터페이스를 제공합니다. GPU에 더해 NCv3 시리즈 VM은 Intel Xeon E5-2690 v4 (Broadwell) CPU로도 구동됩니다.

전체 NCv3-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 6~24vCore Intel® Xeon® E5-2690 v4(Broadwell)
메모리 112~448GiB
데이터 디스크 12 - 32디스크 20000~80000IOPS / 200~800MBps
네트워크 4~8NIC
바로 연결 1~4GPU NVIDIA Tesla V100 16GiB
VM당 16~64GiB

NCasT4_v3 시리즈

NCasT4_v3 시리즈 가상 머신은 NVIDIA Tesla T4 GPU 및 AMD EPYC 7V12(Rome) CPU로 구동됩니다. VM은 최대 4개의 NVIDIA T4 GPU와 각각 16GB의 메모리, 최대 64개의 비 멀티스레드 AMD EPYC 7V12(Rome) 프로세서 코어(기본 주파수 2.45GHz, 전체 코어 최대 주파수 3.1GHz 및 단일 코어 피크를 갖추고 있습니다. 3.3GHz의 주파수) 및 440GiB의 시스템 메모리. 이러한 가상 머신은 사용자 생성 요청의 실시간 추론 또는 NVIDIA의 GRID 드라이버 및 가상 GPU 기술을 사용하는 대화형 그래픽 및 시각화 워크로드와 같은 AI 서비스 배포에 이상적입니다. CUDA, TensorRT, Caffe, ONNX 및 기타 프레임워크를 기반으로 하는 표준 GPU 컴퓨팅 워크로드 또는 OpenGL 및 DirectX를 기반으로 하는 GPU 가속 그래픽 애플리케이션을 NCasT4_v3 시리즈에서 사용자와 가까운 위치에서 경제적으로 배포할 수 있습니다.

전체 NCasT4_v3-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 4~64vCore AMD EPYC™ 7V12(Rome)
메모리 28~440GiB
데이터 디스크 8~32디스크 20000~80000IOPS / 200~800MBps
네트워크 2~8NIC 8000~32000Mbps
바로 연결 1~4GPU NVIDIA Tesla T4 16GiB
VM당 16~64GiB

NC_A100_v4 시리즈

NC A100 v4 시리즈 VM(가상 머신)은 Azure GPU 제품군에 새롭게 추가된 제품입니다. 실제 Azure Applied AI 학습 및 일괄 처리 유추 워크로드에 이 시리즈를 사용할 수 있습니다. NC A100 v4 시리즈는 NVIDIA A100 PCIe GPU 및 3세대 AMD EPYC™ 7V13(밀라노) 프로세서로 구동됩니다. VM에는 최대 4개의 NVIDIA A100 PCIe GPU(각각 80GB 메모리 포함), 최대 96개의 비다중 스레드 AMD EPYC Milan 프로세서 코어 및 880GiB의 시스템 메모리가 탑재되어 있습니다.

전체 NC_A100_v4-series 페이지 보기.

요소 수량
개수 단위
사양
SKU ID, 성능 단위
프로세서 24~96vCore EPYC™ 7V13(Milan)
메모리 220~880GiB
데이터 디스크 8~32디스크 30000~120000IOPS / 1000~4000MBps
네트워크 2~8NIC 20000~80000Mbps
바로 연결 1~4GPU NVIDIA A100(PCIe) 80GiB
VM당 80~320GiB

이전 세대 NC 제품군 시리즈

이전 크기의 경우 이전 세대 크기를 참조 하세요.

기타 사이즈 정보

사용 가능한 모든 크기 목록: 크기

가격 계산기: 가격 계산기

디스크 유형에 대한 정보: 디스크 유형

다음 단계

ACU(Azure 컴퓨팅 단위)가 Azure SKU 간의 Compute 성능을 비교하는 데 어떻게 도움을 줄 수 있는지 알아봅니다.

하나의 Azure 구독에 할당된 하나 이상의 가상 머신을 호스팅할 수 있는 실제 서버에 대해서는 Azure Dedicated Host를 확인합니다.

Azure Virtual Machines 모니터링 방법을 알아봅니다.