Partilhar via


Série de tamanho de máquina virtual acelerada por GPU da subfamília 'ND'

Aplica-se a: ✔️ VMs ✔️ Linux VMs ✔️ do Windows Conjuntos ✔️ de escala flexíveis Conjuntos de balanças uniformes

A família 'ND' de séries de tamanho de VM é uma das instâncias de VM aceleradas por GPU do Azure. Eles são projetados para aprendizado profundo, pesquisa de IA e tarefas de computação de alto desempenho que se beneficiam da poderosa aceleração da GPU. Equipadas com GPUs NVIDIA, as VMs da série ND oferecem recursos especializados para treinamento e inferência de modelos complexos de aprendizado de máquina, facilitando cálculos mais rápidos e manipulação eficiente de grandes conjuntos de dados. Isso os torna particularmente adequados para aplicações acadêmicas e comerciais em desenvolvimento e simulação de IA, onde a tecnologia de ponta da GPU é crucial para alcançar resultados rápidos e precisos no processamento de redes neurais e outras tarefas computacionalmente intensivas.

Cargas de trabalho e casos de uso

IA e Deep Learning: as VMs da família ND são ideais para treinamento e implantação de modelos complexos de deep learning. Equipadas com poderosas GPUs NVIDIA, elas fornecem o poder computacional necessário para lidar com extenso treinamento de rede neural com grandes conjuntos de dados, reduzindo significativamente os tempos de treinamento.

Computação de alto desempenho (HPC): as VMs da família ND são adequadas para aplicações HPC que requerem aceleração de GPU. Campos como pesquisa científica, simulações de engenharia (por exemplo, dinâmica de fluidos computacional) e processamento genômico podem se beneficiar dos recursos de computação de alto rendimento das VMs da série ND.

Série em família

Série ND V1

As máquinas virtuais da série ND são uma nova adição à família de GPUs projetada para cargas de trabalho de IA e Deep Learning. Eles oferecem excelente desempenho para treinamento e inferência. As instâncias ND são alimentadas por GPUs NVIDIA Tesla P40 e CPUs Intel Xeon E5-2690 v4 (Broadwell). Essas instâncias fornecem excelente desempenho para operações de ponto flutuante de precisão única, para cargas de trabalho de IA utilizando o Microsoft Cognitive Toolkit, TensorFlow, Caffe e outras estruturas. A série ND também oferece um tamanho de memória GPU muito maior (24 GB), que permite adaptar modelos de rede neuronal muito maiores. Como a série NC, a série ND oferece uma configuração com uma rede secundária de baixa latência, alta taxa de transferência por meio de RDMA e conectividade InfiniBand para que você possa executar trabalhos de treinamento em grande escala abrangendo muitas GPUs.

Veja a página completa da série ND.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 6 - 24 vCPUs Intel Xeon E5-2690 v4 (Broadwell) [x86-64]
Memória 112 - 448 GiB
Armazenamento Local 1 Disco 736 - 2948 GiB
Armazenamento remoto 12 - 32 discos 20000 - 80000 IOPS
200 - 800 MBps
Rede 4 - 8 NICs
Aceleradores 1 - 4 GPUs GPU Nvidia Tesla P40 (24GB)

Série NDv2

A máquina virtual da série NDv2 é uma nova adição à família de GPUs projetada para as necessidades das cargas de trabalho mais exigentes de IA, aprendizado de máquina, simulação e HPC aceleradas por GPU.

O NDv2 é alimentado por 8 GPUs NVIDIA Tesla V100 conectadas NVLINK, cada uma com 32 GB de memória GPU. Cada VM NDv2 também tem 40 núcleos Intel Xeon Platinum 8168 (Skylake) não HyperThreaded e 672 GiB de memória do sistema.

As instâncias NDv2 oferecem excelente desempenho para cargas de trabalho de HPC e IA utilizando kernels de computação otimizados para GPU CUDA e as muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas.

Essencialmente, o NDv2 foi criado para cargas de trabalho de scale-up computacionalmente intensas (aproveitamento de 8 GPUs por VM) e scale-out (aproveitamento de várias VMs trabalhando juntas). A série NDv2 agora suporta rede de back-end EDR InfiniBand de 100 Gigabits, semelhante à disponível na série HB de VM HPC, para permitir clustering de alto desempenho para cenários paralelos, incluindo treinamento distribuído para IA e ML. Esta rede de back-end suporta todos os principais protocolos InfiniBand, incluindo aqueles empregados pelas bibliotecas NCCL2 da NVIDIA, permitindo o clustering contínuo de GPUs.

Veja a página completa da série NDv2

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 40 vCPUs Intel Xeon Platina 8168 (Skylake) [x86-64]
Memória 672 GiB
Armazenamento Local 1 Disco 2948 GiB
Armazenamento remoto 32 discos 80000 IOPS
800 MBps
Rede 8 NICs 24000 Mbps
Aceleradores Nenhuma

Série ND_A100_v4

A máquina virtual (VM) da série ND A100 v4 é uma nova adição emblemática à família de GPUs do Azure. Esses tamanhos são projetados para treinamento de Deep Learning high-end e cargas de trabalho HPC de expansão e expansão fortemente acopladas.

A série ND A100 v4 começa com uma única VM e oito GPUs NVIDIA Ampere A100 40GB Tensor Core. As implantações baseadas em ND A100 v4 podem ser dimensionadas para milhares de GPUs com 1,6 TB/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 200 GB/s NVIDIA Mellanox HDR InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo Conjunto de Escala de Máquina Virtual do Azure e dão suporte a RDMA direto de GPU.

Cada GPU possui conectividade NVLINK 3.0 para comunicação dentro da VM com 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Roma) de 2ª geração atrás deles.

Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável suporta um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL2 da NVIDIA para clustering contínuo de GPUs.

Veja a página completa da série ND_A100_v4.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96 vCPUs AMD EPYC 7V12 (Roma) [x86-64]
Memória 900 GiB
Armazenamento Local 1 Disco 6000 GiB
Armazenamento remoto 32 discos 80000 IOPS
800 MBps
Rede 8 NICs 24000 Mbps
Aceleradores 8 GPUs GPU Nvidia A100 (40GB)

Série NDm_A100_v4

A máquina virtual (VM) da série NDm A100 v4 é uma nova adição emblemática à família de GPUs do Azure. Esses tamanhos são projetados para treinamento de Deep Learning high-end e cargas de trabalho HPC de expansão e expansão fortemente acopladas.

A série NDm A100 v4 começa com uma única VM e oito GPUs NVIDIA Ampere A100 80GB Tensor Core. As implantações baseadas em NDm A100 v4 podem ser dimensionadas para milhares de GPUs com 1,6 TB/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 200 GB/s NVIDIA Mellanox HDR InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo Conjunto de Escala de Máquina Virtual do Azure e dão suporte a RDMA direto de GPU.

Cada GPU possui conectividade NVLINK 3.0 para comunicação dentro da VM com 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Roma) de 2ª geração atrás deles.

Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável suporta um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL2 da NVIDIA para clustering contínuo de GPUs.

Veja a página completa da série NDm_A100_v4.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96 vCPUs AMD EPYC 7V12 (Roma) [x86-64]
Memória GiB de 1900
Armazenamento Local 1 Disco 6400 GiB
Armazenamento remoto 32 discos 80000 IOPS
800 MBps
Rede 8 NICs 24000 Mbps
Aceleradores 8 GPUs GPU Nvidia A100 (80GB)

Série ND_H100_v5

A máquina virtual (VM) da série ND H100 v5 é uma nova adição emblemática à família de GPUs do Azure. Esta série foi projetada para treinamento de Deep Learning high-end e cargas de trabalho de IA generativa e HPC fortemente acopladas.

A série ND H100 v5 começa com uma única VM e oito GPUs NVIDIA H100 Tensor Core. As implantações baseadas em ND H100 v5 podem ser dimensionadas para milhares de GPUs com 3,2 Tbps de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPU Direct RDMA.

Cada GPU possui conectividade NVLINK 4.0 para comunicação dentro da VM, e a instância tem 96 núcleos físicos de processador escalável Intel Xeon Xeon de quarta geração.

Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável suporta um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL da NVIDIA para clustering contínuo de GPUs.

Veja a página completa da série ND_H100_v5.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96 vCPUs Intel Xeon (corredeiras de safira) [x86-64]
Memória GiB de 1900
Armazenamento Local 1 Disco 28000 GiB
Armazenamento remoto 32Discos
Rede 8 NICs
Aceleradores 8 GPUs GPU Nvidia H100 (80GB)

Série ND_MI300X_v5

A máquina virtual (VM) da série ND MI300X v5 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho de IA generativa e HPC fortemente acopladas.

A VM da série ND MI300X v5 começa com oito GPUs AMD Instinct MI300 e dois processadores escaláveis Intel Xeon de quarta geração para um total de 96 núcleos físicos. Cada GPU dentro da VM é então conectada uma à outra por meio de links AMD Infinity Fabric de 4ª geração com largura de banda de 128 GB/s por GPU e largura de banda agregada de 896 GB/s.

As implantações baseadas em ND MI300X v5 podem ser dimensionadas para milhares de GPUs com 3,2 Tb/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA.

Essas instâncias oferecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU "pronta para uso", como TensorFlow, Pytorch e outras estruturas. Além disso, a interconexão InfiniBand escalável suporta um grande conjunto de ferramentas de IA e HPC existentes que são construídas na ROCm Communication Collectives Library (RCCL) da AMD para clustering contínuo de GPUs.

Veja a página completa da série ND_MI300X_v5.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96 vCPUs Intel Xeon (corredeiras de safira) [x86-64]
Memória GiB de 1850
Armazenamento Local 1 disco temporário
8 discos NVMe
Disco temporário de 1000 GiB
Discos NVMe de 28000 GiB
Armazenamento remoto 32 discos 80000 IOPS
1200 MBps
Rede 8 NICs
Aceleradores 8 GPUs GPU AMD Instinct MI300X (192GB)

Série da família ND da geração anterior

Para tamanhos mais antigos, consulte Tamanhos da geração anterior.

Outras informações sobre o tamanho

Lista de todos os tamanhos disponíveis: Tamanhos

Calculadora de Preços: Calculadora de Preços

Informações sobre tipos de disco: Tipos de disco

Próximos passos

Saiba mais sobre como as unidades de computação do Azure (ACU) podem ajudá-lo a comparar o desempenho da computação entre as SKUs do Azure.

Confira os Hosts Dedicados do Azure para servidores físicos capazes de hospedar uma ou mais máquinas virtuais atribuídas a uma assinatura do Azure.

Saiba como Monitorar máquinas virtuais do Azure.