Partilhar via


Série de tamanho de máquina virtual acelerada por GPU da subfamília 'ND'

Aplica-se a: ✔️ VMs ✔️ Linux VMs ✔️ do Windows Conjuntos ✔️ de escala flexíveis Conjuntos de balanças uniformes

A família 'ND' de séries de tamanho de VM é uma das instâncias de VM aceleradas por GPU do Azure. Eles são projetados para aprendizado profundo, pesquisa de IA e tarefas de computação de alto desempenho que se beneficiam da poderosa aceleração da GPU. Equipadas com GPUs NVIDIA, as VMs da série ND oferecem recursos especializados para treinamento e inferência de modelos complexos de aprendizado de máquina, facilitando cálculos mais rápidos e manipulação eficiente de grandes conjuntos de dados. Isso os torna particularmente adequados para aplicações acadêmicas e comerciais em desenvolvimento e simulação de IA, onde a tecnologia de ponta da GPU é crucial para alcançar resultados rápidos e precisos no processamento de redes neurais e outras tarefas computacionalmente intensivas.

Cargas de trabalho e casos de uso

IA e Deep Learning: as VMs da família ND são ideais para treinamento e implantação de modelos complexos de deep learning. Equipadas com poderosas GPUs NVIDIA, elas fornecem o poder computacional necessário para lidar com extenso treinamento de rede neural com grandes conjuntos de dados, reduzindo significativamente os tempos de treinamento.

Computação de alto desempenho (HPC): as VMs da família ND são adequadas para aplicações HPC que requerem aceleração de GPU. Campos como pesquisa científica, simulações de engenharia (por exemplo, dinâmica de fluidos computacional) e processamento genômico podem se beneficiar dos recursos de computação de alto rendimento das VMs da série ND.

Renderização gráfica: As GPUs da família ND as tornam uma ótima opção para tarefas com uso intensivo de gráficos, incluindo renderização em tempo real para animação e produção de vídeo, bem como simulações de alta fidelidade para ambientes de realidade virtual.

Visualização remota: as VMs da família ND podem ser usadas para visualização remota de tarefas com uso intensivo de dados, onde recursos de GPU high-end são necessários para processar e renderizar visualizações complexas na nuvem, facilitando o acesso de máquinas cliente menos poderosas.

Série em família

Série ND V1

As máquinas virtuais da série ND são uma nova adição à família de GPUs projetada para cargas de trabalho de IA e Deep Learning. Eles oferecem excelente desempenho para treinamento e inferência. As instâncias ND são alimentadas por GPUs NVIDIA Tesla P40 e CPUs Intel Xeon E5-2690 v4 (Broadwell). Essas instâncias fornecem excelente desempenho para operações de ponto flutuante de precisão única, para cargas de trabalho de IA utilizando o Microsoft Cognitive Toolkit, TensorFlow, Caffe e outras estruturas. A série ND também oferece um tamanho de memória GPU muito maior (24 GB), que permite adaptar modelos de rede neuronal muito maiores. Como a série NC, a série ND oferece uma configuração com uma rede secundária de baixa latência, alta taxa de transferência por meio de RDMA e conectividade InfiniBand para que você possa executar trabalhos de treinamento em grande escala abrangendo muitas GPUs.

Veja a página completa da série ND.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 6 - 24vCores Intel® Xeon® E5-2690 v4 (Broadwell)
Memória 112 - 448GiB
Discos de dados 12 - 32discos 20000 - 80000IOPS / 200 - 800MBps
Rede 4 - 8NICs
Aceleradores 1 - 4GPUs NVIDIA Tesla P40 24GiB
24 - 96GiB por VM

Série NDv2

A máquina virtual da série NDv2 é uma nova adição à família de GPUs projetada para as necessidades das cargas de trabalho mais exigentes de IA, aprendizado de máquina, simulação e HPC aceleradas por GPU. O NDv2 é alimentado por 8 GPUs NVIDIA Tesla V100 conectadas NVLINK, cada uma com 32 GB de memória GPU. Cada VM NDv2 também tem 40 núcleos Intel Xeon Platinum 8168 (Skylake) não HyperThreaded e 672 GiB de memória do sistema. As instâncias NDv2 oferecem excelente desempenho para cargas de trabalho de HPC e IA utilizando kernels de computação otimizados para GPU CUDA e as muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Essencialmente, o NDv2 foi criado para cargas de trabalho de scale-up computacionalmente intensas (aproveitamento de 8 GPUs por VM) e scale-out (aproveitamento de várias VMs trabalhando juntas). A série NDv2 agora suporta rede de back-end EDR InfiniBand de 100 Gigabits, semelhante à disponível na série HB de VM HPC, para permitir clustering de alto desempenho para cenários paralelos, incluindo treinamento distribuído para IA e ML. Esta rede de back-end suporta todos os principais protocolos InfiniBand, incluindo aqueles empregados pelas bibliotecas NCCL2 da NVIDIA, permitindo o clustering contínuo de GPUs.

Veja a página completa da série NDv2

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 40vCores Intel® Xeon® Platinum 8168 (Skylake)
Memória 672GiB
Discos de dados 32discos 80000IOPS / 800MBps
Rede 8 NICs 24000Mbps
Aceleradores 8 GPUs NVIDIA V100 (NVLink) 32GiB
256GiB por VM

Série ND_A100_v4

A máquina virtual (VM) da série ND A100 v4 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho HPC de expansão e expansão totalmente acopladas. A série ND A100 v4 começa com uma única VM e oito GPUs NVIDIA Ampere A100 40GB Tensor Core. As implantações baseadas em ND A100 v4 podem ser dimensionadas para milhares de GPUs com 1,6 TB/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 200 GB/s NVIDIA Mellanox HDR InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA. Cada GPU possui conectividade NVLINK 3.0 para comunicação dentro da VM, e a instância é apoiada por 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Roma) de 2ª geração. Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável é suportada por um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL2 da NVIDIA para clustering contínuo de GPUs.

Veja a página completa da série ND_A100_v4.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96vCores AMD Epyc™ 7V12 (Roma)
Memória 900GiB
Discos de dados 32discos 80000IOPS / 800MBps
Rede 8 NICs 24000Mbps
Aceleradores 8 GPUs NVIDIA A100 (NVLink) 40GiB
320GiB por VM

Série NDm_A100_v4

A máquina virtual (VM) da série NDm A100 v4 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho HPC de expansão e expansão totalmente acopladas. A série NDm A100 v4 começa com uma única VM e oito GPUs NVIDIA Ampere A100 80GB Tensor Core. As implantações baseadas em NDm A100 v4 podem ser dimensionadas para milhares de GPUs com 1,6 TB/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 200 GB/s NVIDIA Mellanox HDR InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA. Cada GPU possui conectividade NVLINK 3.0 para comunicação dentro da VM, e a instância é apoiada por 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Roma) de 2ª geração. Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável é suportada por um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL2 da NVIDIA para clustering contínuo de GPUs.

Veja a página completa da série NDm_A100_v4.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96vCores AMD Epyc™ 7V12 (Roma)
Memória 900GiB
Discos de dados 32discos 80000IOPS / 800MBps
Rede 8 NICs 24000Mbps
Aceleradores 8 GPUs NVIDIA A100 (NVLink) 80GiB
640GiB por VM

Série ND_H100_v5

A máquina virtual (VM) da série ND H100 v5 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho de IA generativa e HPC fortemente acopladas. A série ND H100 v5 começa com uma única VM e oito GPUs NVIDIA H100 Tensor Core. As implantações baseadas em ND H100 v5 podem ser dimensionadas para milhares de GPUs com 3,2 Tb/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA. Cada GPU possui conectividade NVLINK 4.0 para comunicação dentro da VM, e a instância é apoiada por 96 núcleos físicos de processador Intel Xeon Xeon Scalable de 4ª geração. Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável é suportada por um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL da NVIDIA para clustering contínuo de GPUs.

Veja a página completa da série ND_H100_v5.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96vCores Intel® Xeon® Scalable (corredeiras de safira)
Memória GiB de 1900
Discos de dados 32discos 40800IOPS / 612MBps
Rede 8 NICs 80000Mbps
Aceleradores 8 GPUs NVIDIA H100 (NVLink) 80GiB
640GiB por VM

Série ND_MI300X_v5

A máquina virtual (VM) da série ND MI300X v5 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho de IA generativa e HPC fortemente acopladas.

A VM da série ND MI300X v5 começa com oito GPUs AMD Instinct MI300 e dois processadores escaláveis Intel Xeon de quarta geração para um total de 96 núcleos físicos. Cada GPU dentro da VM é então conectada uma à outra por meio de links AMD Infinity Fabric de 4ª geração com largura de banda de 128 GB/s por GPU e largura de banda agregada de 896 GB/s.

As implantações baseadas em ND MI300X v5 podem ser dimensionadas para milhares de GPUs com 3,2 Tb/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA.

Essas instâncias oferecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU "pronta para uso", como TensorFlow, Pytorch e outras estruturas. Além disso, a interconexão InfiniBand escalável suporta um grande conjunto de ferramentas de IA e HPC existentes que são construídas na ROCm Communication Collectives Library (RCCL) da AMD para clustering contínuo de GPUs.

Veja a página completa da série ND_MI300X_v5.

Parte Quantidade
Unidades de contagem
Especificações
ID de SKU, Unidades de Desempenho, etc.
Processador 96 vCores Intel® Xeon® Scalable (corredeiras de safira)
Memória GiB de 1850
Armazenamento Local 1 Disco 1000 GiB
Discos remotos 32 discos 40800 IOPS
612 MBps
Rede 8 NICs 80000 Mbps
Aceleradores 8 GPUs AMD MI300X 192 GiB
1535 GiB por VM

Série da família ND da geração anterior

Para tamanhos mais antigos, consulte Tamanhos da geração anterior.

Outras informações sobre o tamanho

Lista de todos os tamanhos disponíveis: Tamanhos

Calculadora de Preços: Calculadora de Preços

Informações sobre tipos de disco: Tipos de disco

Próximos passos

Saiba mais sobre como as unidades de computação do Azure (ACU) podem ajudá-lo a comparar o desempenho da computação entre as SKUs do Azure.

Confira os Hosts Dedicados do Azure para servidores físicos capazes de hospedar uma ou mais máquinas virtuais atribuídas a uma assinatura do Azure.

Saiba como Monitorar máquinas virtuais do Azure.