Série de tamanho de máquina virtual acelerada por GPU da subfamília 'ND'
Aplica-se a: ✔️ VMs ✔️ Linux VMs ✔️ do Windows Conjuntos ✔️ de escala flexíveis Conjuntos de balanças uniformes
A família 'ND' de séries de tamanho de VM é uma das instâncias de VM aceleradas por GPU do Azure. Eles são projetados para aprendizado profundo, pesquisa de IA e tarefas de computação de alto desempenho que se beneficiam da poderosa aceleração da GPU. Equipadas com GPUs NVIDIA, as VMs da série ND oferecem recursos especializados para treinamento e inferência de modelos complexos de aprendizado de máquina, facilitando cálculos mais rápidos e manipulação eficiente de grandes conjuntos de dados. Isso os torna particularmente adequados para aplicações acadêmicas e comerciais em desenvolvimento e simulação de IA, onde a tecnologia de ponta da GPU é crucial para alcançar resultados rápidos e precisos no processamento de redes neurais e outras tarefas computacionalmente intensivas.
Cargas de trabalho e casos de uso
IA e Deep Learning: as VMs da família ND são ideais para treinamento e implantação de modelos complexos de deep learning. Equipadas com poderosas GPUs NVIDIA, elas fornecem o poder computacional necessário para lidar com extenso treinamento de rede neural com grandes conjuntos de dados, reduzindo significativamente os tempos de treinamento.
Computação de alto desempenho (HPC): as VMs da família ND são adequadas para aplicações HPC que requerem aceleração de GPU. Campos como pesquisa científica, simulações de engenharia (por exemplo, dinâmica de fluidos computacional) e processamento genômico podem se beneficiar dos recursos de computação de alto rendimento das VMs da série ND.
Renderização gráfica: As GPUs da família ND as tornam uma ótima opção para tarefas com uso intensivo de gráficos, incluindo renderização em tempo real para animação e produção de vídeo, bem como simulações de alta fidelidade para ambientes de realidade virtual.
Visualização remota: as VMs da família ND podem ser usadas para visualização remota de tarefas com uso intensivo de dados, onde recursos de GPU high-end são necessários para processar e renderizar visualizações complexas na nuvem, facilitando o acesso de máquinas cliente menos poderosas.
Série em família
Série ND V1
As máquinas virtuais da série ND são uma nova adição à família de GPUs projetada para cargas de trabalho de IA e Deep Learning. Eles oferecem excelente desempenho para treinamento e inferência. As instâncias ND são alimentadas por GPUs NVIDIA Tesla P40 e CPUs Intel Xeon E5-2690 v4 (Broadwell). Essas instâncias fornecem excelente desempenho para operações de ponto flutuante de precisão única, para cargas de trabalho de IA utilizando o Microsoft Cognitive Toolkit, TensorFlow, Caffe e outras estruturas. A série ND também oferece um tamanho de memória GPU muito maior (24 GB), que permite adaptar modelos de rede neuronal muito maiores. Como a série NC, a série ND oferece uma configuração com uma rede secundária de baixa latência, alta taxa de transferência por meio de RDMA e conectividade InfiniBand para que você possa executar trabalhos de treinamento em grande escala abrangendo muitas GPUs.
Veja a página completa da série ND.
Parte | Quantidade Unidades de contagem |
Especificações ID de SKU, Unidades de Desempenho, etc. |
---|---|---|
Processador | 6 - 24vCores | Intel® Xeon® E5-2690 v4 (Broadwell) |
Memória | 112 - 448GiB | |
Discos de dados | 12 - 32discos | 20000 - 80000IOPS / 200 - 800MBps |
Rede | 4 - 8NICs | |
Aceleradores | 1 - 4GPUs | NVIDIA Tesla P40 24GiB 24 - 96GiB por VM |
Série NDv2
A máquina virtual da série NDv2 é uma nova adição à família de GPUs projetada para as necessidades das cargas de trabalho mais exigentes de IA, aprendizado de máquina, simulação e HPC aceleradas por GPU. O NDv2 é alimentado por 8 GPUs NVIDIA Tesla V100 conectadas NVLINK, cada uma com 32 GB de memória GPU. Cada VM NDv2 também tem 40 núcleos Intel Xeon Platinum 8168 (Skylake) não HyperThreaded e 672 GiB de memória do sistema. As instâncias NDv2 oferecem excelente desempenho para cargas de trabalho de HPC e IA utilizando kernels de computação otimizados para GPU CUDA e as muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Essencialmente, o NDv2 foi criado para cargas de trabalho de scale-up computacionalmente intensas (aproveitamento de 8 GPUs por VM) e scale-out (aproveitamento de várias VMs trabalhando juntas). A série NDv2 agora suporta rede de back-end EDR InfiniBand de 100 Gigabits, semelhante à disponível na série HB de VM HPC, para permitir clustering de alto desempenho para cenários paralelos, incluindo treinamento distribuído para IA e ML. Esta rede de back-end suporta todos os principais protocolos InfiniBand, incluindo aqueles empregados pelas bibliotecas NCCL2 da NVIDIA, permitindo o clustering contínuo de GPUs.
Veja a página completa da série NDv2
Parte | Quantidade Unidades de contagem |
Especificações ID de SKU, Unidades de Desempenho, etc. |
---|---|---|
Processador | 40vCores | Intel® Xeon® Platinum 8168 (Skylake) |
Memória | 672GiB | |
Discos de dados | 32discos | 80000IOPS / 800MBps |
Rede | 8 NICs | 24000Mbps |
Aceleradores | 8 GPUs | NVIDIA V100 (NVLink) 32GiB 256GiB por VM |
Série ND_A100_v4
A máquina virtual (VM) da série ND A100 v4 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho HPC de expansão e expansão totalmente acopladas. A série ND A100 v4 começa com uma única VM e oito GPUs NVIDIA Ampere A100 40GB Tensor Core. As implantações baseadas em ND A100 v4 podem ser dimensionadas para milhares de GPUs com 1,6 TB/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 200 GB/s NVIDIA Mellanox HDR InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA. Cada GPU possui conectividade NVLINK 3.0 para comunicação dentro da VM, e a instância é apoiada por 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Roma) de 2ª geração. Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável é suportada por um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL2 da NVIDIA para clustering contínuo de GPUs.
Veja a página completa da série ND_A100_v4.
Parte | Quantidade Unidades de contagem |
Especificações ID de SKU, Unidades de Desempenho, etc. |
---|---|---|
Processador | 96vCores | AMD Epyc™ 7V12 (Roma) |
Memória | 900GiB | |
Discos de dados | 32discos | 80000IOPS / 800MBps |
Rede | 8 NICs | 24000Mbps |
Aceleradores | 8 GPUs | NVIDIA A100 (NVLink) 40GiB 320GiB por VM |
Série NDm_A100_v4
A máquina virtual (VM) da série NDm A100 v4 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho HPC de expansão e expansão totalmente acopladas. A série NDm A100 v4 começa com uma única VM e oito GPUs NVIDIA Ampere A100 80GB Tensor Core. As implantações baseadas em NDm A100 v4 podem ser dimensionadas para milhares de GPUs com 1,6 TB/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 200 GB/s NVIDIA Mellanox HDR InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA. Cada GPU possui conectividade NVLINK 3.0 para comunicação dentro da VM, e a instância é apoiada por 96 núcleos físicos de CPU AMD Epyc™ 7V12 (Roma) de 2ª geração. Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável é suportada por um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL2 da NVIDIA para clustering contínuo de GPUs.
Veja a página completa da série NDm_A100_v4.
Parte | Quantidade Unidades de contagem |
Especificações ID de SKU, Unidades de Desempenho, etc. |
---|---|---|
Processador | 96vCores | AMD Epyc™ 7V12 (Roma) |
Memória | 900GiB | |
Discos de dados | 32discos | 80000IOPS / 800MBps |
Rede | 8 NICs | 24000Mbps |
Aceleradores | 8 GPUs | NVIDIA A100 (NVLink) 80GiB 640GiB por VM |
Série ND_H100_v5
A máquina virtual (VM) da série ND H100 v5 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho de IA generativa e HPC fortemente acopladas. A série ND H100 v5 começa com uma única VM e oito GPUs NVIDIA H100 Tensor Core. As implantações baseadas em ND H100 v5 podem ser dimensionadas para milhares de GPUs com 3,2 Tb/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA. Cada GPU possui conectividade NVLINK 4.0 para comunicação dentro da VM, e a instância é apoiada por 96 núcleos físicos de processador Intel Xeon Xeon Scalable de 4ª geração. Essas instâncias fornecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU 'pronta para uso', como TensorFlow, Pytorch, Caffe, RAPIDS e outras estruturas. Além disso, a interconexão InfiniBand escalável é suportada por um grande conjunto de ferramentas de IA e HPC existentes que são construídas nas bibliotecas de comunicação NCCL da NVIDIA para clustering contínuo de GPUs.
Veja a página completa da série ND_H100_v5.
Parte | Quantidade Unidades de contagem |
Especificações ID de SKU, Unidades de Desempenho, etc. |
---|---|---|
Processador | 96vCores | Intel® Xeon® Scalable (corredeiras de safira) |
Memória | GiB de 1900 | |
Discos de dados | 32discos | 40800IOPS / 612MBps |
Rede | 8 NICs | 80000Mbps |
Aceleradores | 8 GPUs | NVIDIA H100 (NVLink) 80GiB 640GiB por VM |
Série ND_MI300X_v5
A máquina virtual (VM) da série ND MI300X v5 é uma nova adição emblemática à família de GPUs do Azure. Ele foi projetado para treinamento de Deep Learning high-end e cargas de trabalho de IA generativa e HPC fortemente acopladas.
A VM da série ND MI300X v5 começa com oito GPUs AMD Instinct MI300 e dois processadores escaláveis Intel Xeon de quarta geração para um total de 96 núcleos físicos. Cada GPU dentro da VM é então conectada uma à outra por meio de links AMD Infinity Fabric de 4ª geração com largura de banda de 128 GB/s por GPU e largura de banda agregada de 896 GB/s.
As implantações baseadas em ND MI300X v5 podem ser dimensionadas para milhares de GPUs com 3,2 Tb/s de largura de banda de interconexão por VM. Cada GPU dentro da VM é fornecida com sua própria conexão dedicada e independente de topologia de 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand. Essas conexões são configuradas automaticamente entre VMs que ocupam o mesmo conjunto de escala de máquina virtual e suportam GPUDirect RDMA.
Essas instâncias oferecem excelente desempenho para muitas ferramentas de IA, ML e análise que suportam aceleração de GPU "pronta para uso", como TensorFlow, Pytorch e outras estruturas. Além disso, a interconexão InfiniBand escalável suporta um grande conjunto de ferramentas de IA e HPC existentes que são construídas na ROCm Communication Collectives Library (RCCL) da AMD para clustering contínuo de GPUs.
Veja a página completa da série ND_MI300X_v5.
Parte | Quantidade Unidades de contagem |
Especificações ID de SKU, Unidades de Desempenho, etc. |
---|---|---|
Processador | 96 vCores | Intel® Xeon® Scalable (corredeiras de safira) |
Memória | GiB de 1850 | |
Armazenamento Local | 1 Disco | 1000 GiB |
Discos remotos | 32 discos | 40800 IOPS 612 MBps |
Rede | 8 NICs | 80000 Mbps |
Aceleradores | 8 GPUs | AMD MI300X 192 GiB 1535 GiB por VM |
Série da família ND da geração anterior
Para tamanhos mais antigos, consulte Tamanhos da geração anterior.
Outras informações sobre o tamanho
Lista de todos os tamanhos disponíveis: Tamanhos
Calculadora de Preços: Calculadora de Preços
Informações sobre tipos de disco: Tipos de disco
Próximos passos
Saiba mais sobre como as unidades de computação do Azure (ACU) podem ajudá-lo a comparar o desempenho da computação entre as SKUs do Azure.
Confira os Hosts Dedicados do Azure para servidores físicos capazes de hospedar uma ou mais máquinas virtuais atribuídas a uma assinatura do Azure.
Saiba como Monitorar máquinas virtuais do Azure.
Comentários
https://aka.ms/ContentUserFeedback.
Brevemente: Ao longo de 2024, vamos descontinuar progressivamente o GitHub Issues como mecanismo de feedback para conteúdos e substituí-lo por um novo sistema de feedback. Para obter mais informações, veja:Submeter e ver comentários