Tamanhos de VMs de computação de alto desempenho
Aplica-se a: ✔️ VMs do Windows VMs ✔️ do Linux Conjuntos ✔️ de dimensionamento ✔️ flexíveis Conjuntos de dimensionamento uniformes
Dica
Experimente a ferramenta Seletor de máquinas virtuais para encontrar outros tamanhos que melhor se ajustem à sua carga de trabalho.
Série HBv4 As VMs são otimizadas para várias cargas de trabalho HPC, tais como dinâmicas de fluidos computacionais, análise de elementos finitos, EDA de front-end e back-end, composição, dinâmica molecular, geociência computacional, simulação meteorológica e análise de riscos financeiros. As VMs HBv4 irão apresentar até 176 núcleos de CPU da série 9004 (Genoa) do EPYC™ 9004 amD, 688 GB de RAM e sem multithreading simultâneo. As VMs da série HBv4 também fornecem 800 GB/s de largura de banda de memória DDR5 e cache L3 de 768 MB por VM, até 12 GB/s (leituras) e 7 GB/s (escritas) de desempenho SSD do dispositivo de bloco e frequências de relógio até 3,7 GHz.
Todas as VMs da série HBv4 apresentam 400 Gb/s NDR InfiniBand da Rede NVIDIA para permitir cargas de trabalho de MPI à escala de supercomputadores. Estas VMs estão ligadas numa árvore de gordura sem bloqueio para um desempenho RDMA otimizado e consistente. O NDR continua a suportar funcionalidades como o Encaminhamento Adaptável e o Transporte Ligado Dinamicamente (DCT). Esta nova geração do InfiniBand também traz um maior suporte para a descarga de coletivos de MPI, latências otimizadas do mundo real devido à inteligência do controlo de congestionamento e capacidades de encaminhamento adaptáveis melhoradas. Estas funcionalidades melhoram o desempenho, a escalabilidade e a consistência da aplicação e a respetiva utilização é recomendada.
Série HBv3 As VMs são otimizadas para aplicações HPC, como dinâmica de fluidos, análise explícita e implícita de elementos finitos, modelação meteorológica, processamento sísmico, simulação de reservatório e simulação RTL. As VMs HBv3 apresentam até 120 núcleos de CPU da série EPYC™ 7003 (Milão) de AMD, 448 GB de RAM e sem hiper-leitura. As VMs da série HBv3 também fornecem 350 GB/seg de largura de banda de memória, até 32 MB de cache L3 por núcleo, até 7 GB/s de desempenho SSD do dispositivo de bloco e frequências de relógio até 3,5 GHz.
Todas as VMs da série HBv3 apresentam 200 Gb/seg HDR InfiniBand da NVIDIA Networking para ativar cargas de trabalho de MPI à escala de supercomputadores. Estas VMs estão ligadas numa árvore de gordura sem bloqueio para um desempenho RDMA otimizado e consistente. Os recursos de infraestrutura do HDR InfiniBand também suportam o Encaminhamento Adaptável e o Transporte Ligado Dinâmico (DCT, além dos transportes RC e UD padrão). Estas funcionalidades melhoram o desempenho, a escalabilidade e a consistência da aplicação e a sua utilização é fortemente recomendada.
Série HBv2 As VMs são otimizadas para aplicações condicionadas por largura de banda de memória, como dinâmica de fluidos, análise de elementos finitos e simulação de reservatórios. As VMs HBv2 apresentam núcleos de processador 120 AMD EPYC 7742, 4 GB de RAM por núcleo de CPU e sem multithreading simultâneo. Cada VM HBv2 fornece até 340 GB/seg de largura de banda de memória e até 4 teraFLOPS de computação FP64.
As VMs HBv2 apresentam 200 Gb/seg Mellanox HDR InfiniBand, enquanto as VMs da série HB e HC apresentam 100 Gb/seg Mellanox EDR InfiniBand. Cada um destes tipos de VM está ligado numa árvore de gordura sem bloqueio para um desempenho RDMA otimizado e consistente. As VMs HBv2 suportam o Encaminhamento Adaptável e o Transporte Ligado Dinâmico (DCT, além dos transportes RC e UD padrão). Estas funcionalidades melhoram o desempenho, a escalabilidade e a consistência da aplicação e a sua utilização é fortemente recomendada.
Série HB As VMs são otimizadas para aplicações condicionadas por largura de banda de memória, como dinâmica de fluidos, análise explícita de elementos finitos e modelação meteorológica. As VMs HB apresentam núcleos de processador 60 AMD EPYC 7551, 4 GB de RAM por núcleo da CPU e sem hiper-leitura. A plataforma AMD EPYC fornece mais de 260 GB/seg de largura de banda de memória.
Série HC As VMs são otimizadas para aplicações condicionadas por cálculo denso, como análise implícita de elementos finitos, dinâmica molecular e química computacional. As VMs HC apresentam 44 núcleos de processador Intel Xeon Platinum 8168, 8 GB de RAM por núcleo da CPU e nenhuma hiper-leitura. A plataforma Intel Xeon Platinum suporta o rico ecossistema de ferramentas de software da Intel, como a Biblioteca Intel Math Kernel.
Série HX As VMs são otimizadas para cargas de trabalho que requerem uma capacidade de memória significativa com o dobro da capacidade de memória como HBv4. Por exemplo, cargas de trabalho como o design de silício podem utilizar VMs da série HX para permitir que os clientes da EDA direcionem os processos de fabrico mais avançados para executarem as cargas de trabalho com maior intensidade de memória. As VMs HX apresentam até 176 núcleos de CPU da série EPYC 9004 (Genoa) de AMD, 1408 GB de RAM e sem multi-leitura simultânea. As VMs da série HX também fornecem 800 GB/s de largura de banda de memória DDR5 e cache L3 de 768 MB por VM, até 12 GB/s (leituras) e 7 GB/s (escritas) de desempenho SSD do dispositivo de bloco e frequências de relógio até 3,7 GHz.
Nota
Todas as VMs da série HBv4, HBv3, HBv2, HB, HC e HX têm acesso exclusivo aos servidores físicos. Existem apenas 1 VM por servidor físico e não existem múltiplos inquilinos partilhados com outras VMs para estes tamanhos de VM.
Instâncias com capacidade de RDMA
A maioria dos tamanhos de VM HPC inclui uma interface de rede para conectividade rdma (acesso direto remoto à memória). Os tamanhos da série N selecionados designados com "r" também são compatíveis com RDMA. Esta interface é além da interface de rede padrão do Azure Ethernet disponível nos outros tamanhos de VM.
Esta interface secundária permite que as instâncias compatíveis com RDMA comuniquem através de uma rede InfiniBand (IB), operando a taxas HDR para taxas HBv3, HBv2, EDR para as taxas HB, HC, NDv2 e FDR para H16r, H16mr e outras máquinas virtuais de série N compatíveis com RDMA. Estas capacidades RDMA podem aumentar a escalabilidade e o desempenho das aplicações baseadas em Interface de Passagem de Mensagens (MPI).
Nota
Suporte sr-IOV: no Azure HPC, atualmente existem duas classes de VMs, dependendo se são SR-IOV ativadas para InfiniBand. Atualmente, quase todas as VMs compatíveis com RDMA ou InfiniBand no Azure estão ativadas para SR-IOV, exceto H16r, H16mr e NC24r. O RDMA só está ativado através da rede InfiniBand (IB) e é suportado para todas as VMs compatíveis com RDMA. O IP através do IB só é suportado nas VMs ativadas para SR-IOV. O RDMA não está ativado através da rede Ethernet.
Sistema Operativo – as distribuições do Linux, como CentOS, RHEL, Ubuntu, SUSE, são frequentemente utilizadas. Windows Server 2016 e versões mais recentes são suportadas em todas as VMs da série HPC. Tenha em atenção que Windows Server 2012 R2 não é suportado no HBv2, uma vez que os tamanhos da VM têm mais de 64 núcleos (virtuais ou físicos). Veja Imagens de VM para obter uma lista de Imagens de VM suportadas no Marketplace e como podem ser configuradas adequadamente. As respetivas páginas de tamanho da VM também listam o suporte da pilha de software.
InfiniBand e Controladores – em VMs ativadas por InfiniBand, os controladores adequados são necessários para ativar o RDMA. Veja Imagens de VM para obter uma lista de Imagens de VM suportadas no Marketplace e como podem ser configuradas adequadamente. Veja também ativar o InfiniBand para saber mais sobre extensões de VM ou instalação manual de controladores InfiniBand.
MPI – os tamanhos de VM ativados por SR-IOV no Azure permitem que quase qualquer sabor de MPI seja utilizado com Mellanox OFED. Veja Configurar o MPI para HPC para obter mais detalhes sobre como configurar o MPI em VMs HPC no Azure.
Nota
Espaço de endereços de rede RDMA: a rede RDMA no Azure reserva o espaço de endereços 172.16.0.0/16. Para executar aplicações MPI em instâncias implementadas numa rede virtual do Azure, certifique-se de que o espaço de endereços de rede virtual não se sobrepõe à rede RDMA.
Opções de configuração de clusters
O Azure fornece várias opções para criar clusters de VMs HPC que podem comunicar com a rede RDMA, incluindo:
Máquinas virtuais – implemente as VMs HPC compatíveis com RDMA no mesmo conjunto de dimensionamento ou conjunto de disponibilidade (quando utiliza o modelo de implementação Resource Manager do Azure). Se utilizar o modelo de implementação clássica, implemente as VMs no mesmo serviço cloud.
Conjuntos de dimensionamento de máquinas virtuais – num conjunto de dimensionamento de máquinas virtuais, certifique-se de que limita a implementação a um único grupo de colocação para comunicação InfiniBand no conjunto de dimensionamento. Por exemplo, num modelo de Resource Manager, defina a
singlePlacementGroup
propriedade comotrue
. Tenha em atenção que o tamanho máximo do conjunto de dimensionamento que pode ser girado estásinglePlacementGroup=true
limitado a 100 VMs por predefinição. Se as suas necessidades de dimensionamento de tarefas HPC forem superiores a 100 VMs num único inquilino, poderá pedir um aumento e abrir um pedido de suporte ao cliente online sem custos. O limite do número de VMs num único conjunto de dimensionamento pode ser aumentado para 300. Tenha em atenção que ao implementar VMs com Conjuntos de Disponibilidade, o limite máximo é de 200 VMs por Conjunto de Disponibilidade.Nota
MPI entre máquinas virtuais: se o RDMA (por exemplo, através da comunicação MPI) for necessário entre máquinas virtuais (VMs), certifique-se de que as VMs estão no mesmo conjunto de dimensionamento ou conjunto de disponibilidade de máquinas virtuais.
Azure CycleCloud - Crie um cluster HPC com o Azure CycleCloud para executar tarefas de MPI.
Azure Batch - Crie um conjunto de Azure Batch para executar cargas de trabalho de MPI. Para utilizar instâncias de computação intensiva ao executar aplicações MPI com Azure Batch, veja Utilizar tarefas de várias instâncias para executar aplicações de Interface de Transmissão de Mensagens (MPI) em Azure Batch.
Microsoft HPC Pack - O HPC Pack inclui um ambiente de runtime para MS-MPI que utiliza a rede RDMA do Azure quando implementado em VMs linux compatíveis com RDMA. Para obter exemplos de implementações, veja Configurar um cluster RDMA do Linux com o HPC Pack para executar aplicações MPI.
Considerações sobre implementação
Subscrição do Azure – para implementar mais do que algumas instâncias de computação intensiva, considere uma subscrição pay as you go ou outras opções de compra. Se estiver a utilizar uma conta gratuita do Azure, pode utilizar apenas um número limitado de núcleos de computação do Azure.
Preços e disponibilidade – verifique os preços e a disponibilidade da VM pelas regiões do Azure.
Quota de núcleos – poderá ter de aumentar a quota de núcleos na sua subscrição do Azure a partir do valor predefinido. A sua subscrição também pode limitar o número de núcleos que pode implementar em determinadas famílias de tamanho de VM, incluindo a série H. Para pedir um aumento de quota, abra um pedido de suporte ao cliente online sem custos. (Os limites predefinidos podem variar consoante a sua categoria de subscrição.)
Nota
Contacte o Suporte do Azure se tiver necessidades de capacidade em grande escala. As quotas do Azure são limites de crédito, não garantias de capacidade. Independentemente da quota, só lhe são cobrados núcleos que utiliza.
Rede virtual – não é necessária uma rede virtual do Azure para utilizar as instâncias de computação intensiva. No entanto, para muitas implementações, precisa, pelo menos, de uma rede virtual do Azure baseada na cloud ou de uma ligação site a site se precisar de aceder a recursos no local. Quando necessário, crie uma nova rede virtual para implementar as instâncias. A adição de VMs intensivas de computação a uma rede virtual num grupo de afinidades não é suportada.
Redimensionamento – devido ao hardware especializado, só pode redimensionar instâncias de computação intensiva dentro da mesma família de tamanhos (série H ou série N). Por exemplo, só pode redimensionar uma VM da série H de um tamanho da série H para outro. As considerações adicionais sobre o suporte do controlador InfiniBand e os discos NVMe podem ter de ser consideradas para determinadas VMs.
Outros tamanhos
- Fins gerais
- Com otimização de computação
- Com otimização de memória
- Com otimização de armazenamento
- Otimizada para GPU
- Gerações anteriores
Passos seguintes
- Saiba mais sobre como configurar as VMs, ativar o InfiniBand, configurar o MPI e otimizar aplicações HPC para o Azure em Cargas de Trabalho HPC.
- Reveja a descrição geral da série HBv3 e a descrição geral da série HC.
- Leia sobre os anúncios mais recentes, exemplos de cargas de trabalho HPC e resultados de desempenho nos Blogues da Comunidade Tecnológica de Computação do Azure.
- Para obter uma vista de arquitetura de nível superior da execução de cargas de trabalho HPC, veja Computação de Alto Desempenho (HPC) no Azure.