Tamanhos de VMs de computação de alto desempenho

Aplica-se a: ✔️ VMs do Linux VMs ✔️ do Windows Conjuntos ✔️ ✔️ de dimensionamento flexíveis Conjuntos de dimensionamento uniformes

Dica

Experimente a ferramenta seletor de Máquinas virtuais para encontrar outros tamanhos que melhor se ajustem à sua carga de trabalho.

As máquinas virtuais (VMs) da série H do Azure foram concebidas para proporcionar desempenho de classe de liderança, escalabilidade e eficiência de custos para várias cargas de trabalho HPC do mundo real.

Série HBv3 As VMs são otimizadas para aplicações HPC, como dinâmica de fluidos, análise explícita e implícita de elementos finitos, modelação meteorológica, processamento sísmico, simulação de reservatório e simulação RTL. As VMs HBv3 apresentam até 120 núcleos de CPU da série 7003 (Milão) EPYC™ 7003 AMD, 448 GB de RAM e sem hiperthreading. As VMs da série HBv3 também fornecem 350 GB/seg de largura de banda de memória, até 32 MB de cache L3 por núcleo, até 7 GB/s de desempenho SSD do dispositivo de bloco e frequências de relógio até 3,5 GHz.

Todas as VMs da série HBv3 apresentam 200 Gb/seg HDR InfiniBand da NVIDIA Networking para permitir cargas de trabalho de MPI à escala de supercomputadores. Estas VMs estão ligadas numa árvore de gordura sem bloqueio para um desempenho RDMA otimizado e consistente. Os recursos de infraestrutura HDR InfiniBand também suportam o Encaminhamento Adaptável e o Transporte Ligado Dinâmico (DCT, além dos transportes RC e UD padrão). Estas funcionalidades melhoram o desempenho, a escalabilidade e a consistência da aplicação e a sua utilização é vivamente recomendada.

Série HBv2 As VMs são otimizadas para aplicações condicionadas por largura de banda de memória, como dinâmica de fluidos, análise de elementos finitos e simulação de reservatórios. As VMs HBv2 apresentam núcleos de processador 120 AMD EPYC 7742, 4 GB de RAM por núcleo de CPU e sem multithreading simultânea. Cada VM HBv2 fornece até 340 GB/seg de largura de banda de memória e até 4 teraFLOPS de computação FP64.

As VMs HBv2 apresentam 200 Gb/seg Mellanox HDR InfiniBand, enquanto as VMs da série HB e HC apresentam 100 Gb/seg Mellanox EDR InfiniBand. Cada um destes tipos de VM está ligado numa árvore de gordura sem bloqueio para um desempenho RDMA otimizado e consistente. As VMs HBv2 suportam o Encaminhamento Adaptável e o Transporte Ligado Dinâmico (DCT, além dos transportes RC e UD padrão). Estas funcionalidades melhoram o desempenho, a escalabilidade e a consistência da aplicação e a sua utilização é vivamente recomendada.

Série HB As VMs são otimizadas para aplicações condicionadas por largura de banda de memória, como dinâmica de fluidos, análise explícita de elementos finitos e modelação meteorológica. As VMs HB apresentam núcleos de processador 60 AMD EPYC 7551, 4 GB de RAM por núcleo de CPU e sem hiperthreading. A plataforma AMD EPYC fornece mais de 260 GB/seg de largura de banda de memória.

Série HC As VMs são otimizadas para aplicações condicionadas por computação densa, como análise implícita de elementos finitos, dinâmica molecular e química computacional. As VMs HC apresentam 44 núcleos de processador Intel Xeon Platinum 8168, 8 GB de RAM por núcleo de CPU e sem hiperthreading. A plataforma Intel Xeon Platinum suporta o rico ecossistema de ferramentas de software da Intel, como a Intel Math Kernel Library.

Nota

Todas as VMs da série HBv3, HBv2, HB e HC têm acesso exclusivo aos servidores físicos. Existe apenas 1 VM por servidor físico e não existem múltiplos inquilinos partilhados com outras VMs para estes tamanhos de VM.

Instâncias com capacidade de RDMA

A maioria dos tamanhos de VM HPC inclui uma interface de rede para conectividade de acesso remoto direto à memória (RDMA). Os tamanhos de série N selecionados designados com "r" também são compatíveis com RDMA. Esta interface é além da interface de rede padrão do Azure Ethernet disponível nos outros tamanhos de VM.

Esta interface secundária permite que as instâncias compatíveis com RDMA comuniquem através de uma rede InfiniBand (IB), operando a taxas HDR para taxas HBv3, HBv2, EDR para taxas HB, HC, NDv2 e FDR para H16r, H16mr e outras máquinas virtuais da série N compatíveis com RDMA. Estas capacidades RDMA podem aumentar a escalabilidade e o desempenho das aplicações baseadas na Interface de Passagem de Mensagens (MPI).

Nota

Suporte sr-IOV: no Azure HPC, atualmente existem duas classes de VMs, dependendo se são SR-IOV ativadas para InfiniBand. Atualmente, quase todas as VMs compatíveis com RDMA ou InfiniBand mais recentes no Azure estão ativadas para SR-IOV, exceto H16r, H16mr e NC24r. O RDMA só está ativado através da rede InfiniBand (IB) e é suportado para todas as VMs compatíveis com RDMA. O IP através do IB só é suportado nas VMs ativadas para SR-IOV. O RDMA não está ativado através da rede Ethernet.

  • Sistema Operativo – as distribuições do Linux, como CentOS, RHEL, Ubuntu, SUSE, são frequentemente utilizadas. Windows Server 2016 e versões mais recentes são suportadas em todas as VMs da série HPC. Tenha em atenção que Windows Server 2012 R2 não é suportado no HBv2, uma vez que a VM tem mais de 64 núcleos (virtuais ou físicos). Veja Imagens de VM para obter uma lista de Imagens de VM suportadas no Marketplace e como podem ser configuradas adequadamente. As respetivas páginas de tamanho de VM também listam o suporte da pilha de software.

  • InfiniBand e Controladores – nas VMs ativadas pelo InfiniBand, são necessários os controladores adequados para ativar o RDMA. Veja Imagens de VM para obter uma lista de Imagens de VM suportadas no Marketplace e como podem ser configuradas adequadamente. Veja também ativar o InfiniBand para saber mais sobre as extensões de VM ou a instalação manual de controladores InfiniBand.

  • MPI – os tamanhos de VM ativados para SR-IOV no Azure permitem que quase qualquer sabor de MPI seja utilizado com Mellanox OFED. Veja Setup MPI for HPC (Configurar o MPI para HPC ) para obter mais detalhes sobre como configurar o MPI em VMs HPC no Azure.

    Nota

    Espaço de endereços de rede RDMA: a rede RDMA no Azure reserva o espaço de endereços 172.16.0.0/16. Para executar aplicações MPI em instâncias implementadas numa rede virtual do Azure, confirme que o espaço de endereços da rede virtual não se sobrepõe à rede RDMA.

Opções de configuração de clusters

O Azure fornece várias opções para criar clusters de VMs HPC que podem comunicar com a rede RDMA, incluindo:

  • Máquinas virtuais – implemente as VMs HPC compatíveis com RDMA no mesmo conjunto de dimensionamento ou conjunto de disponibilidade (quando utiliza o modelo de implementação do Azure Resource Manager). Se utilizar o modelo de implementação clássica, implemente as VMs no mesmo serviço cloud.

  • Conjuntos de dimensionamento de máquinas virtuais – num conjunto de dimensionamento de máquinas virtuais, certifique-se de que limita a implementação a um único grupo de colocação para comunicação InfiniBand no conjunto de dimensionamento. Por exemplo, num modelo de Resource Manager, defina a singlePlacementGroup propriedade como true. Tenha em atenção que o tamanho máximo do conjunto de dimensionamento que pode ser aumentado está singlePlacementGroup=true limitado a 100 VMs por predefinição. Se as suas necessidades de dimensionamento de trabalhos HPC forem superiores a 100 VMs num único inquilino, poderá pedir um aumento e abrir um pedido de suporte ao cliente online sem custos. O limite do número de VMs num único conjunto de dimensionamento pode ser aumentado para 300. Tenha em atenção que, ao implementar VMs com Conjuntos de Disponibilidade, o limite máximo é de 200 VMs por Conjunto de Disponibilidade.

    Nota

    MPI entre máquinas virtuais: se o RDMA (por exemplo, através da comunicação MPI) for necessário entre máquinas virtuais (VMs), certifique-se de que as VMs estão no mesmo conjunto de dimensionamento de máquinas virtuais ou conjunto de disponibilidade.

  • Azure CycleCloud - Crie um cluster HPC com o Azure CycleCloud para executar tarefas de MPI.

  • Azure Batch - Crie um conjunto de Azure Batch para executar cargas de trabalho de MPI. Para utilizar instâncias de computação intensiva ao executar aplicações MPI com Azure Batch, veja Utilizar tarefas de várias instâncias para executar aplicações de Interface de Passagem de Mensagens (MPI) no Azure Batch.

  • Microsoft HPC Pack - O HPC Pack inclui um ambiente de runtime para MS-MPI que utiliza a rede RDMA do Azure quando implementado em VMs linux compatíveis com RDMA. Para obter exemplos de implementações, veja Configurar um cluster RDMA do Linux com o HPC Pack para executar aplicações MPI.

Considerações sobre implementação

  • Subscrição do Azure – para implementar mais do que algumas instâncias de computação intensiva, considere uma subscrição pay as you go ou outras opções de compra. Se estiver a utilizar uma conta gratuita do Azure, pode utilizar apenas um número limitado de núcleos de computação do Azure.

  • Preços e disponibilidade – Verifique os preços e a disponibilidade da VM por regiões do Azure.

  • Quota de núcleos – poderá ter de aumentar a quota de núcleos na sua subscrição do Azure a partir do valor predefinido. A sua subscrição também pode limitar o número de núcleos que pode implementar em determinadas famílias de tamanho de VM, incluindo a série H. Para pedir um aumento de quota, abra um pedido de suporte ao cliente online gratuitamente. (Os limites predefinidos podem variar consoante a sua categoria de subscrição.)

    Nota

    Contacte o Suporte do Azure se tiver necessidades de capacidade em grande escala. As quotas do Azure são limites de crédito, não garantias de capacidade. Independentemente da quota, só lhe são cobrados os núcleos que utiliza.

  • Rede virtual – não é necessária uma rede virtual do Azure para utilizar instâncias de computação intensiva. No entanto, para muitas implementações, precisa, pelo menos, de uma rede virtual do Azure baseada na cloud ou de uma ligação site a site se precisar de aceder aos recursos no local. Quando necessário, crie uma nova rede virtual para implementar as instâncias. A adição de VMs intensivas em termos de computação a uma rede virtual num grupo de afinidades não é suportada.

  • Redimensionamento – devido ao hardware especializado, só pode redimensionar instâncias de computação intensiva dentro da mesma família de tamanhos (série H ou série N). Por exemplo, só pode redimensionar uma VM da série H de um tamanho da série H para outro. As considerações adicionais sobre o suporte do controlador InfiniBand e os discos NVMe podem ter de ser consideradas para determinadas VMs.

Outros tamanhos

Passos seguintes