Tamanhos de VM de computação de alto desempenho

Cuidado

Este artigo faz referência ao CentOS, uma distribuição do Linux que está se aproximando do status de EOL (fim da vida útil). Considere seu uso e planeje adequadamente. Para obter mais informações, veja as Orientações sobre fim da vida útil do CentOS.

Aplica-se a: ✔️ VMs do Linux ✔️ VMs do Windows ✔️ Conjuntos de dimensionamento flexíveis ✔️ Conjuntos de dimensionamento uniformes

Dica

Use a ferramenta do seletor de máquinas virtuais para encontrar o tamanho ideal para a sua carga de trabalho.

As VMs da série HBv4 são otimizadas para várias cargas de trabalho HPC, como dinâmica de fluido computacional, análise de elemento finito, front-end, renderização, dinâmica molecular, geociência computacional, simulação meteorológica e análise de risco financeiro. As VMs HBv4 contam com até 176 núcleos de CPU AMD EPYC™ 9V33X (GenoaX) com o Cache 3D-V da AMD, 768 GB de RAM e nenhum multithreading simultâneo. As VMs da série HBv4 também fornecem 780 GB/s de largura de banda de memória DDR5 e 2.304 MB de cache L3 por VM, até 12 GB/s (leituras) e 7 GB/s (gravações) de desempenho do SSD do dispositivo de bloco e frequências de relógio de até 3,7 GHz.

Todas as VMs da série HBv4 têm InfiniBand NDR de 400 GB/s da Rede NVIDIA para habilitar cargas de trabalho MPI de escala de supercomputador. Essas VMs são conectadas em uma árvore Fat sem bloqueio para desempenho de RDMA otimizado e consistente. A NDR continua dando suporte a recursos como Roteamento Adaptável e DCT (Dynamically Connected Transport). Essa mais nova geração do InfiniBand também dá maior suporte para descarregamento de coletivos de MPI, latências de mundo real otimizadas devido à inteligência de controle de congestionamento e recursos aprimorados de roteamento adaptável. Esses recursos aprimoram o desempenho, a escalabilidade e a consistência do aplicativo, e seu uso é recomendado.

As VMs da série HBv3 são otimizadas para aplicativos HPC, como dinâmica de fluidos, análise explícita e implícita de elementos finitos, modelagem meteorológica, processamento sísmico, simulação de reservatórios e simulação da direita para esquerda (RTL). As VMs HBv3 contam com até 120 núcleos de CPU da série AMD EPYC™ 7003 (MilanX), 448 GB de RAM e nenhum hyperthreading. As VMs da série HBv3 também fornecem 350 GB/s de largura de banda de memória, até 32 MB de cache L3 por núcleo, até 7 GB/s de desempenho de SSD de dispositivo de bloco e frequências de clock de até 3,5 GHz.

Todas as VMs da série HBv3 apresentam um cabeçalho HDR de 200 GB/s de Rede NVIDIA para habilitar cargas de trabalho MPI de escala de supercomputador. Essas VMs são conectadas em uma árvore Fat sem bloqueio para desempenho de RDMA otimizado e consistente. A malha InfiniBand HDR também dá suporte ao roteamento adaptável e ao transporte conectado dinâmico (DCT, além dos transportes Standard RC e UD). Esses recursos aprimoram o desempenho, a escalabilidade e a consistência do aplicativo, e seu uso é altamente recomendado.

As VMs da série HBv2 são otimizadas para aplicativos controlados pela largura de banda da memória, como na dinâmica de fluidos, na análise de elementos finitos e simulação de reservatório. As VMs HBv2 apresentam 120 núcleos de processador AMD EPYC 7742, 4 GB de RAM por núcleo de CPU e nenhum multithreading simultâneo. Cada VM HBv2 fornece até 340 GB/s de largura de banda de memória e até 4 teraFLOPS de computação FP64.

As VMs HBv2 apresentam 200 GB/s Mellanox HDR InfiniBand, enquanto as VMs da série HB e HC apresentam 100 GB/s Mellanox EDR InfiniBand. Cada um desses tipos de VM é conectado a uma árvore Fat sem bloqueio para desempenho de RDMA otimizado e consistente. As VMs HBv2 dão suporte ao roteamento adaptável e ao transporte conectado dinâmico (DCT, além dos transportes Standard RC e UD). Esses recursos aprimoram o desempenho, a escalabilidade e a consistência do aplicativo, e seu uso é altamente recomendado.

As VMs da série HB são otimizadas para aplicativos controlados pela largura de banda da memória, como na dinâmica de fluidos, na análise de elementos finitos explícita e na modelagem de clima. As VMs HBv2 apresentam 60 núcleos de processador AMD EPYC 7551, 4 GB de RAM por núcleo de CPU e nenhum hyperthreading. A plataforma AMD EPYC fornece mais de 260 GB/s de largura de banda de memória.

As VMs da série HC são otimizadas para aplicativos controlados por computação densa, como na análise de elementos finitos implícita, na dinâmica molecular e na química computacional. As VMs HBv2 apresentam 44 núcleos de processador Intel Xeon Platinum 8168, 8 GB de RAM por núcleo de CPU e nenhum hyperthreading. A plataforma Intel Xeon Platinum dá suporte ao ecossistema avançado de ferramentas de software da Intel, como a Biblioteca de Kernels Matemáticos da Intel.

As VMs da série HX são otimizadas para cargas de trabalho que exigem capacidade de memória significativa com o dobro da capacidade de memória do HBv4. Por exemplo, cargas de trabalho como design de silício podem usar VMs da série HX para permitir que os clientes do EDA direcionados aos processos de fabricação mais avançados executem suas cargas de trabalho mais intensivas em memória. As VMs HX contam com até 176 núcleos de CPU da série AMD EPYC™ 9V33X (GenoaX), 1.408 GB de RAM e nenhum multithreading simultâneo. As VMs da série HX também fornecem 780 GB/s de largura de banda de memória DDR5 e 2.304 MB de cache L3 por VM, até 12 GB/s (leituras) e 7 GB/s (gravações) de desempenho do SSD do dispositivo de bloco e frequências de relógio de até 3,7 GHz.

Observação

Todas as VMs da série HBv4, HBv3, HBv2, HB, HC e HX têm acesso exclusivo aos servidores físicos. Há apenas uma VM por servidor físico e não há multilocação compartilhada com outras VMs para esses tamanhos de VM.

Instâncias compatíveis com RDMA

A maioria dos tamanhos de VM do HPC tem um adaptador de rede para conectividade RDMA (acesso remoto direto à memória). Tamanhos selecionados da série N designados com 'r', também são compatíveis com RDMA. Essa interface é um complemento da interface de rede Ethernet padrão do Azure disponível em outros tamanhos de VM.

Essa interface secundária permite que as instâncias compatíveis com RDMA comuniquem-se através de uma rede IB (InfiniBand), operando em taxas HDR para HBv3, HBv2, taxas EDR para HB, HC, NDv2 e taxas FDR para H16r, H16mr e outras máquinas virtuais da série N compatíveis com RDMA. Esses recursos RDMA podem melhorar a escalabilidade e o desempenho de aplicativos baseados em MPI (Interface de Passagem de Mensagem).

Observação

Suporte a SR-IOV: no Azure HPC, atualmente, há duas classes de VMs, dependendo se elas estão habilitadas para a InfiniBand em SR-IOV. Atualmente, quase todas as VMs habilitadas para RDMA ou de geração mais recentes no Azure são SR-IOV habilitado, exceto para H16r, H16mr e NC24r. O RDMA só é habilitado pela rede InfiniBand (IB) e tem suporte para todas as VMs compatíveis com RDMA. Só há suporte para IP sobre IB em VMs habilitadas para SR-IOV. O RDMA não está habilitado pela rede Ethernet.

  • Sistema operacional – distribuições do Linux, como CentOS, RHEL, Ubuntu, SUSE são comumente usadas. O Windows Server 2016 e versões mais recentes têm suporte em todas as VMs da série HPC. Observe que o Windows Server 2012 R2 não tem suporte para HBv2 em diante, bem como tamanhos de VM com mais de 64 núcleos (virtuais ou físicos). Consulte Imagens de VM para obter uma lista de imagens de VM com suporte no Marketplace e como elas podem ser configuradas adequadamente. As respectivas páginas de tamanho de VM também listam o suporte à pilha de software.

  • InfiniBand e drivers – em VMs habilitadas para InfiniBand, são necessários os drivers corretos para habilitar o RDMA. Consulte Imagens de VM para obter uma lista de imagens de VM com suporte no Marketplace e como elas podem ser configuradas adequadamente. Consulte também Habilitar a InfiniBand para saber mais sobre extensões de VM ou instalação manual de drivers InfiniBand.

  • MPI – os tamanhos de VM habilitados para SR-IOV no Azure permitem usar quase todos os tipos de MPI com o Mellanox OFED. Consulte Configurar MPI para HPC para obter mais detalhes sobre como configurar MPI em VMs do HPC no Azure.

    Observação

    Espaço de endereço de rede RDMA: A rede RDMA no Azure reserva o espaço de endereço 172.16.0.0/16. Para executar aplicativos MPI em instâncias implantadas em uma rede virtual do Azure, verifique se o espaço do endereço de rede virtual não se sobrepõe à rede RDMA.

Opções de configuração de cluster

O Azure fornece várias opções para criar clusters de VMs de HPC que podem se comunicar usando a rede RDMA, incluindo:

  • Máquinas virtuais – implantar VMs HPC compatíveis com RDMA no mesmo conjunto de disponibilidade (ao usar o modelo de implantação do Azure Resource Manager). Se você usar o modelo de implantação clássico, implante as VMs no mesmo serviço de nuvem.

  • Conjuntos de dimensionamento de máquinas virtuais – em um conjunto de dimensionamento de máquinas virtuais, assegure-se de limitar a implantação a um único grupo de posicionamento para comunicação InfiniBand dentro do conjunto de dimensionamento. Por exemplo, em um modelo do Resource Manager, defina a singlePlacementGrouppropriedade comotrue. Observe que o tamanho máximo do conjunto de dimensionamento que pode ser aumentado com singlePlacementGroup=true é limitado a 100 VMs por padrão. Se as necessidades de escala de trabalho do HPC forem maiores que 100 VMs em um único locatário, é possível solicitar um aumento, abrir uma solicitação de suporte no Atendimento ao cliente online, sem encargos. O limite do número de VMs para um único conjunto de dimensionamento pode ser aumentado para 300. Observe que, ao implantar VMs usando Conjuntos de disponibilidade, o limite máximo é de 200 VMs para cada conjunto.

    Observação

    MPI entre máquinas virtuais: se RDMA (por exemplo, usando a comunicação MPI) for necessário entre VMs (máquinas virtuais), verifique se as VMs estão no mesmo conjunto de dimensionamento de máquinas virtuais ou conjunto de disponibilidade.

  • Azure CycleCloud – criar um cluster HPC usando o Azure CycleCloud para executar tarefas MPI.

  • Azure Batch – criar um pool do Lote do Azure para executar cargas de trabalho MPI. Para usar instâncias de computação intensiva para executar aplicativos MPI com o Lote do Azure, consulte Usar tarefas de várias instâncias para executar aplicativos MPI (Interface de Transmissão de Mensagens) no Lote do Azure.

  • Pacote Microsoft HPC - O Pacote HPC inclui um ambiente de runtime para MS-MPI que usa a rede RDMA do Azure quando implantado em VMs do Linux compatíveis com RDMA. Para exemplos de implantações, consulte Configurar um cluster de RDMA do Linux com o pacote HPC para executar aplicativos MPI.

Considerações de implantação

  • Assinatura do Azure – Para implantar um número maior de instâncias de computação intensiva, considere uma assinatura pré-paga ou outras opções de compra. Se estiver usando uma conta gratuita do Azure, você poderá usar apenas um número limitado de núcleos de computação do Azure.

  • Preços e disponibilidade – Verifique os preços e a disponibilidade da VM pelas regiões do Azure.

  • Cota de núcleos – Talvez seja preciso aumentar a cota de núcleos em sua assinatura do Azure, saindo do valor padrão. Sua assinatura também pode limitar o número de núcleos que você pode implantar em determinadas famílias de tamanho de VM, incluindo a série de H. Para solicitar um aumento de cota, abra uma solicitação de atendimento ao cliente online gratuitamente. (Os limites padrão podem variar dependendo de sua categoria de assinatura.)

    Observação

    Entre em contato com o Suporte do Azure se precisar de capacidade em larga escala. Cotas do Azure são limites de crédito, não garantias de capacidade. Independentemente de sua cota, você é cobrado apenas pelo núcleos utilizados.

  • Rede virtual – Não é necessário ter uma rede virtual do Azure para usar instâncias de computação intensiva. No entanto, para muitas implantações, é necessária pelo menos uma rede virtual do Azure baseada em nuvem ou uma conexão site a site se você precisar acessar recursos locais. Quando necessário, você precisará criar uma nova rede virtual para implantar as instâncias. Não há suporte para a adição de VMs de computação intensiva a uma rede virtual em um grupo de afinidades.

  • Redimensionamento – devido ao hardware especializado, só é possível redimensionar instâncias de computação intensiva dentro da mesma família de tamanho (série H ou série N). Por exemplo, somente é possível redimensionar uma VM da série H de um tamanho da série H para outro. Talvez sejam necessárias considerações adicionais sobre o suporte do driver InfiniBand e discos de NVMe para determinadas VMs.

Outros tamanhos

Próximas etapas