Compartilhar via


Examine o padrão de referência de rede de implantação sem comutador de dois nós para o Azure Stack HCI

Aplica-se a: Azure Stack HCI, versões 23H2 e 22H2

Neste artigo, você aprenderá sobre o armazenamento de dois nós sem alternância com dois comutadores TOR L3 padrão de referência de rede que você pode usar para implantar sua solução do Azure Stack HCI. As informações neste artigo também ajudam você a determinar se essa configuração é viável para suas necessidades de planejamento de implantação. Este artigo é direcionado aos administradores de TI que implantam e gerenciam o Azure Stack HCI em seus datacenters.

Para obter informações sobre outros padrões de rede, consulte Padrões de implantação de rede do Azure Stack HCI.

Cenários

Os cenários para esse padrão de rede incluem laboratórios, filiais e instalações de datacenter.

Considere implementar esse padrão ao procurar uma solução econômica que tenha tolerância a falhas em todos os componentes de rede. É possível escalar horizontalmente o padrão, mas requer tempo de inatividade da carga de trabalho para reconfigurar a conectividade física de armazenamento e a reconfiguração da rede de armazenamento. Os serviços L3 do SDN têm suporte total nesse padrão. Serviços de roteamento, como BGP, podem ser configurados diretamente nas opções TOR se oferecerem suporte a serviços L3. Recursos de segurança de rede, como micro segmentação e QoS, não exigem configuração extra para o dispositivo de firewall, pois são implementados na camada do adaptador de rede virtual.

Componentes de conectividade física

Conforme ilustrado no diagrama abaixo, esse padrão tem os seguintes componentes de rede física:

  • Para o tráfego de direção norte/sul, o cluster requer dois comutadores TOR na configuração do MLAG.

  • Dois cartões de rede agrupados para lidar com o gerenciamento e o tráfego de computação e conectados aos comutadores TOR. Cada NIC está conectada a um comutador TOR diferente.

  • Duas NICs RDMA em uma configuração de malha completa para East-West tráfego de armazenamento. Cada nó no cluster tem uma conexão redundante com o outro nó no cluster.

  • Como opção, algumas soluções podem usar uma configuração sem cabeça sem um cartão BMC para fins de segurança.

Redes Gerenciamento e computação Armazenamento BMC
Velocidade do link Pelo menos 1 GBps. 10 GBps recomendados Pelo menos 10 GBps Verificar com o fabricante do hardware
Tipo de interface RJ45, SFP+ ou SFP28 SFP+ ou SFP28 RJ45
Portas e agregação Duas portas agrupadas Duas portas autônomas Uma porta

Diagrama mostrando o layout de conectividade física sem comutador de dois nós.

Intenções de ATC de rede

Para padrões sem alternância de armazenamento de dois nós, duas intenções de ATC de rede são criadas. O primeiro para gerenciamento e tráfego de rede de computação e o segundo para tráfego de armazenamento.

Diagrama mostrando intenções de ATC de rede sem alternância de dois nós

Intenção de gerenciamento e computação

  • Tipo de intenção: gerenciamento e computação
  • Modo de Intenção: modo de cluster
  • Agrupamento: Sim. equipe pNIC01 e pNIC02
  • VLAN de Gerenciamento Padrão: A VLAN configurada para adaptadores de gerenciamento não é modificada
  • VLANs e vNICs de computação de pa &: a ATC de rede é transparente para vNICs de PA e VLAN ou vNICs de VM de computação e VLANs

Intenção de armazenamento

  • Tipo de intenção: Armazenamento
  • Modo de intenção: modo de cluster
  • Agrupamento: pNIC03 e pNIC04 usam SMB Multichannel para fornecer resiliência e agregação de largura de banda
  • VLANs padrão:
    • 711 para rede de armazenamento 1
    • 712 para a rede de armazenamento 2
  • Sub-redes padrão:
    • 10.71.1.0/24 para rede de armazenamento 1
    • 10.71.2.0/24 para rede de armazenamento 2

Para obter mais informações, consulte Implantar rede de host.

Siga estas etapas para criar intenções de rede para este padrão de referência:

  1. Execute o PowerShell como administrador.

  2. Execute o comando a seguir:

    Add-NetIntent -Name <Management_Compute> -Management -Compute -ClusterName <HCI01> -AdapterName <pNIC01, pNIC02>
    Add-NetIntent -Name <Storage> -Storage -ClusterName <HCI01> -AdapterName <pNIC03, pNIC04>
    

Componentes de conectividade lógica

Conforme ilustrado no diagrama abaixo, esse padrão tem os seguintes componentes de rede lógica:

Diagrama mostrando o layout de conectividade física sem alternância de nó único.

VLANs de Rede de Armazenamento

O tráfego baseado em intenção de armazenamento consiste em duas redes individuais que dão suporte ao tráfego RDMA. Cada interface é dedicada a uma rede de armazenamento separada e ambas podem compartilhar a mesma marca VLAN. Esse tráfego destina-se apenas a viajar entre os dois nós. O tráfego de armazenamento é uma rede privada sem conectividade com outros recursos.

Os adaptadores de armazenamento operam em diferentes sub-redes IP. Para habilitar uma configuração sem comutador, cada nó conectado é uma sub-rede correspondente de seu vizinho. Cada rede de armazenamento usa os VLANs predefinidos da ATC de rede por padrão (711 e 712). Esses VLANs podem ser personalizados, se necessário. Além disso, se a sub-rede padrão definida pela ATC não for utilizável, você será responsável por atribuir todos os endereços IP de armazenamento no cluster.

Para obter mais informações, consulte Visão geral da ATC de rede.

Rede OOB

A rede OOB (Out of Band) é dedicada a dar suporte à interface de gerenciamento de servidor "apagar luzes" também conhecida como BMC (controlador de gerenciamento de placa base). Cada interface do BMC se conecta a um comutador fornecido pelo cliente. O BMC é usado para automatizar cenários de inicialização PXE.

A rede de gerenciamento requer acesso à interface do BMC usando a porta 623 do Protocolo de Datagrama do Usuário (IPMI) do Intelligent Platform Management Interface.

A rede OOB é isolada das cargas de trabalho de computação e é opcional para implantações não baseadas em solução.

VLAN de gerenciamento

Todos os hosts de computação física exigem acesso à rede lógica de gerenciamento. Para planejamento de endereço IP, cada host de computação física deve ter pelo menos um endereço IP atribuído da rede lógica de gerenciamento.

Um servidor DHCP pode atribuir automaticamente endereços IP para a rede de gerenciamento ou você pode atribuir manualmente endereços IP estáticos. Quando DHCP é o método de atribuição de IP preferencial, recomendamos que você use reservas DHCP sem expiração.

A rede de gerenciamento dá suporte às seguintes configurações de VLAN:

  • VLAN nativa – você não precisa fornecer IDs de VLAN. Isso é necessário para instalações baseadas em solução.

  • VLAN marcada – você fornece IDs de VLAN no momento da implantação.

A rede de gerenciamento dá suporte a todo o tráfego usado para o gerenciamento do cluster, incluindo Área de Trabalho Remota, Windows Admin Center e Active Directory.

Para obter mais informações, consulte Planejar uma infraestrutura de SDN: gerenciamento e provedor de HNV.

VLANs de computação

Em alguns cenários, você não precisa usar redes virtuais SDN com encapsulamento VXLAN (VIRTUAL Extensible LAN). Em vez disso, você pode usar VLANs tradicionais para isolar suas cargas de trabalho de locatário. Essas VLANs são configuradas na porta do comutador TOR no modo tronco. Ao conectar novas VMs a essas VLANs, a marca VLAN correspondente é definida no adaptador de rede virtual.

Rede de PA (Endereço do Provedor de HNV)

A rede de PA (Endereço do Provedor) da HNV (Virtualização de Rede Hyper-V) serve como a rede física subjacente para o tráfego de locatário leste/oeste (interno), tráfego de locatário norte/sul (externo-interno) e para trocar informações de emparelhamento BGP com a rede física. Essa rede só é necessária quando há a necessidade de implantar redes virtuais usando o encapsulamento VXLAN para outra camada de isolamento e para multilocação de rede.

Para obter mais informações, consulte Planejar uma infraestrutura de SDN: gerenciamento e provedor de HNV.

Opções de isolamento de rede

Há suporte para as seguintes opções de isolamento de rede:

VLANs (IEEE 802.1Q)

As VLANs permitem que os dispositivos que devem ser mantidos separados compartilhem o cabeamento de uma rede física e ainda sejam impedidos de interagir diretamente uns com os outros. Esse compartilhamento gerenciado gera ganhos em simplicidade, segurança, gerenciamento de tráfego e economia. Por exemplo, uma VLAN pode ser usada para separar o tráfego dentro de uma empresa com base em usuários individuais ou grupos de usuários ou suas funções, ou com base em características de tráfego. Muitos serviços de hospedagem na Internet usam VLANs para separar zonas privadas umas das outras, permitindo que os servidores de cada cliente sejam agrupados em um único segmento de rede, independentemente de onde os servidores individuais estejam localizados no data center. Algumas precauções são necessárias para evitar que o tráfego "escape" de uma determinada VLAN, uma exploração conhecida como salto de VLAN.

Para obter mais informações, consulte Entender o uso de redes virtuais e VLANs.

Políticas de acesso à rede padrão e microssegmentação

As políticas de acesso à rede padrão garantem que todas as VMs (máquinas virtuais) no cluster do Azure Stack HCI estejam seguras por padrão contra ameaças externas. Com essas políticas, bloquearemos o acesso de entrada a uma VM por padrão, dando a opção de habilitar portas de entrada seletivas e, portanto, proteger as VMs de ataques externos. Essa imposição está disponível por meio de ferramentas de gerenciamento como Windows Admin Center.

A microssegmentação envolve a criação de políticas de rede granulares entre aplicativos e serviços. Isso essencialmente reduz o perímetro de segurança para uma cerca em torno de cada aplicativo ou VM. Essa cerca permite apenas a comunicação necessária entre as camadas de aplicativo ou outros limites lógicos, tornando extremamente difícil para as ameaças cibernéticas se espalharem lateralmente de um sistema para outro. A microssegmentação isola com segurança as redes umas das outras e reduz a superfície de ataque total de um incidente de segurança de rede.

As políticas de acesso à rede padrão e a microssegmentação são realizadas como regras de firewall com estado de cinco tuplas (prefixo de endereço de origem, porta de origem, prefixo de endereço de destino, porta de destino e protocolo) em clusters do Azure Stack HCI. As regras de firewall também são conhecidas como NSGs (Grupos de Segurança de Rede). Essas políticas são impostas na porta vSwitch de cada VM. As políticas são enviadas por push pela camada de gerenciamento e o Controlador de Rede SDN as distribui para todos os hosts aplicáveis. Essas políticas estão disponíveis para VMs em redes VLAN tradicionais e em redes de sobreposição de SDN.

Para obter mais informações, consulte O que é o Firewall do Datacenter?.  

QoS para adaptadores de rede de VM

Você pode configurar a QoS (Qualidade de Serviço) para um adaptador de rede de VM para limitar a largura de banda em uma interface virtual para impedir que uma VM de alto tráfego enfrente outro tráfego de rede de VM. Você também pode configurar a QoS para reservar uma quantidade específica de largura de banda para uma VM para garantir que a VM possa enviar tráfego, independentemente de outro tráfego na rede. Isso pode ser aplicado a VMs anexadas a redes VLAN tradicionais, bem como VMs anexadas a redes de sobreposição da SDN.

Para obter mais informações, consulte Configurar QoS para um adaptador de rede de VM.

Redes virtuais

A virtualização de rede fornece redes virtuais para VMs semelhantes a como a virtualização de servidor (hipervisor) fornece VMs para o sistema operacional. A virtualização de rede separa as redes virtuais da infraestrutura de rede física e remove as restrições de VLAN e atribuição de endereço IP hierárquico do provisionamento de VM. Essa flexibilidade facilita a migração para nuvens de IaaS (infraestrutura como serviço) e é eficiente para os hosters e administradores de datacenter gerenciarem sua infraestrutura e manterem o isolamento multilocatário necessário, os requisitos de segurança e os endereços IP de VM sobrepostos.

Para obter mais informações, consulte Virtualização de Rede Hyper-V.

Opções de serviços de rede L3

As seguintes opções de serviço de rede L3 estão disponíveis:

Emparelhamento de rede virtual

O emparelhamento de rede virtual permite conectar duas redes virtuais perfeitamente. Uma vez emparelhadas, para fins de conectividade, as redes virtuais aparecem como uma delas. Os benefícios do uso do emparelhamento de rede virtual incluem:

  • O tráfego entre VMs nas redes virtuais emparelhadas é roteado por meio da infraestrutura de backbone somente por meio de endereços IP privados. A comunicação entre as redes virtuais não requer Internet pública ou gateways.
  • Baixa latência, conexão com largura de banda alta entre os recursos em redes virtuais diferentes.
  • A capacidade de recursos em uma rede virtual para se comunicar com recursos em uma rede virtual diferente.
  • Não há tempo de inatividade para recursos em nenhuma das redes virtuais ao criar o emparelhamento.

Para obter mais informações, consulte Emparelhamento de rede virtual do Azure.

Balanceador de carga de software SDN

CSPs (Provedores de Serviços de Nuvem) e empresas que implantam SDN (Rede Definida pelo Software) podem usar o software Load Balancer (SLB) para distribuir uniformemente o tráfego de rede do cliente entre os recursos de rede virtual. O SLB permite que vários servidores hospedem a mesma carga de trabalho, fornecendo alta disponibilidade e escalabilidade. Ele também é usado para fornecer serviços nat (conversão de endereços de rede) de entrada para acesso de entrada a VMs e serviços NAT de saída para conectividade de saída.

Usando o SLB, você pode escalar horizontalmente seus recursos de balanceamento de carga usando VMs SLB nos mesmos servidores de computação do Hyper-V que você usa para suas outras cargas de trabalho de VM. O SLB dá suporte à criação e exclusão rápidas de pontos de extremidade de balanceamento de carga conforme necessário para operações CSP. Além disso, o SLB dá suporte a dezenas de gigabytes por cluster, fornece um modelo de provisionamento simples e é fácil de escalar horizontalmente. O SLB usa o Border Gateway Protocol para anunciar endereços IP virtuais para a rede física.

Para obter mais informações, consulte O que é SLB para SDN?

Gateways de VPN SDN

O Gateway SDN é um roteador compatível com BGP (Border Gateway Protocol) baseado em software projetado para CSPs e empresas que hospedam redes virtuais multilocatário usando a HNV (Virtualização de Rede Hyper-V). Você pode usar o Gateway de RAS para rotear o tráfego de rede entre uma rede virtual e outra rede, local ou remota.

O Gateway de SDN pode ser usado para:

  • Crie conexões IPsec site a site seguras entre redes virtuais SDN e redes de clientes externos pela Internet.

  • Crie conexões GRE (Encapsulamento de Roteamento Genérico) entre redes virtuais SDN e redes externas. A diferença entre conexões site a site e conexões GRE é que este último não é uma conexão criptografada.

    Para obter mais informações sobre cenários de conectividade GRE, consulte Túnel GRE no Windows Server.

  • Crie conexões de Camada 3 (L3) entre redes virtuais SDN e redes externas. Nesse caso, o gateway SDN simplesmente atua como um roteador entre sua rede virtual e a rede externa.

O Gateway SDN requer o Controlador de Rede SDN. O Controlador de Rede executa a implantação de pools de gateway, configura conexões de locatário em cada gateway e alterna fluxos de tráfego de rede para um gateway em espera se um gateway falhar.

Os gateways usam o Border Gateway Protocol para anunciar pontos de extremidade GRE e estabelecer conexões ponto a ponto. A implantação de SDN cria um pool de gateway padrão que dá suporte a todos os tipos de conexão. Nesse pool, você pode especificar quantos gateways são reservados em espera caso um gateway ativo falhe.

Para obter mais informações, consulte O que é o Gateway de RAS para SDN?

Próximas etapas

Saiba mais sobre o padrão de rede sem comutador de armazenamento de dois nós, um comutador.