Planeación de cargas de trabajo de Azure Stack HCI

Completado

Después de comprobar que Azure Stack HCl es adecuado para hospedar la carga de trabajo, debe tener en cuenta los requisitos de infraestructura, incluidos los componentes de proceso, almacenamiento y redes. Estas consideraciones dependen de la carga de trabajo, por lo que para un escenario como el de Contoso debe tener en cuenta los distintos requisitos de rendimiento de Microsoft SQL Server y VDI.

Plan de Azure Stack HCl

Entre las consideraciones generales de planeación para una implementación de Azure Stack HCI se incluyen:

  • El número de servidores físicos por clúster. Este número debe estar entre 1 y 16.
  • El número de dominios de error por clúster. De forma predeterminada, cada nodo de un clúster de Espacios de almacenamiento directo es un dominio de error.
  • El número y tipo de procesadores por servidor. El primero de estos valores determina el recuento de núcleos y el último dicta su velocidad.
  • La cantidad y el tipo de memoria por servidor, incluso si se va a usar memoria persistente (PMEM).
  • Rendimiento del disco, incluida la configuración de niveles y almacenamiento en caché correspondientes.
  • Número, tipos y funcionalidades de los adaptadores de red.
  • La suscripción de Azure en la que registrará la implementación de Azure Stack HCI, ya que hay cargos continuos por los clústeres de Azure Stack HCI en función del tipo de suscripción de Azure.

Entre las consideraciones de planeación con respecto al rendimiento y la capacidad de almacenamiento se incluyen:

  • El número y los tipos de discos, incluidos HDD, SSD y NVMe.
  • Niveles de resistencia de Espacios de almacenamiento directo.
  • Configuración de niveles y almacenamiento en caché.

Otros factores de red que se deben tener en cuenta:

  • Si se usan conmutadores de red o no (los clústeres pequeños pueden usar una red de malla completa para conectar servidores entre sí sin conmutadores)
  • Requisitos de cableado físico para adaptadores (conmutado frente a sin conmutador)
  • Los conmutadores de red por clúster y la propiedad de los mismos

Otras consideraciones se aplican a los clústeres extendidos, incluido el número de servidores que requiere cada sitio y el modo de la configuración de clúster. Los dos modos son:

  • Modo activo-pasivo, en el que un sitio principal designado se replica de forma unidireccional en otro sitio que proporciona funcionalidad de recuperación ante desastres.
  • Modo activo-activo, en el que dos sitios replican sus respectivos volúmenes unidireccionalmente entre sí, lo que proporciona la capacidad de conmutación por error si se produce un error en cualquiera de los sitios. El modo activo-activo ayuda a minimizar los costos de continuidad de negocio, ya que no necesitará un sitio de recuperación ante desastres dedicado.

Las cargas de trabajo previstas afectan a todos estos factores. De hecho, los casos de uso tratados anteriormente son una base para identificar una configuración de hardware de Azure Stack HCI óptima. El catálogo de Azure Stack HCI tiene una lista de todas las soluciones de Azure Stack HCI que ofrecen los proveedores de hardware externos y de las que Microsoft aprueba.

Planeación de almacenamiento host de Azure Stack HCI

En los términos más simples, la planeación de almacenamiento host de Azure Stack HCI implica la identificación del equilibrio óptimo entre resistencia, capacidad y rendimiento de Espacios de almacenamiento directo. Sin embargo, existe una dificultad; maximizar una de estas características normalmente tiene un efecto negativo en al menos una de las otras dos. Por ejemplo, al aumentar la resistencia se reduce la capacidad utilizable, aunque el rendimiento resultante puede variar según el tipo de resistencia.

Unidades

Espacios de almacenamiento directo admite unidades de disco duro (HDD), unidades de estado sólido (SSD) y unidades de memoria no volátil rápida (NVMe), incluida PMEM. La elección del tipo de unidad afecta directamente al rendimiento del almacenamiento debido a las diferencias en las características de rendimiento entre cada tipo y el mecanismo de caché.

Caché de Espacios de almacenamiento directo

En general, Espacios de almacenamiento directo asigna unidades a una de las dos categorías existentes según el tipo de unidad: de capacidad o de caché.

  • Las unidades de capacidad proporcionan el almacenamiento sin procesar para el clúster y suelen ser más lentas y de mayor capacidad que las unidades de caché.
  • Las unidades de caché se usan para acelerar las lecturas y escrituras en unidades de capacidad más lentas.

En clústeres con varios tipos de unidad, Espacios de almacenamiento directo asigna automáticamente todos los tipos de unidad más rápidos a la memoria caché y usa las unidades restantes para la capacidad. Puede almacenar en caché manualmente en escenarios en los que la configuración predeterminada no suspenda un rendimiento óptimo.

Simetría de unidades

Espacios de almacenamiento directo funciona de manera óptima cuando todos los servidores tienen exactamente el mismo número y tipo de unidades. En general, debe configurar el clúster de Espacios de almacenamiento directo de forma que:

  • Todos los servidores tengan el mismo tipo de unidad.
  • Todos los servidores tengan el mismo número de unidades por tipo.
  • Todas las unidades tengan el mismo modelo y versión de firmware.
  • Todas las unidades del mismo tipo tengan el mismo tamaño.

El número de unidades puede diferir temporalmente durante los errores o al agregar o quitar unidades. También hay cierta flexibilidad con los tamaños y modelos de unidad; por ejemplo, es posible que no pueda reemplazar una unidad con errores por el mismo modelo. Sin embargo, si las unidades son demasiado diferentes, podría acabar con una capacidad desaprovechada o un rendimiento desigual.

Cuórums de clúster y grupo

En un clúster de conmutación por error, el término cuórum es el número de componentes de agrupación en clústeres que deben estar disponibles para que ese clúster permanezca en línea. Estos componentes pueden incluir los nodos de clúster y, opcionalmente, un testigo. El término testigo especifica un recurso dedicado exclusivamente a establecer y mantener un cuórum.

Con Espacios de almacenamiento directo, existen dos mecanismos de cuórum distintos:

  • Quórum de clúster, que funciona en el nivel de clúster, y se basa en los votos de los nodos y un testigo. Espacios de almacenamiento directo no admite el testigo de disco, con lo que las únicas dos opciones viables que quedan son el testigo de nube y el testigo de recurso compartido de archivos.
  • Quórum de grupo, que opera en el nivel de grupo de almacenamiento, y se basa en los votos de los nodos y la resistencia del almacenamiento. Para optimizar la configuración del cuórum de grupo al implementar Espacios de almacenamiento directo, asegúrese de que haya una configuración de almacenamiento coincidente en cada nodo del clúster.

Volúmenes

Con Espacios de almacenamiento directo, los volúmenes permiten agrupar las unidades en el grupo de almacenamiento hasta obtener la combinación óptima de requisitos de tolerancia a errores, escalabilidad y rendimiento. Al planear volúmenes de Espacios de almacenamiento directo, debe tener en cuenta lo siguiente:

  • Número de volúmenes por clúster: para optimizar el rendimiento del almacenamiento, el número de volúmenes por servidor debe ser múltiplo del número de servidores por clúster.

  • Sistema de archivos: se recomienda usar el Sistema de archivos resistente (ReFS) para volúmenes de Espacios de almacenamiento directo.

    Si la carga de trabajo requiere una característica que ReFS aún no admite, puede usar volúmenes NTFS en su lugar para esa carga de trabajo (puede tener volúmenes ReFS y NTFS en el mismo clúster).

  • Tamaño de volumen: el tamaño de un volumen en un clúster de Azure Stack HCI no debe superar los 64 TB.

  • Capacidad reservada: para optimizar el uso del espacio en disco, considere reservar el equivalente de una unidad de capacidad por servidor, hasta cuatro unidades por clúster.

  • Tipo de resistencia: la resistencia del volumen es el mecanismo principal que protege los datos que residen en el bloque de almacenamiento frente a problemas de hardware, como errores de unidad o de servidor. La elección del tipo de resistencia depende de la carga de trabajo.

    • Use la creación de reflejo para volúmenes que necesitan maximizar el rendimiento para las cargas de trabajo con requisitos de latencia estrictos o que realizan grandes cantidades de IOPS aleatorias mixtas, como bases de datos de Microsoft SQL Server o máquinas virtuales de Hyper-V sensibles al rendimiento.
    • Use la paridad dual para volúmenes que necesitan maximizar la eficacia de la capacidad y para las cargas de trabajo con requisitos de E/S menos exigentes, como los servidores de archivos o la infraestructura de escritorio virtual (VDI).
    • Use la paridad acelerada por reflejo para equilibrar el rendimiento y la capacidad de las cargas de trabajo que realizan escrituras secuenciales grandes, como el software de copia de seguridad.
    • Use la resistencia anidada en clústeres de dos servidores que ejecutan cargas de trabajo de producción para agregar resistencia a un error de unidad que se produce mientras un servidor está sin conexión. Puede usar la creación de reflejo anidada o la paridad acelerada por reflejo, en función de la carga de trabajo.

Planeamiento de las redes de host de Azure Stack HCI

En términos más simples, el planeamiento de las redes de host en Azure Stack HCI implica identificar la configuración del adaptador y del conmutador físico que usará. Además, hay que tener en cuenta también la latencia y los requisitos de puertos de red entre sitios de los clústeres extendidos.

Consideraciones sobre redes físicas

Como mínimo, los clientes deben asegurarse de lo siguiente:

  • Usan un conmutador de Azure Stack HCI compatible.
  • Conocen las subredes IP y las VLAN para la administración, el almacenamiento y el tráfico de proceso.

También puede ser necesario integrar otros requisitos de red, como Data Center Bridging, en los requisitos de red de su solución (más información al respecto más adelante).

Network ATC

Network ATC es un nuevo servicio que ayuda a implementar y mantener la configuración de red del host y solo está disponible en Azure Stack HCI. Network ATC proporciona estas ventajas:

  • Simplifica la implementación de redes de host en todo el clúster
  • Implementa los procedimientos recomendados validados por Microsoft más recientes.
  • Mantiene todas las configuraciones de red de host sincronizadas dentro del clúster.
  • Corrige errores de configuración del administrador para evitar desfases en la configuración.
  • Simplifica la expansión del clúster, lo que ayuda a garantizar que los nuevos servidores se implementan exactamente como los demás.

Con Network ATC, se reduce la configuración del host a un único comando o interfaz de usuario (a través de Windows Admin Center).

RDMA

RDMA es una tecnología de red clave que proporciona comunicación de alto rendimiento y baja latencia que descarga el tráfico de red de las CPU, lo que libera el tiempo de CPU para ejecutar cargas de trabajo. Las configuraciones de Azure Stack HCI pueden usar una de las dos tecnologías de RDMA comunes:

  • (Recomendado) Protocolo RDMA de área extensa de Internet (iWarp) sobre TCP/IP, con TCP que proporciona control de flujo y administración de la congestión
  • RDMA sobre Ethernet convergente (RoCE) a través de UDP/IP, con Data Center Bridging (DCB)

Si no está seguro de qué tecnología usar, se recomienda iWARP, ya que es más sencilla de configurar.

Plan para las redes definidas por software

Azure Stack HCI incluye redes definidas por software (SDN), que pueden proporcionar servicios de red en la infraestructura basada en la red de área local virtual (VLAN) existente, así como virtualizar las redes y proporcionar servicios de red en las redes virtualizadas.

Escenarios de SDN en redes VLAN tradicionales:

  • Microsegmentación: los clientes pueden aplicar directivas de lista de control de acceso (ACL) de seguridad para proteger sus cargas de trabajo frente a ataques internos y externos.
  • Calidad de servicio (QoS): los clientes pueden aplicar políticas QoS para evitar que una máquina virtual de aplicación o carga de trabajo use todo el ancho de banda de los nodos del clúster de HCI.
  • Equilibrio de carga de software (SLB): los clientes pueden implementar SLB para distribuir uniformemente el tráfico de red del cliente entre varios recursos. SLB permite que varios servidores hospeden la misma carga de trabajo, lo que proporciona alta disponibilidad y escalabilidad. También proporciona servicios de traducción de direcciones de red (NAT).

Escenarios de SDN en redes virtualizadas:

  • Virtualización de red: los clientes pueden traer sus propias redes IP y aprovisionar cargas de trabajo en estas redes.
  • Microsegmentación: los clientes pueden aplicar directivas de lista de control de acceso (ACL) de seguridad para proteger sus cargas de trabajo frente a ataques internos y externos.
  • Calidad de servicio (QoS): los clientes pueden aplicar políticas QoS para evitar que una máquina virtual de aplicación o carga de trabajo consuma todo el ancho de banda del clúster.
  • Equilibrio de carga de software (SLB): los clientes pueden implementar equilibrio de carga de software para distribuir uniformemente el tráfico de red del cliente entre varios recursos. El equilibrio de carga de software permite que varios servidores hospeden la misma carga de trabajo, lo que proporciona una alta disponibilidad y escalabilidad. También proporciona servicios de traducción de direcciones de red (NAT).
  • Aplicaciones virtuales: los clientes pueden usar sus propias aplicaciones virtuales de terceros, como firewalls, dispositivos de detección de intrusiones, equilibradores de carga y mucho más, y asociarlos a las redes virtualizadas.
  • Conectividad a redes externas: los clientes pueden usar puertas de enlace de SDN para proporcionar conectividad desde sus redes virtualizadas hasta redes externas. SDN proporciona conectividad a redes locales a través de Internet o a través de redes dedicadas. También proporciona conectividad entre redes virtualizadas y redes físicas en la misma ubicación.

SDN tiene tres componentes de infraestructura y puede optar por implementar algunos o todos ellos en función de sus necesidades.

  • Controladora de red: este es el componente principal de SDN. La controladora de red es el plano de control centralizado para SDN. Recibe la directiva del plano de administración y configura el plano de datos con la directiva. Con la controladora de red, los clientes pueden administrar servicios de red como microsegmentación y QoS para redes VLAN tradicionales y redes virtualizadas.
  • Equilibrio de carga de software (SLB): es el componente de infraestructura responsable de proporcionar las funcionalidades de equilibrio de carga y NAT para cargas de trabajo en redes VLAN tradicionales y redes virtualizadas.
  • Puertas de enlace: estos son los componentes de infraestructura responsables de proporcionar conectividad de red virtual a redes externas.

Comprobación de conocimientos

1.

¿Cuál es el número mínimo de servidores de un clúster de Azure Stack HCI?

2.

¿Qué hace Network ATC?