Compartir a través de


Conectividad y topología de red de HPC para fabricación

Esta guía se basa en las consideraciones y recomendaciones que se definen en el artículo sobre la zona de aterrizaje de Azure para la topología de red y la conectividad. En las instrucciones de este artículo se le ayuda a examinar las principales consideraciones de diseño y los procedimientos recomendados en relación con las redes y la conectividad hacia, desde y dentro de Microsoft Azure y las implementaciones de HPC.

Planeamiento de la dirección IP, la red virtual y las subredes

Para planear las necesidades del direccionamiento IP en Azure, es fundamental asegurarse de que:

  • El espacio de direcciones IP no se superpone entre las ubicaciones locales y las regiones de Azure.
  • El emparejamiento futuro de la red virtual con redes virtuales existentes o planeadas es posible.
  • La red virtual contiene el espacio de direcciones adecuado.
  • El planeamiento adecuado de la configuración de la subred tiene lugar de antemano.
  • Se considera suficiente exceso de direccionamiento para futuras expansiones u otros servicios.

Consideraciones de diseño de HPC para fabricación

Considere la posibilidad de crear subredes independientes para asignar direcciones IP a través de componentes funcionales del entorno. Por ejemplo, una VNet de HPC dedicada podría incluir las siguientes subredes:

  • Proceso
  • Storage
  • Infraestructura
  • Visualización
  • Inicio de sesión
  • ANF
  • HPC Cache

Varios servicios, como Azure NetApp Files, Azure HPC Cache y futuras ofertas de almacenamiento, requieren subredes delegadas dedicadas para un funcionamiento correcto. Asegúrese de planear el espacio de direccionamiento adecuado si se plantea usar alguno de estos servicios.

Configuración de DNS y la resolución de nombres para los recursos locales y de Azure

El sistema de nombres de dominio (DNS) es un aspecto de diseño fundamental en la arquitectura general de la zona de aterrizaje de Azure. Es posible que algunas organizaciones deseen usar sus inversiones existentes en DNS. Otros usuarios podrían ver la adopción de la nube como una oportunidad para modernizar su infraestructura DNS interna y usar las funcionalidades nativas de Azure.

Consideraciones de diseño de redes de HPC

Las recomendaciones siguientes son adecuadas cuando el nombre DNS o el nombre virtual de una máquina virtual no cambia durante la migración.

Caso de uso:

  • Los nombres virtuales y DNS en segundo plano conectan numerosas interfaces del sistema en los entornos de HPC. Los clientes no siempre conocen las interfaces que los desarrolladores definen a lo largo del tiempo. Si los nombres DNS o virtuales cambian después de las migraciones, surgen desafíos de conexión entre los distintos sistemas. Se recomienda conservar los alias DNS para evitar este tipo de dificultades.
  • Use diferentes zonas DNS para distinguir cada entorno (espacio aislado, desarrollo, preproducción y producción) de los demás. Las implementaciones de HPC con su propia red virtual son una excepción. En este caso, puede que no sean necesarias las zonas DNS privadas.
  • La compatibilidad con DNS es obligatoria cuando se usa la memoria caché HPC para poder acceder al almacenamiento y a otros recursos.

Servicios de red de alto rendimiento

Redes aceleradas

Muchas cargas de trabajo de HPC (por ejemplo, las de procesamiento sísmico) requieren el procesamiento de una gran cantidad de datos. Los datos se almacenan en sistemas de archivos compartidos de gran tamaño, como Azure Blob, Azure NetApp Files, Lustre ClusterStor y otras soluciones de almacenamiento personalizadas a las que se accede a través de la red. Es fundamental basarse en una red de alto rendimiento para reducir el tiempo de las transferencias de datos.

La habilitación de redes aceleradas proporciona a las máquinas virtuales una conexión de alto rendimiento y de baja latencia, tanto entre ellas como hacia y desde los servicios de Azure, junto con una inestabilidad reducida y un uso mínimo de la CPU.

Infiniband

Puede que las aplicaciones HPC paralelas que se basan en bibliotecas de interfaz de paso de mensajes (MPI) requieran la transferencia de cantidades importantes de información entre muchas máquinas virtuales. La interconexión InfiniBand disponible en las máquinas virtuales de serie H y serie N compatibles con RDMA proporciona la latencia baja y el ancho de banda elevado requeridos para maximizar el rendimiento y la escalabilidad de las aplicaciones de HPC e IA.

Entre algunos ejemplos de trabajos de MPI se incluyen:

  • Dinámica molecular
  • Dinámica de fluidos computacional
  • Simulación de depósitos de petróleo y gas
  • Cargas de trabajo emergentes de aprendizaje automático distribuido en fabricación

La conexión InfiniBand solo es posible entre máquinas virtuales asignadas dentro del mismo grupo de ubicación.

Azure ExpressRoute

  • Si hay una aplicación de ráfaga como una configuración híbrida para el modelado y la simulación de yacimientos, donde se comparten conjuntos de datos locales y el proceso de Azure se convierte en extensión, Express Route le ayuda a conectar el entorno local a Microsoft Cloud a través de una conexión privada con ayuda de un proveedor de conectividad. Proporciona resistencia y disponibilidad de nivel empresarial, así como la ventaja de un ecosistema global de asociados de ExpressRoute. Para información sobre cómo conectar la red a Microsoft mediante ExpressRoute, consulte ExpressRoute connectivity models (Modelos de conectividad de ExpressRoute).
  • Las conexiones ExpressRoute no utilizan la red de Internet pública y ofrecen más confiabilidad, velocidad, seguridad y una menor latencia que las conexiones a Internet habituales. Para las conexiones VPN de punto a sitio y de sitio a sitio, puede conectar dispositivos o redes locales a una red virtual mediante cualquier combinación de estas opciones de red privada virtual y de Azure ExpressRoute.

Definición de una topología de red de Azure

Las zonas de aterrizaje a escala empresarial admiten dos topologías de red: una basada en Azure Virtual WAN y la otra es una topología de red tradicional basada en la arquitectura en estrella tipo hub-and-spoke. En esta sección se recomiendan configuraciones y procedimientos de HPC para ambos modelos de implementación.

Use una topología de red basada en Virtual WAN si la organización planea:

  • Implemente recursos en varias regiones de Azure y conecte las ubicaciones globales a Azure y al entorno local.
  • Integrar totalmente implementaciones de WAN definidas por software con Azure.
  • Implemente hasta 50 000 cargas de trabajo de máquinas virtuales en todas las redes virtuales conectadas a un centro de conectividad de Virtual WAN.

Las organizaciones usan Virtual WAN para cumplir los requisitos de interconectividad a gran escala. Microsoft administra este servicio, lo que ayuda a reducir la complejidad general de la red y a modernizar la red de la organización.

Use una topología de red de Azure tradicional basada en la arquitectura en estrella tipo hub-and-spoke si la organización:

  • Planea implementar recursos solo en regiones de Azure seleccionadas.
  • No necesita una red interconectada global.
  • Tiene pocas ubicaciones remotas o sucursales por cada región y necesita menos de 30 túneles de seguridad IP (IPsec).
  • Requiere granularidad y control total para configurar manualmente la red de Azure.
  • Usa el emparejamiento de red virtual local y global para proporcionar conectividad. El emparejamiento de red virtual local y global son los enfoques preferidos para garantizar la conectividad entre las zonas de aterrizaje para implementaciones de HPC en varias regiones de Azure.

Planeamiento de la conectividad de Internet entrante y saliente

Esta sección recomienda los modelos de conectividad para las conexiones entrantes y salientes desde y hacia la red pública de Internet. Los servicios de seguridad de red nativos de Azure como Azure Firewall, Azure Web Application Firewall en Application Gateway y Azure Front Door son servicios totalmente administrados. Por lo tanto, no se incurre en los costos operativos y de administración asociados a las implementaciones de infraestructura, lo que puede resultar complejo a escala.

Recomendaciones de diseño para la implementación de HPC:

  • En el caso de los clientes con una superficie global, Azure Front Door ayuda en las implementaciones de HPC mediante directivas de Azure Web Application Firewall para ofrecer y proteger aplicaciones HTTP/S globales entre regiones de Azure.
  • Aproveche las ventajas de las directivas de Web Application Firewall en Azure Front Door cuando use este servicio y Azure Application Gateway para proteger las aplicaciones HTTP/S. Bloquee Azure Application Gateway para que reciba solo el tráfico procedente de Azure Front Door.

Definición de los requisitos de cifrado de red

En esta sección se analizan las principales recomendaciones para cifrar redes entre el entorno local y Azure, así como entre regiones de Azure.

Consideraciones de diseño para las implementaciones de HPC:

  • Actualmente, el tráfico no se cifra cuando usa Azure ExpressRoute para configurar el emparejamiento privado.
  • No es necesario cifrar el tráfico a través de ExpressRoute para las implementaciones de HPC. Los túneles IPsec cifran el tráfico de Internet de forma predeterminada. El cifrado o el descifrado pueden afectar negativamente al rendimiento del tráfico.

Corresponde al cliente determinar si se debe cifrar el tráfico de HPC. Consulte Definición de los requisitos de cifrado de red para conocer las opciones de cifrado de red en zonas de aterrizaje a escala empresarial.

Para planear las necesidades del direccionamiento IP en Azure, es fundamental asegurarse de que:

  • El espacio de direcciones IP no se superpone entre las ubicaciones locales y las regiones de Azure.
  • La red virtual contiene el espacio de direcciones adecuado.
  • El planeamiento adecuado de la configuración de la subred tiene lugar de antemano.

Definición de los requisitos de red, ancho de banda, latencia y rendimiento

  • Tanto el modelo de implementación de HPC solo en la nube como en la nube híbrida tienen sus propias necesidades de redes, latencia de la conectividad y rendimiento en función de cómo se envíen y se ejecuten el flujo de trabajo de fabricación y los trabajos de las cargas de trabajo en el entorno local frente a la nube. Los usuarios pueden enviar trabajos de HPC en diversos modos de implementación (desde el entorno local o la nube).
    • Trabajos únicos
      • Consideraciones de conectividad del entorno local a Azure si usa un escritorio de visualización remota
    • Trabajos de ráfaga
      • Consideraciones de red de configuración del programador, que envían los trabajos en la nube
      • Consideraciones de red de Azure Batch
    • Flujos de trabajo paralelos (tanto locales como en la nube)
    • Híbrido
      • Caché de HPC
    • Nativo en la nube
      • Contenedores KS
      • Functions
  • Los entornos de MPI son dedicados, ya que tienen requisitos únicos con la necesidad de comunicaciones de baja latencia entre los nodos. Los nodos se conectan mediante una interconexión de alta velocidad y no se pueden compartir con otras cargas de trabajo. Las aplicaciones MPI usan todas las interconexiones de alto rendimiento mediante el modo de tránsito en entornos virtualizados. El almacenamiento para nodos MPI suele ser un sistema de archivos paralelo como Lustre, al que también se accede a través de la interconexión de alta velocidad.

Diagrama que muestra InfiniBand.

Pasos siguientes

Los siguientes artículos proporcionan una guía sobre cada paso en el recorrido de adopción de la nube para entornos HPC de fabricación.