Compartir vía


Procedimientos recomendados para características avanzadas del programador en Azure Kubernetes Service (AKS)

A medida que administra los clústeres en Azure Kubernetes Service (AKS), a menudo necesita aislar los equipos y las cargas de trabajo. Las características avanzadas proporcionadas por el programador de Kubernetes le permiten controlar:

  • Qué pods se pueden programar en determinados nodos.
  • Cómo se pueden distribuir correctamente las aplicaciones de varios pods en el clúster.

Este artículo de procedimientos recomendados se centra en las características avanzadas de Kubernetes para operadores de clúster. En este artículo aprenderá a:

  • Usar valores taint y toleration para limitar los pods que pueden programarse en nodos.
  • Dar prioridad a los pods para ejecutarse en determinados nodos con los selectores de nodo o la afinidad de nodo.
  • Dividir o agrupar pods con afinidad o falta de afinidad entre pods.
  • Restrinja la programación de cargas de trabajo que requieren GPU solo en nodos con GPU programables.

Proporcionar nodos dedicados con taints y tolerations

Guía de procedimientos recomendados:

Limite el acceso a aplicaciones que consumen muchos recursos, como los controladores de entrada, a nodos específicos. Mantenga recursos de nodo disponibles para las cargas de trabajo que los necesite y no permita la programación de otras cargas de trabajo en los nodos.

Al crear el clúster de AKS, puede implementar los nodos con compatibilidad con GPU o un gran número de CPU eficaces. Para obtener más información, vea Uso de GPU en AKS. Puede usar estos nodos para cargas de trabajo de procesamiento de datos grandes, como el aprendizaje automático o la inteligencia artificial.

Dado que este hardware de recurso de nodo suele ser costoso de implementar, limite las cargas de trabajo que se pueden programar en estos nodos. Mejor dedique algunos nodos del clúster a ejecutar servicios de entrada y evite otras cargas de trabajo.

Esta compatibilidad para distintos nodos se proporciona mediante el uso de varios grupos de nodos. Un clúster de AKS admite uno o varios grupos de nodos.

El programador de Kubernetes utiliza valores taint y toleration para limitar las cargas de trabajo que se pueden ejecutar en los nodos.

  • Aplique un valor taint a un nodo para indicar que solo se pueden programar determinados pods en él.
  • A continuación, aplique un valor toleration a un pod, lo que le permite tolerar el taint de un nodo.

Al implementar un pod en un clúster de AKS, Kubernetes programa solo pods en nodos donde un valor taint se alinea con un valor toleration. Los taints y las tolerancias funcionan conjuntamente para garantizar que los pods no se programen en los nodos inapropiados. Se aplican uno o varios taints a un nodo, que queda marcado para que no acepte pods que no toleren esos taints.

Por ejemplo, suponga que agregó un grupo de nodos en el clúster de AKS para nodos con compatibilidad con GPU. Define el nombre (por ejemplo, gpu) y, a continuación, un valor para la programación. Al establecer este valor en NoSchedule, se impide que el programador de Kubernetes programe pods con el valor toleration indefinido en el nodo.

az aks nodepool add \
    --resource-group myResourceGroup \
    --cluster-name myAKSCluster \
    --name taintnp \
    --node-taints sku=gpu:NoSchedule \
    --no-wait

Una vez que se aplica un taint a los nodos del grupo de nodos, puede definir una tolerancia en la especificación del pod que permite la programación en los nodos. En el ejemplo siguiente se define sku: gpu y effect: NoSchedule para tolerar el valor taint aplicado al grupo de nodos en el paso anterior:

kind: Pod
apiVersion: v1
metadata:
  name: app
spec:
  containers:
  - name: app
    image: <your-workload>:gpu
    resources:
      requests:
        cpu: 0.5
        memory: 2Gi
      limits:
        cpu: 4.0
        memory: 16Gi
  tolerations:
  - key: "sku"
    operator: "Equal"
    value: "gpu"
    effect: "NoSchedule"

Cuando se implemente este pod mediante kubectl apply -f gpu-toleration.yaml, Kubernetes puede programar correctamente el pod en los nodos donde se ha aplicado el valor taint. Este aislamiento lógico le permite controlar el acceso a los recursos dentro de un clúster.

Al aplicar valores taint, el trabajo con los desarrolladores y propietarios de su aplicación les permite definir las tolerancias necesarias en sus implementaciones.

Para obtener más información sobre cómo usar varios grupos de nodos en AKS, consulte Creación de varios grupos de nodos para un clúster en AKS.

Comportamiento de taints y tolerations en AKS

Al actualizar un grupo de nodos en AKS, taints y tolerations siguen un patrón de conjunto a medida que se aplican a los nuevos nodos:

Clústeres predeterminados que utilizan Azure Virtual Machine Scale Sets

Puede agregar un valor taint a un grupo de nodos desde la API de AKS para que los nuevos nodos que se escalen horizontalmente reciban los valores taint de nodo especificados por la API.

Supongamos que:

  1. Comienza con un clúster de dos nodos: node1 y node2.
  2. Actualice el grupo de nodos.
  3. Se crean otros dos nodos: node3 y node4.
  4. Se pasan los valores taint respectivamente.
  5. Las versiones originales de node1 y node2 se eliminan.

Clústeres sin compatibilidad con Virtual Machine Scale Sets

Una vez más, supongamos que:

  1. Tiene un clúster de dos nodos: node1 y node2.
  2. Actualice el grupo de nodos.
  3. Se crea un nodo adicional: node3.
  4. Los valores taint de node1 se aplican a node3.
  5. node1 se elimina.
  6. Se crea un nuevo node1 para reemplazar al nodo original node1.
  7. Los valores taint de node2 se aplican al nuevo node1.
  8. node2 se elimina.

Básicamente, node1 se convierte en node3, y node2 se convierte en el nuevo node1.

Al escalar un grupo de nodos en AKS, los taints y tolerancias no se transfieren por diseño.

Control de la programación del pod mediante selectores de nodo y afinidad

Guía de procedimientos recomendados

Controle la programación de pods en nodos mediante selectores de nodo, la afinidad de nodo y la afinidad entre nodos. Esta configuración permite que el programador de Kubernetes aísle lógicamente las cargas de trabajo, como el hardware en el nodo.

Los valores taint y toleration aíslan lógicamente los recursos con un límite máximo. Si el pod no tolera el valor taint de un nodo, no se programa en el nodo.

Como alternativa, puede usar selectores de nodo. Por ejemplo, etiqueta los nodos para indicar el almacenamiento SSD adjunto localmente o una gran cantidad de memoria y, luego, define en la especificación del pod un selector de nodo. Kubernetes programa los pods en un nodo coincidente.

A diferencia de las tolerancias, los pods sin un selector de nodo coincidente aún pueden programarse en nodos etiquetados. Este comportamiento permite que los recursos no utilizados en los nodos se consuman, pero da prioridad a los pods que definen el selector de nodo correspondiente.

Veamos un ejemplo de nodos con una gran cantidad de memoria. Estos nodos pueden dar preferencia a los pods que solicitan una gran cantidad de memoria. Para asegurarse de que los recursos no estén inactivos, también permiten que se ejecuten otros pods. El siguiente comando de ejemplo agrega un grupo de nodos con la etiqueta hardware=highmem a myAKSCluster en myResourceGroup. Todos los nodos de ese grupo de nodos tienen esta etiqueta.

az aks nodepool add \
    --resource-group myResourceGroup \
    --cluster-name myAKSCluster \
    --name labelnp \
    --node-count 1 \
    --labels hardware=highmem \
    --no-wait

Una especificación de pod, a continuación, agrega la propiedad nodeSelector para definir un selector de nodo que coincide con la etiqueta configurada en un nodo:

kind: Pod
apiVersion: v1
metadata:
  name: app
spec:
  containers:
  - name: app
    image: <your-workload>:gpu
    resources:
      requests:
        cpu: 0.5
        memory: 2Gi
      limits:
        cpu: 4.0
        memory: 16Gi
  nodeSelector:
      hardware: highmem

Cuando utilice estas opciones del programador, trabaje con los desarrolladores y propietarios de las aplicaciones para permitirles definir correctamente sus especificaciones de pods.

Para obtener más información sobre el uso de selectores de nodo, vea Assigning Pods to Nodes (Asignación de pods a nodos).

Afinidad de nodos

Un selector de nodos es una solución básica para asignar pods a un nodo determinado. La afinidad de nodo proporciona más flexibilidad, lo que le permite definir lo que sucede si el pod no puede coincidir con un nodo. Puede:

  • Exigir que el programador de Kubernetes coincida con un pod con un host etiquetado. O bien,
  • Preferir una coincidencia, pero permitir que el pod se programe en un host diferente si no hay coincidencias disponibles.

En el ejemplo siguiente se establece la afinidad de nodo en requiredDuringSchedulingIgnoredDuringExecution. Esta afinidad requiere que la programación de Kubernetes utilice un nodo con una etiqueta coincidente. Si ningún nodo está disponible, el pod tiene que esperar una programación para continuar. Para permitir que el pod se programe en un nodo diferente, puede optar por establecer el valor en preferredDuringSchedulingIgnoreDuringExecution:

kind: Pod
apiVersion: v1
metadata:
  name: app
spec:
  containers:
  - name: app
    image: <your-workload>:gpu
    resources:
      requests:
        cpu: 0.5
        memory: 2Gi
      limits:
        cpu: 4.0
        memory: 16Gi
  affinity:
    nodeAffinity:
      requiredDuringSchedulingIgnoredDuringExecution:
        nodeSelectorTerms:
        - matchExpressions:
          - key: hardware
            operator: In
            values:
            - highmem

La parte IgnoredDuringExecution de la configuración indica que, si cambian las etiquetas del nodo, el pod no debe expulsarse del nodo. El programador de Kubernetes usa solo las etiquetas de nodo actualizadas para los nuevos pods que se programan, no para los pods que ya están programados en los nodos.

Para obtener más información, consulte Affinity and anti-affinity (Afinidad y falta de afinidad).

Afinidad y falta de afinidad entre pods

Un último enfoque para que el programador de Kubernetes aísle lógicamente las cargas de trabajo es usar la afinidad o la falta de afinidad entre pods. Esta configuración define si los pods deben o no deben estar programados en un nodo que tenga un pod coincidente existente. De forma predeterminada, el programador de Kubernetes intenta programar varios pods en un conjunto de réplica entre nodos. Puede definir reglas más específicas sobre este comportamiento.

Por ejemplo, tiene una aplicación web que también usa una instancia de Azure Cache for Redis.

  • Usa reglas de falta de afinidad de pods para solicitar que el programador de Kubernetes distribuya réplicas entre nodos.
  • Usa las reglas de afinidad para asegurarse de que cada componente de aplicación web se programe en el mismo host como una caché correspondiente.

La distribución de pods en todos los nodos es similar al ejemplo siguiente:

Nodo 1 Nodo 2 Nodo 3
aplicación web-1 aplicación web-2 aplicación web-3
caché-1 caché-2 caché-3

La afinidad entre pods y la antiafinidad proporcionan una implementación más compleja que los selectores de nodo o la afinidad de nodo. Con la implementación, aislará lógicamente los recursos y controlará cómo Kubernetes programa pods en los nodos.

Para obtener un ejemplo completo de esta aplicación web con el ejemplo de la instancia de Azure Redis Cache, consulte Colocación de pods en el mismo nodo.

Pasos siguientes

Este artículo se ha centrado en las características avanzadas del programador de Kubernetes. Para obtener más información acerca de las operaciones de clúster en AKS, consulte los siguientes procedimientos recomendados: