Compartir a través de


Tiempos de espera intermitentes o problemas de servidor al acceder a la aplicación en AKS

En este artículo se describe cómo solucionar problemas de conectividad intermitentes que afectan a las aplicaciones hospedadas en un clúster de Azure Kubernetes Service (AKS).

Requisitos previos

  • La herramienta Dirección URL de cliente (cURL) o una herramienta de línea de comandos similar.

  • La herramienta kubectl de Kubernetes o una herramienta similar para conectarse al clúster. Para instalar kubectl mediante la CLI de Azure, ejecute el comando az aks install-cli .

Síntomas

Al ejecutar un comando cURL, en ocasiones recibe un mensaje de error "Tiempo de espera agotado". La salida podría ser similar al texto siguiente:

$ # One connection is successful, which results in a HTTP 200 response.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* Connected to 20.62.x.x (20.62.x.x) port 80 (#0)
...
...
< HTTP/1.1 200 OK
HTTP/1.1 200 OK

$ # Another connection is unsuccessful, because it gets timed out.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* connect to 20.62.x.x port 80 failed: Timed out
* Failed to connect to 20.62.x.x port 80 after 21050 ms: Timed out
* Closing connection 0
curl: (28) Failed to connect to 20.62.x.x port 80 after 21050 ms: Timed out

$ # Then the next connection is again successful.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* Connected to 20.62.x.x (20.62.x.x) port 80 (#0)
...
...
< HTTP/1.1 200 OK
HTTP/1.1 200 OK

Causa

Los tiempos de espera intermitentes sugieren problemas de rendimiento de componentes, en lugar de problemas de red.

En este escenario, es importante comprobar el uso y el estado de los componentes. Puede usar la técnica interna para comprobar el estado de los pods. Ejecute los comandos kubectl top y kubectl get , como se indica a continuación:

$ kubectl top pods  # Check the health of the pods and the nodes.
NAME                            CPU(cores)   MEMORY(bytes)
my-deployment-fc94b7f98-m9z2l   1m           32Mi

$ kubectl top nodes
NAME                                CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
aks-agentpool-42617579-vmss000000   120m         6%     2277Mi          49%

$ kubectl get pods  # Check the state of the pod.
NAME                            READY   STATUS    RESTARTS   AGE
my-deployment-fc94b7f98-m9z2l   2/2     Running   1          108s

La salida muestra que el uso actual de los pods y nodos parece aceptable.

Aunque el pod está en el Running estado , se produce un reinicio después de los primeros 108 segundos del pod en ejecución. Esta aparición podría indicar que algunos problemas afectan a los pods o contenedores que se ejecutan en el pod.

Si el problema persiste, el estado del pod cambia después de algún tiempo:

$ kubectl get pods
NAME                            READY   STATUS             RESTARTS   AGE
my-deployment-fc94b7f98-m9z2l   1/2     CrashLoopBackOff   42         3h53m

En este ejemplo se muestra que se cambia el Ready estado y que hay varios reinicios del pod. Uno de los contenedores está en CrashLoopBackOff estado.

Esta situación se produce porque se produce un error en el contenedor después de iniciarse y, a continuación, Kubernetes intenta reiniciar el contenedor para forzarlo a empezar a trabajar. Sin embargo, si el problema persiste, la aplicación sigue generando un error después de que se ejecute durante algún tiempo. Kubernetes finalmente cambia el estado a CrashLoopBackOff.

Para comprobar los registros del pod, ejecute los siguientes comandos de registros kubectl :

$ kubectl logs my-deployment-fc94b7f98-m9z2l
error: a container name must be specified for pod my-deployment-fc94b7f98-m9z2l, choose one of: [webserver my-app]

$ # Since the pod has more than one container, the name of the container has to be specified.
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c webserver
[...] [mpm_event:notice] [pid 1:tid 140342576676160] AH00489: Apache/2.4.52 (Unix) configured -- resuming normal operations
[...] [core:notice] [pid 1:tid 140342576676160] AH00094: Command line: 'httpd -D FOREGROUND'
10.244.0.1 - - ... "GET / HTTP/1.1" 200 45
10.244.0.1 - - ... "GET /favicon.ico HTTP/1.1" 404 196
10.244.0.1 - - ... "-" 408 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "POST /boaform/admin/formLogin HTTP/1.1" 404 196

$ # The webserver container is running fine. Check the logs for other container (my-app).
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c my-app

$ # No logs observed. The container could be starting or be in a transition phase.
$ # So logs for the previous execution of this container can be checked using the --previous flag:
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c my-app --previous
<Some Logs from the container>
..
..
Started increasing memory

Las entradas de registro se realizaron la hora anterior en que se ejecutó el contenedor. La existencia de estas entradas sugiere que la aplicación se inició, pero se cerró debido a algunos problemas.

El siguiente paso consiste en comprobar los eventos del pod mediante la ejecución del comando kubectl describe :

$ kubectl describe pod my-deployment-fc94b7f98-m9z2l
Name:         my-deployment-fc94b7f98-m9z2l
Namespace:    default
...
...
Labels:       app=my-pod
...
...
Containers:
  webserver:
 ...
 ...
  my-app:
    Container ID:   containerd://a46e5062d53039d0d812c57c76b740f8d1ffb222de35203575bf8e4d10d6b51e
    Image:          my-repo/my-image:latest
    Image ID:       docker.io/my-repo/my-image@sha256:edcc4bedc7b...
    State:          Running
      Started:      <Start Date>
    Last State:     Terminated
      Reason:       OOMKilled
      Exit Code:    137
    Ready:          True
    Restart Count:  44
    Limits:
      memory:  500Mi
    Requests:
      cpu:        250m
      memory:     500Mi
...
...
Events:
  Type     Reason   Age                     From     Message
  ----     ------   ----                    ----     -------
  Normal   Pulling  49m (x37 over 4h4m)     kubelet  Pulling image "my-repo/my-image:latest"
  Warning  BackOff  4m10s (x902 over 4h2m)  kubelet  Back-off restarting failed container

Observaciones:

En los eventos se puede saber que el contenedor se está quitando porque supera los límites de memoria. Cuando se alcanza el límite de memoria del contenedor, la aplicación se vuelve inaccesible intermitentemente y el contenedor se elimina y se reinicia.

Solución

Puede quitar el límite de memoria y supervisar la aplicación para determinar cuánta memoria necesita realmente. Después de conocer el uso de memoria, puede actualizar los límites de memoria en el contenedor. Si el uso de memoria sigue aumentando, determine si hay una pérdida de memoria en la aplicación.

Para obtener más información sobre cómo planear recursos para cargas de trabajo en Azure Kubernetes Service, consulte procedimientos recomendados de administración de recursos.

Ponte en contacto con nosotros para obtener ayuda

Si tiene preguntas o necesita ayuda, cree una solicitud de soporte o busque consejo en la comunidad de Azure. También puede enviar comentarios sobre el producto con los comentarios de la comunidad de Azure.