Tempo limite intermitente ou problemas de servidor ao acessar o aplicativo no AKS

Este artigo descreve como solucionar problemas de conectividade intermitente que afetam seus aplicativos hospedados em um cluster do AKS (Serviço de Kubernetes do Azure).

Pré-requisitos

  • A ferramenta URL do Cliente (cURL) ou uma ferramenta de linha de comando semelhante.

  • A ferramenta kubernetes kubectl ou uma ferramenta semelhante para se conectar ao cluster. Para instalar o kubectl usando a CLI do Azure, execute o comando az aks install-cli .

Sintomas

Quando você executa um comando cURL, ocasionalmente recebe uma mensagem de erro "Tempo limite". A saída pode se assemelhar ao seguinte texto:

$ # One connection is successful, which results in a HTTP 200 response.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* Connected to 20.62.x.x (20.62.x.x) port 80 (#0)
...
...
< HTTP/1.1 200 OK
HTTP/1.1 200 OK

$ # Another connection is unsuccessful, because it gets timed out.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* connect to 20.62.x.x port 80 failed: Timed out
* Failed to connect to 20.62.x.x port 80 after 21050 ms: Timed out
* Closing connection 0
curl: (28) Failed to connect to 20.62.x.x port 80 after 21050 ms: Timed out

$ # Then the next connection is again successful.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* Connected to 20.62.x.x (20.62.x.x) port 80 (#0)
...
...
< HTTP/1.1 200 OK
HTTP/1.1 200 OK

Motivo

Os tempos limite intermitentes sugerem problemas de desempenho de componentes, em vez de problemas de rede.

Nesse cenário, é importante marcar o uso e a integridade dos componentes. Você pode usar a técnica de dentro para fora para marcar o status dos pods. Execute os comandos kubectl top e kubectl get , da seguinte maneira:

$ kubectl top pods  # Check the health of the pods and the nodes.
NAME                            CPU(cores)   MEMORY(bytes)
my-deployment-fc94b7f98-m9z2l   1m           32Mi

$ kubectl top nodes
NAME                                CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
aks-agentpool-42617579-vmss000000   120m         6%     2277Mi          49%

$ kubectl get pods  # Check the state of the pod.
NAME                            READY   STATUS    RESTARTS   AGE
my-deployment-fc94b7f98-m9z2l   2/2     Running   1          108s

A saída mostra que o uso atual dos pods e nós parece ser aceitável.

Embora o pod esteja no estado, uma reinicialização ocorre após os primeiros 108 segundos do pod em Running execução. Essa ocorrência pode indicar que alguns problemas afetam os pods ou contêineres executados no pod.

Se o problema persistir, o status do pod será alterado após algum tempo:

$ kubectl get pods
NAME                            READY   STATUS             RESTARTS   AGE
my-deployment-fc94b7f98-m9z2l   1/2     CrashLoopBackOff   42         3h53m

Este exemplo mostra que o Ready estado foi alterado e há várias reinicializações do pod. Um dos contêineres está no CrashLoopBackOff estado.

Essa situação ocorre porque o contêiner falha após a inicialização e, em seguida, o Kubernetes tenta reiniciar o contêiner para forçá-lo a começar a funcionar. No entanto, se o problema persistir, o aplicativo continuará falhando depois de ser executado por algum tempo. O Kubernetes eventualmente altera o status para CrashLoopBackOff.

Para marcar os logs do pod, execute os seguintes comandos de logs kubectl:

$ kubectl logs my-deployment-fc94b7f98-m9z2l
error: a container name must be specified for pod my-deployment-fc94b7f98-m9z2l, choose one of: [webserver my-app]

$ # Since the pod has more than one container, the name of the container has to be specified.
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c webserver
[...] [mpm_event:notice] [pid 1:tid 140342576676160] AH00489: Apache/2.4.52 (Unix) configured -- resuming normal operations
[...] [core:notice] [pid 1:tid 140342576676160] AH00094: Command line: 'httpd -D FOREGROUND'
10.244.0.1 - - ... "GET / HTTP/1.1" 200 45
10.244.0.1 - - ... "GET /favicon.ico HTTP/1.1" 404 196
10.244.0.1 - - ... "-" 408 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "POST /boaform/admin/formLogin HTTP/1.1" 404 196

$ # The webserver container is running fine. Check the logs for other container (my-app).
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c my-app

$ # No logs observed. The container could be starting or be in a transition phase.
$ # So logs for the previous execution of this container can be checked using the --previous flag:
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c my-app --previous
<Some Logs from the container>
..
..
Started increasing memory

As entradas de log foram feitas na hora anterior em que o contêiner foi executado. A existência dessas entradas sugere que o aplicativo começou, mas foi fechado devido a alguns problemas.

A próxima etapa é marcar os eventos do pod executando o comando de descrever kubectl:

$ kubectl describe pod my-deployment-fc94b7f98-m9z2l
Name:         my-deployment-fc94b7f98-m9z2l
Namespace:    default
...
...
Labels:       app=my-pod
...
...
Containers:
  webserver:
 ...
 ...
  my-app:
    Container ID:   containerd://a46e5062d53039d0d812c57c76b740f8d1ffb222de35203575bf8e4d10d6b51e
    Image:          my-repo/my-image:latest
    Image ID:       docker.io/my-repo/my-image@sha256:edcc4bedc7b...
    State:          Running
      Started:      <Start Date>
    Last State:     Terminated
      Reason:       OOMKilled
      Exit Code:    137
    Ready:          True
    Restart Count:  44
    Limits:
      memory:  500Mi
    Requests:
      cpu:        250m
      memory:     500Mi
...
...
Events:
  Type     Reason   Age                     From     Message
  ----     ------   ----                    ----     -------
  Normal   Pulling  49m (x37 over 4h4m)     kubelet  Pulling image "my-repo/my-image:latest"
  Warning  BackOff  4m10s (x902 over 4h2m)  kubelet  Back-off restarting failed container

Observações:

Você pode dizer pelos eventos que o contêiner está sendo morto porque está excedendo os limites de memória. Quando o limite de memória do contêiner é atingido, o aplicativo se torna intermitentemente inacessível e o contêiner é morto e reiniciado.

Solução

Você pode remover o limite de memória e monitorar o aplicativo para determinar a quantidade de memória que ele realmente precisa. Depois de aprender o uso da memória, você pode atualizar os limites de memória no contêiner. Se o uso de memória continuar aumentando, determine se há um vazamento de memória no aplicativo.

Para obter mais informações sobre como planejar recursos para cargas de trabalho em Serviço de Kubernetes do Azure, consulte práticas recomendadas de gerenciamento de recursos.

Entre em contato conosco para obter ajuda

Se você tiver dúvidas ou precisar de ajuda, crie uma solicitação de suporte ou peça ajuda à comunidade de suporte do Azure. Você também pode enviar comentários sobre o produto para a comunidade de comentários do Azure.