Partager via


Délais d’attente intermittents ou problèmes de serveur lors de l’accès à l’application sur AKS

Cet article explique comment résoudre les problèmes de connectivité intermittente qui affectent vos applications hébergées sur un cluster Azure Kubernetes Service (AKS).

Conditions préalables

Symptômes

Lorsque vous exécutez une commande cURL, vous recevez parfois un message d’erreur « Délai d’expiration ». La sortie peut ressembler au texte suivant :

$ # One connection is successful, which results in a HTTP 200 response.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* Connected to 20.62.x.x (20.62.x.x) port 80 (#0)
...
...
< HTTP/1.1 200 OK
HTTP/1.1 200 OK

$ # Another connection is unsuccessful, because it gets timed out.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* connect to 20.62.x.x port 80 failed: Timed out
* Failed to connect to 20.62.x.x port 80 after 21050 ms: Timed out
* Closing connection 0
curl: (28) Failed to connect to 20.62.x.x port 80 after 21050 ms: Timed out

$ # Then the next connection is again successful.
$ curl -Iv http://20.62.x.x
*   Trying 20.62.x.x:80...
* Connected to 20.62.x.x (20.62.x.x) port 80 (#0)
...
...
< HTTP/1.1 200 OK
HTTP/1.1 200 OK

Cause

Les délais d’attente intermittents suggèrent des problèmes de performances des composants, par opposition à des problèmes de mise en réseau.

Dans ce scénario, il est important de case activée l’utilisation et l’intégrité des composants. Vous pouvez utiliser la technique d’intérieur pour case activée la status des pods. Exécutez les commandes kubectl top et kubectl get , comme suit :

$ kubectl top pods  # Check the health of the pods and the nodes.
NAME                            CPU(cores)   MEMORY(bytes)
my-deployment-fc94b7f98-m9z2l   1m           32Mi

$ kubectl top nodes
NAME                                CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
aks-agentpool-42617579-vmss000000   120m         6%     2277Mi          49%

$ kubectl get pods  # Check the state of the pod.
NAME                            READY   STATUS    RESTARTS   AGE
my-deployment-fc94b7f98-m9z2l   2/2     Running   1          108s

La sortie indique que l’utilisation actuelle des pods et des nœuds semble acceptable.

Bien que le pod soit dans l’état Running , un redémarrage se produit après les 108 premières secondes de l’exécution du pod. Cette occurrence peut indiquer que certains problèmes affectent les pods ou conteneurs qui s’exécutent dans le pod.

Si le problème persiste, le status du pod change après un certain temps :

$ kubectl get pods
NAME                            READY   STATUS             RESTARTS   AGE
my-deployment-fc94b7f98-m9z2l   1/2     CrashLoopBackOff   42         3h53m

Cet exemple montre que l’état Ready est modifié et qu’il y a plusieurs redémarrages du pod. L’un des conteneurs est à CrashLoopBackOff l’état .

Cette situation se produit parce que le conteneur échoue après le démarrage, puis Kubernetes tente de redémarrer le conteneur pour le forcer à commencer à fonctionner. Toutefois, si le problème persiste, l’application continue à échouer après son exécution pendant un certain temps. Kubernetes finit par modifier le status en CrashLoopBackOff.

Pour case activée les journaux du pod, exécutez les commandes kubectl logs suivantes :

$ kubectl logs my-deployment-fc94b7f98-m9z2l
error: a container name must be specified for pod my-deployment-fc94b7f98-m9z2l, choose one of: [webserver my-app]

$ # Since the pod has more than one container, the name of the container has to be specified.
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c webserver
[...] [mpm_event:notice] [pid 1:tid 140342576676160] AH00489: Apache/2.4.52 (Unix) configured -- resuming normal operations
[...] [core:notice] [pid 1:tid 140342576676160] AH00094: Command line: 'httpd -D FOREGROUND'
10.244.0.1 - - ... "GET / HTTP/1.1" 200 45
10.244.0.1 - - ... "GET /favicon.ico HTTP/1.1" 404 196
10.244.0.1 - - ... "-" 408 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "HEAD / HTTP/1.1" 200 -
10.244.0.1 - - ... "POST /boaform/admin/formLogin HTTP/1.1" 404 196

$ # The webserver container is running fine. Check the logs for other container (my-app).
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c my-app

$ # No logs observed. The container could be starting or be in a transition phase.
$ # So logs for the previous execution of this container can be checked using the --previous flag:
$ kubectl logs my-deployment-fc94b7f98-m9z2l -c my-app --previous
<Some Logs from the container>
..
..
Started increasing memory

Les entrées de journal ont été effectuées lors de l’exécution précédente du conteneur. L’existence de ces entrées suggère que l’application a démarré, mais qu’elle s’est fermée en raison de certains problèmes.

L’étape suivante consiste à case activée les événements du pod en exécutant la commande kubectl describe :

$ kubectl describe pod my-deployment-fc94b7f98-m9z2l
Name:         my-deployment-fc94b7f98-m9z2l
Namespace:    default
...
...
Labels:       app=my-pod
...
...
Containers:
  webserver:
 ...
 ...
  my-app:
    Container ID:   containerd://a46e5062d53039d0d812c57c76b740f8d1ffb222de35203575bf8e4d10d6b51e
    Image:          my-repo/my-image:latest
    Image ID:       docker.io/my-repo/my-image@sha256:edcc4bedc7b...
    State:          Running
      Started:      <Start Date>
    Last State:     Terminated
      Reason:       OOMKilled
      Exit Code:    137
    Ready:          True
    Restart Count:  44
    Limits:
      memory:  500Mi
    Requests:
      cpu:        250m
      memory:     500Mi
...
...
Events:
  Type     Reason   Age                     From     Message
  ----     ------   ----                    ----     -------
  Normal   Pulling  49m (x37 over 4h4m)     kubelet  Pulling image "my-repo/my-image:latest"
  Warning  BackOff  4m10s (x902 over 4h2m)  kubelet  Back-off restarting failed container

Observations :

Les événements vous indiquent que le conteneur est en cours de suppression, car il dépasse les limites de mémoire. Lorsque la limite de mémoire du conteneur est atteinte, l’application devient inaccessible par intermittence, et le conteneur est arrêté et redémarré.

Solution

Vous pouvez supprimer la limite de mémoire et surveiller l’application pour déterminer la quantité de mémoire dont elle a réellement besoin. Une fois que vous avez appris l’utilisation de la mémoire, vous pouvez mettre à jour les limites de mémoire sur le conteneur. Si l’utilisation de la mémoire continue d’augmenter, déterminez s’il y a une fuite de mémoire dans l’application.

Pour plus d’informations sur la planification des ressources pour les charges de travail dans Azure Kubernetes Service, consultez Bonnes pratiques en matière de gestion des ressources.

Contactez-nous pour obtenir de l’aide

Pour toute demande ou assistance, créez une demande de support ou posez une question au support de la communauté Azure. Vous pouvez également soumettre des commentaires sur les produits à la communauté de commentaires Azure.