Déployer une passerelle auto-hébergée de Gestion des API Azure sur Azure Kubernetes Service

S’APPLIQUE À : Développeur | Premium

Cet article explique comment déployer la passerelle auto-hébergée de la Gestion des API Azure sur Azure Kubernetes Service. Pour déployer la passerelle auto-hébergée sur un cluster Kubernetes, consultez l’article sur le déploiement à l’aide d’un fichier YAML de déploiement ou avec Helm.

Important

La prise en charge des images conteneur de la passerelle auto-hébergée version 0 et version 1 d’Azure Gestion des API se termine le 1er octobre 2023, ainsi que son API de configuration correspondante v1. Utilisez notre guide de migration pour utiliser la passerelle auto-hébergée v2.0.0 ou une version ultérieure avec l’API de configuration v2. En savoir plus dans notre documentation de dépréciation

Notes

Vous pouvez également déployer une passerelle auto-hébergée sur un cluster Kubernetes avec Azure Arc en tant qu’extension de cluster.

Prérequis

Déployer une passerelle auto-hébergée sur AKS

  1. Sélectionnez Gateways (Passerelles) sous Deployment and infrastructure (Déploiement et infrastructure).

  2. Sélectionnez la ressource de passerelle auto-hébergée que vous souhaitez déployer.

  3. Sélectionnez Déploiement.

  4. Un nouveau jeton dans la zone de texte Jeton a été généré automatiquement pour vous avec les valeurs par défaut de Expiration et Clé secrète. Ajustez l’un ou l’autre, ou les deux, si vous le souhaitez, puis sélectionnez Générer pour créer un autre jeton.

  5. Assurez-vous que Kubernetes est sélectionné sous Scripts de déploiement.

  6. Sélectionnez le lien du fichier <nom-passerelle>.yml en regard de Déploiement pour télécharger le fichier.

  7. Ajustez config.service.endpoint, les mappages de port et le nom de conteneur dans le fichier .yml, si nécessaire.

  8. Selon votre scénario, vous pouvez avoir besoin de changer le type de service.

    • La valeur par défaut est LoadBalancer, qui correspond à l’équilibreur de charge externe.
    • Vous pouvez utiliser l’équilibreur de charge interne pour restreindre l’accès à la passerelle auto-hébergée aux utilisateurs internes uniquement.
    • L’exemple ci-dessous utilise NodePort.
  9. Sélectionnez l’icône Copier située à l’extrémité droite de la zone de texte Déployer pour enregistrer la commande kubectl dans le Presse-papiers.

  10. Collez la commande dans la fenêtre (ou la commande) du terminal. La commande s’attend à ce que le fichier d’environnement téléchargé soit présent dans le répertoire actif.

    kubectl apply -f <gateway-name>.yaml
    
  11. Exécutez la commande. La commande indique à votre cluster AKS d’effectuer les opérations suivantes :

    • Exécuter le conteneur à l’aide de l’image de passerelle auto-hébergée téléchargée à partir du Microsoft Container Registry.
    • Configurer le conteneur pour exposer les ports HTTP (8080) et HTTP (443).
  12. Exécutez la commande ci-dessous pour vérifier que le pod de la passerelle est en cours d’exécution. Le nom de votre pod sera différent.

    kubectl get pods
    NAME                                   READY     STATUS    RESTARTS   AGE
    contoso-apim-gateway-59f5fb94c-s9stz   1/1       Running   0          1m
    
  13. Exécutez la commande ci-dessous pour vérifier que le service de passerelle est en cours d’exécution. Le nom de votre service et les adresses IP seront différents.

    kubectl get services
    NAME             TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)                      AGE
    contosogateway   NodePort    10.110.230.87   <none>        80:32504/TCP,443:30043/TCP   1m
    
  14. Retournez au portail Azure et vérifiez que le nœud de la passerelle que vous avez déployée signale l’état d’intégrité.

Conseil

Utilisez la commande kubectl logs <gateway-pod-name> pour afficher un instantané du journal de la passerelle auto-hébergée.

Étapes suivantes