ARCHITECTURE AKS Arc sur VMware (préversion) et de cluster de charge de travail
S’applique à : AKS activé par Azure Arc sur VMware (préversion)
Cet article fournit une vue d’ensemble de l’architecture de cluster et des composants d’infrastructure clés de Kubernetes, tels que le plan de contrôle et les nœuds worker, pour AKS activé par Azure Arc sur VMware.
Architecture de cluster
Un cluster Azure Kubernetes Service comporte les composants suivants :
- Arc Resource Bridge (également appelé Arc Appliance) fournit le mécanisme d’orchestration et l’interface de base pour le déploiement et la gestion d’un ou plusieurs clusters de charge de travail.
- Les clusters de charge de travail (également appelés clusters cibles) sont les endroits où les applications conteneurisées sont déployées.
AKS Arc utilise un ensemble d’options de configuration prédéfinies pour déployer des clusters Kubernetes efficacement et avec l’extensibilité à l’esprit. Une opération de déploiement crée plusieurs machines virtuelles Linux et les joint pour créer un ou plusieurs clusters Kubernetes.
Pont de ressources Arc
Arc Resource Bridge connecte un cloud privé (par exemple, Azure Stack HCI, VMWare/vSphere ou SCVMM) à Azure et active la gestion des ressources locales à partir d’Azure. Une fois connecté, vous pouvez configurer la plateforme d’orchestration de conteneurs dans AKS sur un environnement vSphere, qui est la plateforme de virtualisation VMware. Les deux composants main de vSphere sont ESXi et vCenter.
Azure Arc Resource Bridge fournit la ligne de mire sur les clouds privés nécessaires pour gérer des ressources telles que les clusters Kubernetes locaux via Azure. Arc Resource Bridge inclut les principaux composants AKS Arc suivants :
- Extensions de cluster AKS Arc : une extension de cluster est l’équivalent local d’un fournisseur de ressources Azure Resource Manager. Tout comme le fournisseur de ressources Microsoft.ContainerService gère les clusters AKS dans Azure, le fournisseur de ressources Microsoft.HybridContainerService permet à l’extension de cluster AKS Arc de gérer les clusters Kubernetes via Azure lorsqu’il est ajouté à votre pont de ressources Arc.
- Emplacement personnalisé : un emplacement personnalisé est l’équivalent local d’une région Azure et est une extension de la construction de l’emplacement Azure. Les emplacements personnalisés permettent aux administrateurs de locataire d’utiliser leur centre de données avec les extensions appropriées installées, en tant qu’emplacements cibles pour le déploiement d’instances de service Azure.
- Ressource vCenter : VMware vCenter est un logiciel de gestion de serveur qui fournit une plateforme centralisée pour le contrôle des environnements vSphere. Les extensions Arc Resource Bridge et AKS communiquent avec le vCenter via l’API de cluster fournie par vSphere (CAPv), ce qui facilite la création de clusters de charge de travail. Chacune des ressources d’emplacement personnalisées est mappée à un instance de vCenter. Lorsque vous connectez votre vCenter à Azure, vous inscrivez également votre vCenter en tant que ressource Azure, qui est la ressource vCenter.
Pour obtenir une vue d’ensemble de l’architecture d’Azure Arc Resource Bridge, consultez Vue d’ensemble d’Azure Arc Resource Bridge. Pour chaque pont de ressources Azure Arc, vous pouvez gérer plusieurs instances vCenter en créant des ressources vCenter avec les emplacements personnalisés correspondants. Il existe une relation de mappage un-à-un entre les ressources vCenter et les emplacements personnalisés.
Clusters de charge de travail
Un cluster de charge de travail comporte de nombreux composants, comme décrit dans les sections suivantes.
Plan de contrôle
- Serveur d’API : le serveur API permet l’interaction avec l’API Kubernetes. Ce composant fournit l’interaction pour les outils de gestion, tels qu’Azure CLI ou kubectl.
- Etcd : Etcd est un magasin clé-valeur distribué qui stocke les données requises pour la gestion du cycle de vie du cluster. Il stocke l’état du plan de contrôle.
Équilibrage de charge
L’objectif main d’un équilibreur de charge est de distribuer le trafic sur plusieurs nœuds dans un cluster Kubernetes. Cet équilibrage de charge permet d’éviter les temps d’arrêt et d’améliorer les performances globales des applications.
La préversion d’AKS Arc sur VMware prend en charge les options suivantes pour déployer un équilibreur de charge pour votre cluster Kubernetes :
- Apportez votre propre équilibreur de charge tiers.
Nœuds de travail
Pour exécuter vos applications et les services de prise en charge, vous avez besoin d’un nœud Kubernetes. Un cluster de charge de travail AKS a un ou plusieurs nœuds Worker. Les nœuds Worker agissent en tant que machines virtuelles qui exécutent les composants de nœud Kubernetes et hébergent les pods et services qui composent la charge de travail de l’application.
Il existe des composants de charge de travail Kubernetes de base que vous pouvez déployer sur des clusters de charge de travail AKS, tels que des pods et des déploiements.
Avertissement
Pendant la préversion, la création et la gestion des pools de nœuds Windows ne sont pas prises en charge.
Gestion du cycle de vie
Azure Arc est automatiquement activé sur tous vos clusters Kubernetes créés à l’aide d’AKS Arc. Vous pouvez utiliser votre identité Microsoft Entra pour vous connecter à vos clusters en tout lieu. Azure Arc vous permet d’utiliser des outils familiers tels que les modèles Azure CLI et Azure Resource Manager pour créer et gérer vos clusters Kubernetes.
Étapes suivantes
- Pour comprendre l’échelle de déploiement prise en charge pour l’exécution d’AKS Arc sur VMware, consultez l’échelle de déploiement prise en charge.
- Si votre vCenter n’est pas connecté à Azure Arc et que vous souhaitez ajouter l’extension AKS, consultez démarrage rapide : Connecter VMware vCenter Server à Azure Arc à l’aide du script d’aide.
- Si vous avez déjà connecté vCenter à Azure Arc et que vous souhaitez ajouter l’extension AKS, découvrez comment activer l’extension Kubernetes pour les opérateurs AKS Arc.