Déployer et gérer des clusters Azure Stack HCI dans VMM

Cet article fournit des informations sur la configuration d’un cluster Azure Stack HCI dans System Center - Virtual Machine Manager (VMM). Vous pouvez déployer un cluster Azure Stack HCI en provisionnant à partir de serveurs nus ou en ajoutant des hôtes existants. En savoir plus sur le nouveau Azure Stack HCI.

VMM 2019 Update Rollup 3 (UR3) prend en charge Azure Stack HCI version 20H2. Le produit actuel est Azure Stack HCI version 21H2. À compter de System Center 2022, VMM prend en charge Azure Stack HCI, version 20H2 ; Azure Stack HCI, version 21H2 ; et Azure Stack HCI, version 22H2 (prise en charge à partir de VMM 2022 UR1).

Important

Les clusters Azure Stack HCI gérés par Virtual Machine Manager ne doivent pas encore rejoindre le canal de préversion. Actuellement, System Center (notamment Virtual Machine Manager, Operations Manager et autres composants) ne prend pas en charge les préversions d’Azure Stack. Pour obtenir les dernières mises à jour, consultez le blog System Center.

Avant de commencer

Vérifiez que vous exécutez VMM 2019 UR3 ou version ultérieure.

Ce qui est pris en charge

  • Ajout, création et gestion de clusters Azure Stack HCI. Consultez les étapes détaillées pour créer et gérer des clusters HCI.

  • Possibilité de provisionner et de déployer des machines virtuelles sur les clusters Azure Stack HCI et d'effectuer des opérations de cycle de vie de machine virtuelle. Les machines virtuelles peuvent être approvisionnées à l’aide de fichiers VHD(x), de modèles ou d’une machine virtuelle existante. Plus d’informations

  • Configurez un réseau basé sur VLAN sur des clusters Azure Stack HCI.

  • Déploiement et gestion du contrôleur réseau SDN sur les clusters Azure Stack HCI.

  • Gestion des paramètres de pool de stockage, création de disques virtuels, création de volumes partagés de cluster (CSV) et application des paramètres qoS.

  • Le déplacement de machines virtuelles entre des clusters Windows Server et Azure Stack HCI fonctionne via la migration réseau et la migration d’une machine virtuelle hors connexion (arrêtée). Dans ce scénario, VMM exporte et importe sous le capot, même s’il s’agit d’une opération unique.

  • Les cmdlets PowerShell utilisées pour gérer les clusters Windows Server peuvent également être utilisées pour gérer les clusters Azure Stack HCI.

Inscrire et désinscrire des clusters Azure Stack HCI

Avec VMM 2022, nous introduisons des applets de commande VMM PowerShell pour inscrire et annuler l’inscription des clusters Azure Stack HCI.

Utilisez les applets de commande suivantes pour inscrire un cluster HCI :

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Utilisez la commande suivante pour désinscrire un cluster :

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Pour plus d’informations sur le paramètre pris en charge, consultez Register-SCAzStackHCI et Unregister-SCAzStackHCI.

Ce qui n'est pas pris en charge

  • La gestion des clusters étendus Azure Stack HCI n’est actuellement pas prise en charge dans VMM.

  • Azure Stack HCI est conçu en tant qu’hôte de virtualisation où vous exécutez toutes vos charges de travail sur des machines virtuelles. Les conditions d’Azure Stack HCI ne vous permettent d’exécuter que ce qui est nécessaire à l’hébergement de machines virtuelles. Les clusters Azure Stack HCI ne doivent pas être utilisés à d’autres fins, telles que des serveurs WSUS, des serveurs WDS ou des serveurs de bibliothèque. Reportez-vous aux Cas d’utilisation d’Azure Stack HCI, Quand utiliser Azure Stack HCI et Rôles que vous pouvez exécuter sans virtualisation.

  • La migration dynamique entre n’importe quelle version de clusters Windows Server et Azure Stack HCI n’est pas prise en charge.

Notes

La migration dynamique entre les clusters Azure Stack HCI fonctionne, ainsi qu’entre les clusters Windows Server.

  • Le seul type de stockage disponible pour Azure Stack HCI est espaces de stockage direct (S2D). La création ou la gestion d’un cluster non-S2D avec des nœuds Azure Stack HCI n’est pas prise en charge. Si vous avez besoin d’utiliser un autre type de stockage, par exemple des SAN, utilisez Windows Server comme hôte de virtualisation.

Notes

Vous devez activer S2D lors de la création d’un cluster Azure Stack HCI. Pour activer S2D, dans l’Assistant Création de cluster, accédez à Configuration générale. Sous Spécifier le nom du cluster et le groupe hôte, sélectionnez Activer espaces de stockage direct comme indiqué ci-dessous :

Capture d’écran de S2D activé.

Une fois qu’un cluster a été activé avec S2D, VMM effectue les opérations suivantes :

  • La fonctionnalité de clustering de basculement est activée.
  • Le réplica de stockage et la déduplication des données sont activés.
  • Le cluster est éventuellement validé et créé.
  • S2D est activé, et un objet de baie de stockage portant le nom que vous avez fourni dans l’Assistant est créé dans VMM.

Lorsque vous utilisez VMM pour créer un cluster hyperconvergé, le pool et les niveaux de stockage sont automatiquement créés en exécutant Enable-ClusterStorageSpacesDirect -Autoconfig $True.

Une fois ces conditions préalables réunies, vous pouvez approvisionner un cluster, puis configurer les ressources de stockage sur ce cluster. Vous pouvez ensuite déployer des machines virtuelles sur le cluster.

Suivez les étapes ci-dessous :

Étape 1 : Provisionner le cluster

Vous pouvez approvisionner un cluster par des hôtes Hyper-V et des systèmes nus :

Approvisionner un cluster à partir d’ordinateurs hôtes Hyper-V

Si vous devez ajouter les hôtes Azure Stack HCI à l’infrastructure VMM, suivez ces étapes. Si les hôtes sont déjà dans l’infrastructure VMM, passez à l’étape suivante.

Remarque

  • Quand vous configurez le cluster, sélectionnez l’option Activer les espaces de stockage direct dans la page Configuration générale de l’Assistant Création d’un cluster Hyper-V.
  • \- Dans Type de ressource, sélectionnez Serveurs existants exécutant un système d’exploitation Windows Server, puis sélectionnez les hôtes Hyper-V à ajouter au cluster.
  • Azure Stack HCI doit être installé sur tous les hôtes sélectionnés.
  • Étant donné que S2D est activé, le cluster doit être validé.

Approvisionner un cluster à partir de systèmes nus

Remarque

En règle générale, le nœud S2D nécessite des paramètres RDMA, QoS et SET. Pour configurer ces paramètres pour un nœud à l’aide de systèmes nus, vous pouvez utiliser la fonctionnalité de script de post-déploiement dans PCP. Voici l’exemple de script de post-déploiement PCP. Vous pouvez également utiliser ce script pour configurer RDMA, QoS et SET tout en ajoutant un nouveau nœud à un déploiement S2D existant à partir d’ordinateurs nus.

  1. Lisez les conditions préalables au déploiement d’un cluster à partir d’un système nu (ou déploiement complet).

Notes

  • Le disque VHD ou VHDX généralisé dans la bibliothèque VMM doit exécuter Azure Stack HCI avec les dernières mises à jour. Les valeurs Système d’exploitation et Plateforme de virtualisation doivent être définies pour le disque dur.
  • Pour un déploiement complet, vous devez ajouter un serveur d’environnement PXE (PreBoot Execution Environment) à l’infrastructure VMM. Le serveur PXE est fourni via les services de déploiement Windows. VMM utilise sa propre image WinPE et vous devez vous assurer qu’il s’agit de la dernière version. Pour ce faire, sélectionnez>Image WinPE de mise à jourde l’infrastructure> de structure et vérifiez que le travail se termine.
  1. Suivez les instructions pour approvisionner un cluster à partir de systèmes nus.

Étape 2 : Configurer la mise en réseau pour le cluster

Une fois que le cluster est approvisionné et géré dans l’infrastructure VMM, vous devez configurer la mise en réseau pour les nœuds de cluster.

  1. Commencez par créer un réseau logique pour mettre en miroir votre réseau de gestion physique.
  2. Vous devez configurer un commutateur logique avec Switch Embedded Teaming (SET) activé afin que le commutateur soit conscient de la virtualisation. Ce commutateur est connecté au réseau logique de gestion et possède toutes les cartes virtuelles hôtes, qui sont nécessaires pour fournir l’accès au réseau de gestion ou configurer la mise en réseau de stockage. S2D s’appuie sur un réseau pour communiquer entre les ordinateurs hôtes. Il est recommandé d’utiliser des cartes compatibles RDMA.
  3. Créez les réseaux de machines virtuelles.

Étape 3 : Configurer les paramètres DCB sur le cluster Azure Stack HCI

Remarque

La configuration des paramètres DCB est une étape facultative pour bénéficier d’une haute performance au cours du flux de travail de création du cluster S2D. Passez à l’étape 4 si vous ne souhaitez pas configurer les paramètres DCB.

Recommandations

  • Si vous avez déployé des cartes réseau virtuelles, pour des performances optimales, nous vous recommandons de mapper toutes vos cartes réseau virtuelles avec les cartes réseau correspondantes. Les affinités entre les cartes réseau virtuelles et physiques sont définies de façon aléatoire par le système d’exploitation ; il peut y avoir des cas où plusieurs cartes réseau virtuelles sont mappées à la même carte réseau physique. Pour éviter de tels scénarios, nous vous recommandons de définir manuellement l’affinité entre carte réseau virtuelle et carte réseau physique en suivant les étapes répertoriées ici.

  • Lorsque vous créez un profil de port de carte réseau, nous vous recommandons d’autoriser la priorité IEEE. Plus d’informations

    Vous pouvez également définir la priorité IEEE à l’aide des commandes PowerShell suivantes :

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Suivez les étapes ci-dessous pour configurer les paramètres DCB :

  1. Créez un cluster Hyper-V, puis sélectionnez Activer les espaces de stockage direct. L’option Configuration DCB est ajoutée au flux de travail de création du cluster Hyper-V.

    Capture d’écran du cluster Hyper-V.

  2. Dans Configuration DCB, sélectionnez Configurer DCB (Datacenter Bridging) .

  3. Indiquez les valeurs Priorité et Bande passante du trafic Pulsation du cluster et SMB Direct.

Remarque

Des valeurs par défaut sont affectées à Priorité et à Bande passante. Personnalisez ces valeurs selon les besoins de l’environnement de votre organisation.

Capture d’écran de la bande passante prioritaire.

Valeurs par défaut :

Classe de trafic Priority Bande passante (%)
Pulsation du cluster 7 1
SMB Direct 3 50
  1. Sélectionnez les cartes réseau utilisées pour le trafic de stockage. RDMA est activé sur ces cartes réseau.

    Remarque

    Dans un scénario de carte réseau convergée, sélectionnez les cartes réseau virtuelles de stockage. Il est nécessaire que les cartes réseau physiques sous-jacentes soient compatibles RDMA pour que les cartes réseau virtuelles soient affichées et sélectionnables.

    Capture d’écran de l’option Activer RMDS.

  2. Vérifiez le résumé et sélectionnez Terminer.

    Un cluster Azure Stack HCI est créé et les paramètres DCB sont configurés sur tous les nœuds S2D.

    Notes

    • Vous pouvez configurer les paramètres DCB sur les clusters S2D Hyper-V existants en accédant à la page Propriétés du cluster et en accédant à la page de configuration DCB .
    • Toute modification hors bande des paramètres DCB sur un nœud entraîne la non-conformité du cluster S2D dans VMM. Une option Corriger sera fournie sur la page Configuration DCB des propriétés du cluster, qui permettra d’appliquer les paramètres DCB configurés dans VMM aux nœuds du cluster.

Étape 4 : Inscrire le cluster Azure Stack HCI auprès d’Azure

Après la création d’un cluster Azure Stack HCI, il doit être inscrit auprès d’Azure dans un délai de 30 jours après l’installation conformément aux conditions générales d’Azure Online Service. Si vous utilisez System Center 2022, utilisez Register-SCAzStackHCI l’applet de commande dans VMM pour inscrire le cluster Azure Stack HCI auprès d’Azure. Vous pouvez aussi suivre ces étapes pour inscrire le cluster Azure Stack HCI auprès d’Azure.

L’état de l’inscription est reflété dans VMM après une actualisation réussie du cluster.

Étape 5 : Afficher l’état d’inscription de clusters Azure Stack HCI

  1. Dans la console VMM, vous pouvez afficher l’inscription status et la date de dernière connexion des clusters Azure Stack HCI.

  2. Sélectionnez Infrastructure, cliquez avec le bouton droit sur le cluster Azure Stack HCI , puis sélectionnez Propriétés.

    Capture d’écran de la status d’inscription.

  3. Vous pouvez également exécuter Get-SCVMHost et observer les propriétés de l’objet retourné pour case activée le status d’inscription.

Étape 6 : Gérer le pool et créer des volumes partagés de cluster

Vous pouvez maintenant modifier les paramètres du pool de stockage et créer des disques virtuels et des CSV.

  1. Sélectionnez Tableauxde stockage>d’infrastructure>.

  2. Cliquez avec le bouton droit sur le cluster >Gérer le pool, puis sélectionnez le pool de stockage créé par défaut. Vous pouvez modifier le nom par défaut et ajouter une classification.

  3. Pour créer un volume partagé de cluster, cliquez avec le bouton droit sur le cluster, >>>>.

  4. Dans l’Assistant> Création d’untype de stockage de volume, spécifiez le nom du volume et sélectionnez le pool de stockage.

  5. Dans Capacité, vous pouvez spécifier la taille du volume, le système de fichiers et les paramètres de résilience (échecs à tolérer).

    Capture d’écran des paramètres de volume.

  6. Sélectionnez Configurer les paramètres avancés de stockage et de hiérarchisation pour configurer ces options.

    Capture d’écran de la configuration des paramètres de stockage.

  7. Dans Résumé, vérifiez les paramètres, puis terminez l’Assistant. Un disque virtuel est créé automatiquement quand vous créez le volume.

Étape 7 : Déployer des machines virtuelles sur le cluster

Dans une topologie hyperconvergée, les machines virtuelles peuvent être déployées directement sur le cluster. Leurs disques durs virtuels sont placés sur les volumes que vous avez créés avec S2D. Vous créez et déployez ces machines virtuelles comme vous le feriez pour toute autre machine virtuelle.

Important

Si le cluster Azure Stack HCI n’est pas inscrit auprès d’Azure ou n’est pas connecté à Azure pendant plus de 30 jours après l’inscription, la création de machines virtuelles à haute disponibilité (HAVM) est bloquée sur le cluster. Voir les étapes 4 et 5 pour l’inscription des clusters.

Étape 8 : Migrer des machines virtuelles de Windows Server vers un cluster Azure Stack HCI

Utilisez la fonctionnalité de migration réseau dans VMM pour migrer des charges de travail d’Hyper-V (Windows Server 2019 & ultérieur) vers Azure Stack HCI.

Notes

La migration dynamique entre Windows Server et Azure Stack HCI n’est pas prise en charge. La migration réseau d’Azure Stack HCI vers Windows Server n’est pas prise en charge.

  1. Désactivez temporairement la migration dynamique sur l’hôte Azure Stack HCI de destination.
  2. Sélectionnez Machines virtuelles et services > Tous les hôtes, puis sélectionnez l’hôte Hyper-V source à partir duquel vous souhaitez migrer.
  3. Sélectionnez la machine virtuelle que vous souhaitez migrer. La machine virtuelle doit être dans un état désactivé.
  4. Sélectionnez Migrer une machine virtuelle.
  5. Dans Sélectionner un hôte, passez en revue et sélectionnez l’hôte Azure Stack HCI de destination.
  6. Sélectionnez Suivant pour lancer la migration réseau. VMM effectue des importations et des exportations au niveau du serveur principal.
  7. Pour vérifier que la machine virtuelle a été correctement migrée, case activée la liste des machines virtuelles sur l’hôte de destination. Activez la machine virtuelle et réactivez la migration dynamique sur l’hôte Azure Stack HCI.

Étape 9 : Migrer des charges de travail VMware vers un cluster Azure Stack HCI à l’aide de SCVMM

VMM offre une expérience simple basée sur l’Assistant pour la conversion V2V (Virtual to Virtual). Vous pouvez utiliser l’outil de conversion pour migrer des charges de travail à grande échelle de l’infrastructure VMware vers l’infrastructure Hyper-V. Pour obtenir la liste des serveurs VMware pris en charge, consultez Configuration système requise.

Pour connaître les prérequis et les limitations de la conversion, consultez Convertir une machine virtuelle VMware en Hyper-V dans l’infrastructure VMM.

  1. Créez un compte d’identification pour le rôle Administrateur vCenter Server dans VMM. Ces informations d’identification d’administrateur sont utilisées pour gérer le serveur vCenter et les hôtes ESXi. Capture d’écran montrant la page créer un compte d’identification.

  2. Dans la console VMM, sous Infrastructure, sélectionnez Serveurs>Ajouter VMware vCenter Server. Capture d’écran montrant l’option ajouter VMware vCenter.

  3. Dans la page Ajouter VMware vCenter Server , procédez comme suit :

    1. Nom de l’ordinateur : spécifiez le nom du serveur vCenter.
    2. Compte d’identification : sélectionnez le compte d’identification créé pour l’administrateur vSphere.
      Capture d’écran montrant les informations du serveur.
  4. Sélectionnez Terminer.

  5. Dans la page Importer un certificat , sélectionnez Importer.

    Capture d’écran montrant l’option Importer des certificats.

  6. Une fois l’ajout réussi du serveur vCenter, tous les hôtes ESXi sous vCenter sont migrés vers VMM.

Ajouter des hôtes

  1. Dans la console VMM, sous Infrastructure, sélectionnez Serveurs>Ajouter des hôtes et des clusters VMware ESX.
    Capture d’écran montrant l’option Ajouter des hôtes.
  2. Dans l’Assistant Ajout d’une ressource,
    1. Sous Informations d’identification, sélectionnez le compte d’identification utilisé pour le port, puis sélectionnez Suivant. Capture d’écran montrant l’onglet Informations d’identification.

    2. Sous Ressources cibles, sélectionnez tous les clusters ESX qui doivent être ajoutés à VMM, puis sélectionnez Suivant. Capture d’écran montrant l’onglet Ressources cibles.

    3. Sous Paramètres de l’hôte, sélectionnez l’emplacement où vous souhaitez ajouter les machines virtuelles, puis sélectionnez Suivant. Capture d’écran montrant l’onglet Paramètres de l’hôte.

    4. Sous Résumé, passez en revue les paramètres et sélectionnez Terminer. Avec les hôtes, les machines virtuelles associées seront également ajoutées.

      Capture d’écran montrant l’onglet Résumé.

Vérifier le status de l’hôte ESXi

  1. Si l’hôte ESXi status correspond à OK (Limité), cliquez avec le bouton droit surGestion despropriétés>, sélectionnez Exécuter le compte utilisé pour le port et importez les certificats de l’hôte.
    Répétez le même processus pour tous les hôtes ESXi. Capture d’écran montrant l’onglet Gestion. Après avoir ajouté les clusters ESXi, toutes les machines virtuelles s’exécutant sur les clusters ESXi sont découvertes automatiquement dans VMM.

Afficher les machines virtuelles

  1. Accédez à Machines virtuelles et services pour afficher les machines virtuelles. Vous pouvez également gérer les opérations de cycle de vie principales de ces machines virtuelles à partir de VMM.
    Capture d’écran montrant les hôtes ESXi.

  2. Cliquez avec le bouton droit sur la machine virtuelle, puis sélectionnez Mettre hors tension (les migrations en ligne ne sont pas prises en charge) qui doivent être migrées et désinstallez les outils VMware du système d’exploitation invité.

  3. Sélectionnez Accueil>Créer Machines Virtuelles>Convertir une machine virtuelle.

  4. Dans l’Assistant Conversion d’une machine virtuelle,

    1. Sous Sélectionner une source, sélectionnez la machine virtuelle en cours d’exécution dans le serveur ESXi, puis sélectionnez Suivant. Capture d’écran montrant l’option Sélectionner une source.
    2. Sous Spécifier une identité de machine virtuelle, entrez le nouveau nom de la machine virtuelle si vous le souhaitez, puis sélectionnez Suivant.
      Capture d’écran montrant l’option nom de machine virtuelle.
  5. Sous Sélectionner un hôte, sélectionnez le nœud Azure Stack HCI cible, spécifiez l’emplacement sur l’hôte pour les fichiers de stockage de machine virtuelle, puis sélectionnez Suivant.

    Capture d’écran montrant l’option sélectionner l’hôte.

  6. Sélectionnez un réseau virtuel pour la machine virtuelle, puis sélectionnez Créer pour terminer la migration.
    La machine virtuelle qui s’exécute sur le cluster ESXi est correctement migrée vers le cluster Azure Stack HCI. Pour l’automatisation, utilisez les commandes PowerShell pour la conversion.

Étapes suivantes