Partager via


Déployer et gérer des instances locales Azure dans VMM

Cet article fournit des informations sur la configuration d’une instance locale Azure dans System Center Virtual Machine Manager (VMM). Vous pouvez déployer une instance locale Azure en approvisionnant à partir de serveurs nus ou en ajoutant des hôtes existants. En savoir plus sur le nouveau local Azure.

VMM 2022 prend en charge Azure Local version 22H2 (prise en charge à partir de VMM 2022 UR1).

VMM 2019 Update Rollup 3 (UR3) prend en charge Azure Stack HCI version 20H2.

Importante

Les instances Azure Local gérées par Virtual Machine Manager ne doivent pas encore joindre le canal de préversions. System Center (y compris Virtual Machine Manager, Operations Manager et d’autres composants) ne prend actuellement pas en charge les versions en préversion d’Azure Local. Pour les dernières mises à jour, consultez le blog System Center.

Avant de commencer

Vérifiez que vous exécutez VMM 2019 UR3 ou version ultérieure.

Ce qui est pris en charge

  • Ajout, création et gestion d’instances locales Azure. Consultez les étapes détaillées pour créer et gérer des instances locales Azure.

  • Possibilité de provisionner et de déployer des machines virtuelles sur les instances locales Azure et d’effectuer des opérations de cycle de vie des machines virtuelles. Les machines virtuelles peuvent être provisionnées à l’aide de fichiers VHD(x), de modèles ou d’une machine virtuelle existante.  En savoir plus.

  • Configurer un réseau VLAN sur des instances locales dans Azure.

  • Déploiement et gestion du contrôleur de réseau SDN sur les instances locales Azure.

  • Gestion des paramètres du pool de stockage, création de disques virtuels, création de volumes partagés de cluster (CSV) et application des paramètres QoS.

  • Le déplacement de machines virtuelles entre Windows Server et les instances locales Azure fonctionne via la migration réseau et la migration d’une machine virtuelle hors connexion (arrêtée). Dans ce scénario, VMM exporte et importe en arrière-plan, même s’il est effectué en tant qu’opération unique.

  • Les applets de commande PowerShell utilisées pour gérer les clusters Windows Server peuvent également être utilisées pour gérer des instances locales Azure.

Vérifiez que vous exécutez VMM 2022 UR1 ou version ultérieure.

Ce qui est pris en charge

  • Ajout, création et gestion d’instances locales Azure. Consultez les étapes détaillées pour créer et gérer des instances locales Azure.

  • Possibilité de provisionner et de déployer des machines virtuelles sur les instances locales Azure et d’effectuer des opérations de cycle de vie des machines virtuelles. Les machines virtuelles peuvent être provisionnées à l’aide de fichiers VHD(x), de modèles ou d’une machine virtuelle existante.  En savoir plus.

  • Configurer un réseau VLAN sur des instances locales dans Azure.

  • Déploiement et gestion du contrôleur de réseau SDN sur les instances locales Azure.

  • Gestion des paramètres du pool de stockage, création de disques virtuels, création de volumes partagés de cluster (CSV) et application des paramètres QoS.

  • Le déplacement de machines virtuelles entre Windows Server et les instances locales Azure fonctionne via la migration réseau et la migration d’une machine virtuelle hors connexion (arrêtée). Dans ce scénario, VMM exporte et importe en arrière-plan, même s’il est effectué en tant qu’opération unique.

  • Les applets de commande PowerShell utilisées pour gérer les clusters Windows Server peuvent également être utilisées pour gérer des instances locales Azure.

Inscrire et annuler l’inscription d’instances locales Azure

Avec VMM 2022, nous présentons les applets de commande PowerShell VMM pour inscrire et annuler l’inscription d’instances Locales Azure.

Utilisez les applets de commande suivantes pour inscrire des instances locales Azure :

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Utilisez la commande suivante pour désinscrire un cluster :

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Pour plus d’informations sur le paramètre pris en charge, consultez Register-SCAzStackHCI et Unregister-SCAzStackHCI.

Ce qui n’est pas pris en charge

  • La gestion des clusters étendus Azure Local n’est actuellement pas prise en charge dans VMM.

  • Les machines locales Azure sont conçues comme des hôtes de virtualisation où vous exécutez toutes vos charges de travail dans des machines virtuelles. Les termes locaux Azure vous permettent d’exécuter uniquement ce qui est nécessaire pour l’hébergement de machines virtuelles. Les instances locales Azure ne doivent pas être utilisées à d’autres fins telles que les serveurs WSUS, les serveurs WDS ou les serveurs de bibliothèque. Reportez-vous aux cas d’utilisation pour Azure Local, Quand utiliser Azure Localet Rôles que vous pouvez exécuter sans virtualiser.

  • La migration dynamique entre une version de Windows Server et des instances locales Azure n’est pas prise en charge.

Note

La migration dynamique entre les instances locales Azure fonctionne, ainsi qu’entre les clusters Windows Server.

  • Le seul type de stockage disponible pour Azure Local est Les espaces de stockage direct (S2D). La création ou la gestion d’un cluster non-S2D avec des machines locales Azure n’est pas prise en charge. Si vous devez utiliser n’importe quel autre type de stockage, par exemple des réseaux SAN, utilisez Windows Server comme hôte de virtualisation.

Note

Vous devez activer S2D lors de la création d’une instance locale Azure. Pour activer S2D, accédez à Configuration générale dans l’Assistant de création de cluster. Sous Spécifier le nom du cluster et le groupe hôte, sélectionnez Activer les espaces de stockage direct, comme indiqué ci-dessous :

Capture d’écran montrant S2D activé.

Une fois le cluster activé avec S2D, VMM effectue les opérations suivantes :

  • La fonctionnalité de clustering de basculement est activée.
  • Le réplica de stockage et la déduplication des données sont activés.
  • Le cluster est éventuellement validé et créé.
  • S2D est activé, et un objet de baie de stockage portant le nom que vous avez fourni dans l’Assistant est créé dans VMM.

Lorsque vous utilisez VMM pour créer un cluster hyperconvergé, le pool et les niveaux de stockage sont automatiquement créés en exécutant Enable-ClusterStorageSpacesDirect -Autoconfig $True.

Une fois ces prérequis en place, vous pouvez provisionnez un cluster et configurer des ressources de stockage sur celui-ci. Vous pouvez ensuite déployer des machines virtuelles sur le cluster.

Procédez comme suit :

Étape 1 : provisionner le cluster

Vous pouvez provisionner un cluster à partir d’hôtes Hyper-V ou de machines nues :

Provisionner un cluster à partir d’hôtes Hyper-V

Si vous devez ajouter les machines locales Azure à l’infrastructure VMM, suivez ces étapes. Si elles sont déjà présentes dans l’infrastructure VMM, passez à l’étape suivante.

Note

  • Lorsque vous configurez le cluster, sélectionnez l’option Activer les espaces de stockage direct dans la page Configuration générale de l’Assistant Création d’un cluster Hyper-V.
  • Dans Type de ressource, sélectionnez Serveurs existants exécutant un système d’exploitation Windows Server, puis sélectionnez les hôtes Hyper-V à ajouter au cluster.
  • Tous les hôtes sélectionnés doivent avoir installé Azure Local.
  • Étant donné que S2D est activé, le cluster doit être validé.

Provisionner un cluster à partir de machines nues

Note

En règle générale, les nœuds S2D nécessitent une configuration RDMA, QoS et SET. Pour configurer ces paramètres sur un nœud à l’aide de systèmes nus, vous pouvez utiliser la fonctionnalité de script post-déploiement dans PCP. Voici un exemple de script de post-déploiement PCP. Vous pouvez également utiliser ce script pour configurer RDMA, QoS et SET lors de l’ajout d’un nouveau nœud à un déploiement S2D existant à partir de systèmes nus.

  1. Lisez les conditions préalables pour le déploiement de clusters nus.

Note

  • Le disque dur virtuel VHD ou VHDX généralisé dans la bibliothèque VMM doit exécuter Azure Stack HCI avec les dernières mises à jour. Les champs Système d’exploitation et Plateforme de virtualisation doivent être correctement définis pour le disque dur.
  • Pour un déploiement nu, vous devez ajouter un serveur d’environnement PXE (Preboot Execution Environment) à l’infrastructure VMM. Ce serveur PXE est fourni via les services de déploiement Windows. VMM utilise sa propre image WinPE. Vous devez vous assurer qu’il s’agit de la dernière version. Pour ce faire, sélectionnez Infrastructure>Infrastructure physique>Mettre à jour l’image WinPE, puis vérifiez que le travail se termine correctement.
  1. Suivez les instructions pour le provisionnement d’un cluster à partir de systèmes nus.

Étape 2 : configurer la mise en réseau du cluster

Une fois le cluster provisionné et géré dans l’infrastructure VMM, vous devez configurer la mise en réseau pour les nœuds du cluster.

  1. Commencez par créer un réseau logique qui reflète votre réseau de gestion physique.
  2. Vous devez configurer un commutateur logique avec Switch Embedded Teaming (SET) activé afin que le commutateur prenne en compte la virtualisation. Ce commutateur est connecté au réseau logique de gestion et dispose de toutes les cartes virtuelles hôtes, qui sont nécessaires pour fournir l’accès au réseau de gestion ou configurer la mise en réseau de stockage. S2D dépend d’un réseau pour assurer la communication entre les hôtes. L’utilisation de cartes compatibles RDMA est recommandée.
  3. Créez des réseaux de machines virtuelles.

Étape 3 : Configurer les paramètres DCB sur l’instance locale Azure

Note

La configuration des paramètres DCB est une étape facultative visant à optimiser les performances pendant le workflow de création du cluster S2D. Passez à l’étape 4 si vous ne souhaitez pas configurer les paramètres DCB.

Recommandations

  • Si vous avez déployé des cartes réseau virtuelles, pour des performances optimales, nous vous recommandons de mapper chaque carte réseau virtuelle à la carte réseau physique correspondante. Le système d’exploitation affecte ces affinités entre la carte réseau virtuelle et la carte réseau physique de manière aléatoire, ce qui peut entraîner des scénarios où plusieurs cartes réseau virtuelles sont mappées à la même carte réseau physique. Pour éviter cela, nous vous recommandons de définir manuellement l’affinité entre la carte réseau virtuelle et la carte réseau physique en suivant ces étapes.

  • Lorsque vous créez un profil de port de carte réseau, nous vous recommandons d’autoriser la priorité IEEE. En savoir plus.

    Vous pouvez également définir la priorité IEEE à l’aide des commandes PowerShell suivantes :

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Pour configurer les paramètres DCB, effectuez les étapes suivantes :

  1. Créez un nouveau cluster Hyper-V, puis sélectionnez Activer les espaces de stockage direct. L’option Configuration DCB est ajoutée au workflow de création du cluster Hyper-V.

    Capture d’écran du cluster Hyper-V.

  2. Dans Configuration DCB, sélectionnez Configurer le Data Center Bridging.

  3. Renseignez les valeurs Priorité et Bande passante pour le trafic SMB-Direct et de pulsations de clusters.

Note

Des valeurs par défaut sont affectées à Priorité et Bande passante. Personnalisez ces valeurs en fonction des besoins de l’environnement de votre organisation.

Capture d’écran des valeurs Bande passante et Priorité.

Valeurs par défaut :

Classe de trafic Priority Bande passante (%)
Pulsation de cluster 7 1
SMB-Direct 3 50
  1. Sélectionnez les cartes réseau utilisées pour le trafic de stockage. RDMA est activé sur ces cartes réseau.

    Note

    Dans un scénario de carte réseau convergée, sélectionnez les cartes réseau virtuelles de stockage. Les cartes réseau physiques sous-jacentes doivent être compatibles RDMA pour que les cartes réseau virtuelles soient affichées et disponibles pour la sélection.

    Capture d’écran d’Activer RMDS

  2. Vérifiez le résumé et sélectionnez Terminer.

    Une instance locale Azure est créée et les paramètres DCB sont configurés sur tous les nœuds S2D.

    Note

    • Les paramètres DCB peuvent être configurés sur les clusters Hyper-V S2D existants via la page Propriétés du cluster et en accédant à la page Configuration DCB.
    • Toute modification hors bande des paramètres DCB sur l’un des nœuds entraîne la non-conformité du cluster S2D dans VMM. Une option de correction est fournie sur la page Configuration DCB des propriétés du cluster, vous permettant de réappliquer les paramètres DCB configurés dans VMM à tous les nœuds du cluster.

Étape 4 : Inscrire une instance locale Azure auprès d’Azure

Après avoir créé une instance locale Azure, elle doit être inscrite auprès d’Azure dans les 30 jours suivant les conditions d’installation d’Azure Online Service. Si vous utilisez System Center 2022, utilisez Register-SCAzStackHCI applet de commande dans VMM pour inscrire l’instance locale Azure auprès d’Azure. Vous pouvez également suivre ces étapes pour inscrire l’instance locale Azure auprès d’Azure.

L’état de l’inscription apparaîtra dans VMM après une actualisation réussie du cluster.

Étape 5 : Afficher l’état d’inscription des instances Azure Stack HCI

  1. Dans la console VMM, vous pouvez afficher l’état de l’inscription et la date de dernière connexion des clusters Azure Stack HCI.

  2. Sélectionnez Infrastructure, cliquez avec le bouton droit sur le cluster Azure Stack HCI, puis sélectionnez Propriétés.

    Capture d’écran de l’état de l’inscription.

  3. Vous pouvez également exécuter Get-SCVMHost et observer les propriétés de l’objet retourné pour vérifier l’état de l’inscription.

Étape 6 : gérer le pool et créer des volumes partagés de cluster

Vous pouvez maintenant modifier les paramètres du pool de stockage et créer des disques virtuels et des volumes partagés de cluster.

  1. Sélectionnez Infrastructure>Stockage>Baies.

  2. Cliquez avec le bouton droit sur le cluster >Gérer le pool, puis sélectionnez le pool de stockage qui a été créé par défaut. Vous pouvez modifier le nom par défaut et ajouter une classification.

  3. Pour créer un volume partagé de cluster, cliquez avec le bouton droit sur le cluster, >Propriétés>Volumes partagés.

  4. Dans l’Assistant Création de volume>Type de stockage, spécifiez le nom du volume et sélectionnez le pool de stockage.

  5. Dans Capacité, vous pouvez spécifier la taille du volume, le système de fichiers et les paramètres de résilience (nombre de pannes tolérées). Sélectionnez Configurer les paramètres de stockage et de hiérarchisation avancés pour configurer ces options.

    Capture d’écran des paramètres de volume.

  6. Dans les paramètres de stockage, vous pouvez spécifier la répartition entre les niveaux de stockage, la capacité et la résilience.

    Capture d’écran des paramètres de stockage.

  7. Dans Résumé, vérifiez les paramètres et fermez l’assistant. Un disque virtuel est créé automatiquement lors de la création du volume.

Étape 7 : déploiement des machines virtuelles sur le cluster

Dans une topologie hyperconvergée, les machines virtuelles peuvent être déployées directement sur le cluster. Leurs disques durs virtuels sont placés sur les volumes que vous avez créés avec S2D. Vous créez et déployez ces machines virtuelles comme vous le feriez pour n’importe quelle autre machine virtuelle.

Importante

Si l’instance locale Azure n’est pas inscrite auprès d’Azure ou n’est pas connectée à Azure pendant plus de 30 jours après l’inscription, la création de machine virtuelle haute disponibilité (HAVM) est bloquée sur le cluster. Reportez-vous aux étapes 4 et 5 pour l’inscription des clusters.

Étape 8 : Migrer des machines virtuelles de Windows Server vers une instance locale Azure

Utilisez la fonctionnalité de migration réseau dans VMM pour migrer des charges de travail depuis Hyper-V (Windows Server 2019 ou versions ultérieures) vers Azure Stack HCI.

Note

La migration dynamique entre Windows Server et Azure Local n’est pas prise en charge. La migration réseau d’Azure Local vers Windows Server n’est pas prise en charge.

  1. Désactivez temporairement la migration dynamique sur l’hôte local Azure de destination.
  2. Sélectionnez Machines virtuelles et services>Tous les hôtes, puis sélectionnez l’hôte Hyper-V source à partir duquel vous souhaitez migrer.
  3. Sélectionnez la machine virtuelle que vous souhaitez migrer. La machine virtuelle doit être dans un état désactivé.
  4. Sélectionnez Migrer une machine virtuelle.
  5. Dans Sélectionner l’hôte, passez en revue et sélectionnez l’hôte local Azure de destination.
  6. Sélectionnez Suivant pour lancer la migration réseau. VMM effectuera des importations et des exportations au niveau du back-end.
  7. Pour vérifier que la machine virtuelle a bien été migrée, vérifiez la liste des machines virtuelles sur l’hôte de destination. Activez la machine virtuelle et réactivez la migration dynamique sur l’hôte local Azure.

Étape 9 : Migrer des charges de travail VMware vers une instance locale Azure à l’aide de SCVMM

VMM offre une expérience simple basée sur un Assistant pour la conversion V2V (Virtual to Virtual). Vous pouvez utiliser cet outil de conversion pour migrer des charges de travail à grande échelle depuis une infrastructure VMware vers une infrastructure Hyper-V. Pour obtenir la liste des serveurs VMware pris en charge, consultez Configuration système requise.

Pour connaître les conditions préalables et les limitations de la conversion, consultez Convertir une machine virtuelle VMware en Hyper-V dans l’infrastructure VMM.

  1. Créez un compte d’identification pour le rôle Administrateur de serveur vCenter dans VMM. Ces informations d’identification d’administrateur sont utilisées pour gérer le serveur vCenter et les hôtes ESXi. Capture d’écran montrant la page de création d’un compte d’identification.

  2. Dans la console VMM, sous Infrastructure, sélectionnez Serveurs>Ajouter un serveur VMware vCenter. Capture d’écran montrant l’option Ajouter un VMware vCenter.

  3. Dans la page Ajouter un serveur VMware vCenter, procédez comme suit :

    1. Nom de l’ordinateur : spécifiez le nom du serveur vCenter.

    2. Compte d’identification : sélectionnez le compte d’identification créé pour l’administrateur vSphere.

      Capture d’écran montrant les informations du serveur.

  4. Sélectionnez Terminer.

  5. Dans la page Importer un certificat, sélectionnez Importer.

    Capture d’écran montrant l’option Importer un certificat.

  6. Une fois le serveur vCenter ajouté avec succès, tous les hôtes ESXi associés au vCenter sont migrés vers VMM.

Ajouter des hôtes

  1. Dans la console VMM, sous Infrastructure, sélectionnez Serveurs>Ajouter des hôtes et clusters VMware ESX.
    Capture d’écran montrant l’option Ajouter des hôtes.
  2. Dans l’Assistant Ajouter une ressource,
    1. Sous Informations d’identification, sélectionnez le compte d’identification utilisé pour le port, puis sélectionnez Suivant.

      Capture d’écran montrant l’onglet Informations d’identification.

    2. Sous Ressources cibles, sélectionnez tous les clusters ESX qui doivent être ajoutés à VMM, puis sélectionnez Suivant. Capture d’écran montrant l’onglet Ressources cibles.

    3. Sous Paramètres de l’hôte, sélectionnez l’emplacement où vous souhaitez ajouter les machines virtuelles, puis sélectionnez Suivant. Capture d’écran montrant l’onglet Paramètres de l’hôte.

    4. Sous Résumé, passez en revue les paramètres et cliquez sur Terminer. En plus des hôtes, les machines virtuelles associées sont également ajoutées.

      Capture d’écran montrant l’onglet Résumé.

Vérifier l’état de l’hôte ESXi

  1. Si l’état de l’hôte ESXi s’affiche comme OK (Limité), cliquez avec le bouton droit sur Propriétés>Gestion, puis sélectionnez le compte d’identification utilisé pour le port, et importez les certificats pour l’hôte.
    Répétez cette même procédure pour tous les hôtes ESXi.

    Capture d’écran montrant l’onglet Gestion.

Après avoir ajouté les clusters ESXi, toutes les machines virtuelles exécutées sur ces clusters ESXi sont automatiquement détectées dans VMM.

Afficher VMs

  1. Accédez à Machines virtuelles et services pour afficher les machines virtuelles. Vous pouvez également gérer les principales opérations de cycle de vie de ces machines virtuelles depuis VMM.
    Capture d’écran montrant les hôtes ESXi.

  2. Cliquez avec le bouton droit sur la machine virtuelle à migrer et sélectionnez Désactiver (les migrations en ligne ne sont pas prises en charge), puis désinstallez les outils VMware du système d’exploitation invité.

  3. Sélectionnez Accueil>Créer des machines virtuelles>Convertir une machine virtuelle.

  4. Dans l’Assistant Conversion de la machine virtuelle,

    1. Sous Sélectionner la source, sélectionnez la machine virtuelle s’exécutant sur le serveur ESXi, puis sélectionnez Suivant. Capture d’écran montrant l’option Sélectionner la source.
    2. Sous Spécifier l’identité de la machine virtuelle, saisissez un nouveau nom pour la machine virtuelle si vous le souhaitez, puis sélectionnez Suivant.
      Capture d’écran montrant l’option Nom de la machine virtuelle.
  5. Sous Sélectionner l’hôte, sélectionnez la machine locale Azure cible et spécifiez l’emplacement sur l’hôte pour les fichiers de stockage de machine virtuelle, puis sélectionnez suivant.

    Capture d’écran montrant l’option Sélectionner l’hôte.

  6. Sélectionnez un réseau virtuel pour la machine virtuelle, puis sélectionnez Créer pour terminer la migration.
    La machine virtuelle s’exécutant sur le cluster ESXi est correctement migrée vers l’instance locale Azure. Pour automatiser cette opération, vous pouvez utiliser des commandes PowerShell pour la conversion.

Étapes suivantes