Notes de publication de System Center Virtual Machine Manager

Virtual Machine Manager (VMM) 2022 n’a aucun problème connu.

Pour connaître les nouvelles fonctionnalités de VMM 2022, consultez Nouveautés.

Cet article liste les notes de publication de System Center 2019 - Virtual Machine Manager (VMM).

Notes de publication de VMM 2019

Les sections suivantes récapitulent les notes de publication de VMM 2019. Elles incluent les problèmes connus et les solutions de contournement. Aucun problème connu dans VMM 2019 UR1 et UR2.

Échec de la suppression d’un nœud de cluster avec l’indicateur CleanUpDisks

Description : Quand vous supprimez un nœud de cluster du cluster Windows Server 2019 S2D avec un indicateur CleanUpDisks, la suppression échoue avec l’erreur Impossible d’obtenir l’instance spécifiée MSFT_StorageJob dans les scénarios suivants.

  • La capacité de stockage est inadéquate dans les serveurs restants pour prendre en charge tous les volumes.

  • Le nombre de domaines d’erreur pour assurer la résilience du volume est insuffisant.

Solution de contournement : Vérifiez les éléments suivants :

  • La capacité de stockage disponible est adéquate dans les serveurs restants pour prendre en charge tous les volumes.

  • Le nombre de domaines d’erreur pour assurer la résilience de vos volume est suffisant.

Échec de l’ajout d’un dispositif de stockage doté d’une interface de gestion SMI-S

Description : L’ajout d’un dispositif de stockage doté d’une interface de gestion SMI-S échoue avec l’erreur L’inscription du fournisseur de stockage a échoué avec le code d’erreur WsManMIInvokeFailed quand System Center Virtual Machine Manager (VMM) 2019 est installé sur Windows Server 2019.

Solution de contournement : VMM dépend du service Gestion du stockage Windows basé sur des normes pour gérer les appareils de stockage à l’aide de SMI-S. Vérifiez que le service est démarré avant d’essayer d’ajouter le dispositif de stockage.

Windows Server 2019 ne prend pas en charge les réseaux HNVv1

Description : Windows Server 2019 ne prend pas en charge HNVv1. Si HNVv1 est en cours d’utilisation, le cluster qui utilise HNVv1 ne doit pas être mis à niveau vers Windows Server 2019 à l’aide d’une mise à niveau propagée de cluster.

Solution de contournement : Migrez hors de HNVv1 vers SDNv2 sur Windows Server 2016 avant d’utiliser la mise à niveau propagée de cluster vers Windows Server 2019.

Les derniers correctifs d’accessibilité à la console ne sont pas disponibles

Description : Les derniers correctifs d’accessibilité dans la console risquent de ne pas être disponibles quand vous utilisez .NET 4.7 durant l’installation de la console VMM.

Solution de contournement : Nous vous recommandons d'utiliser .NET 4.8. Pour plus d’informations sur la migration vers .NET 4.8, consultez l’article Migration de .NET.

La connectivité des cartes principales pour le SLB MUX ne fonctionne pas comme prévu.

Description : La connectivité des cartes principales du SLB MUX peut ne pas fonctionner comme prévu après la migration d’une machine virtuelle.

Solution de contournement : Les utilisateurs peuvent mettre à l’échelle la machine virtuelle du SLB MUX.

Échec de la mise à niveau cumulative de cluster

Description : La mise à niveau cumulative de cluster (CRU) échoue pendant la phase Connecter l’hôte Hyper-V à des groupes de stockage si le disque dur virtuel (VHD) Windows Server 2019 dans le serveur de bibliothèque utilisé comme profil d’ordinateur pour le redéploiement du système d’exploitation n’est pas installé avec les dernières mises à jour.

Solution de contournement : Pour résoudre cette erreur, installez toutes les mises à jour en attente sur le disque dur virtuel et redémarrez la tâche CRU.

Pour éviter ce problème, avant le déclenchement de la tâche CRU, veillez à installer les dernières mises à jour du système d’exploitation sur le disque dur virtuel à utiliser pour la tâche CRU.

L’optimisation dynamique du stockage ne déclenche pas de migration des disques durs virtuels, même si les critères d’optimisation sont remplis

Description : L’optimisation dynamique du stockage doit déclencher la migration des disques durs virtuels entre les Volumes partagés de cluster (CSV, Clustered Shared Volume) quand l’espace de stockage libre dans l’un de ces volumes passe au-dessous du seuil défini sur la page Optimisation dynamique et que les critères d’agressivité sont remplis. Mais dans certains cas, les disques durs virtuels ne sont pas migrés alors que toutes les autres conditions d’optimisation dynamique du stockage sont remplies.

Solution de contournement : Pour garantir le déclenchement de la migration du stockage, effectuez les étapes suivantes :

  1. Vérifiez le HostVolumeID à l’aide de l’applet de commande Get-SCStorageVolume. Si le HostVolumeID retourne Null pour le volume, actualisez la machine virtuelle et reprocédez à l’optimisation dynamique du stockage.
  2. Vérifiez le DiskSpacePlacementLevel du groupe hôte avec l’applet de commande Get-SCHostResever. Affectez à DiskSpacePlacementLevel la valeur de l’espace disque définie dans les paramètres de réserve de ressources de l’ordinateur hôte de l’Assistant Optimisation dynamique.

Le disque d’optimisation dynamique du stockage effectue plusieurs migrations de disque dur virtuel de suite

Description : S’il existe une non-correspondance des niveaux d’avertissement d’espace disque entre les groupes hôtes ayant le même partage de fichiers, cela peut entraîner plusieurs migrations vers et depuis ce partage de fichiers et impacter les performances de l’optimisation dynamique du stockage.

Solution de contournement : Nous vous recommandons de ne pas mettre en place un partage de fichiers entre les différents clusters où l’optimisation dynamique du stockage est activée.

La supervision des performances pour le serveur VMM échoue avec le message Accès refusé

Description : Dans un scénario où le serveur VMM est analysé avec Operations Manager, l’analyse des performances du serveur VMM échoue avec l’erreur d’événement Accès refusé. Les utilisateurs du service ne sont pas autorisés à accéder au journal des événements VirtualMachineManager-Server/Operational.

Solution de contournement : Changez le descripteur de sécurité pour le registre du journal des événements opérationnels avec la commande suivante, puis redémarrez les services Journal des événements et Journal d’intégrité.

reg add HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\WINEVT\Channels\Microsoft-VirtualMachineManager-Server/Operational /v ChannelAccess /t REG_SZ /d O:BAG:SYD:(D;;0xf0007;;;AN)(D;;0xf0007;;;BG)(A;;0xf0007;;;SY)(A;;0x7;;;BA)(A;;0x3;;;NS)(A;;0x1;;;IU)(A;;0x1;;;SU)"

Cette commande ajoute l’utilisateur du service à la liste des utilisateurs autorisés à accéder au journal des événements VirtualMachineManager-Server/Operational.

La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet

Description : La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet, car la tâche Remove-PortACL échoue avec une exception NC encore en cours d’utilisation.

Solution de contournement : Supprimez VMSubnet de VMM puis supprimez Port-ACL.

Import-Module NetworkController

#Remplacez l’URI du contrôleur de réseau par l’adresse IP REST ou le nom FQDN.

$uri = "<NC FQDN or IP>"

#Indiquez les informations d’identification de l’administrateur NC.

$cred = Get-Credential

#Identifiez le réseau virtuel contenant le sous-réseau.

$vnet = Get-NetworkControllerVirtualNetwork -ConnectionUri $uri -ResourceId "Fabrikam_VNet1" -Credential $cred

#Identifiez le sous-réseau pour lequel la liste de contrôle d’accès doit être supprimée.

$vnet.Properties.Subnets[0].Properties = $vnet.Properties.Subnets[0].Properties | Select-Object -Property * -ExcludeProperty AccessControlList

#Effectuez la modification.

New-NetworkControllerVirtualNetwork -ResourceId "Fabrikam_VNet1" -ConnectionUri $uri –Properties $vnet.Properties -Credential $cred

Important

Cette version de Virtual Machine Manager (VMM) a atteint la fin de la prise en charge. Nous vous recommandons de mettre à niveau vers VMM 2022.

Cet article répertorie les notes de publication de System Center 1807 - Virtual Machine Manager (VMM).

Notes de publication de VMM 1807

Les sections suivantes récapitulent les notes de publication de VMM 1807. Elles incluent les problèmes connus et les solutions de contournement.

Les derniers correctifs d’accessibilité à la console ne sont pas disponibles

Description : Les derniers correctifs d’accessibilité à la console risquent de ne pas être disponibles lorsque vous utilisez .NET 4.7 lors de l’installation de la console VMM.

Solution de contournement : Nous vous recommandons d’utiliser .NET 4.7.1 lors de l’installation de la console VMM. Pour plus d’informations sur la migration vers .NET 4.7.1, consultez l’article sur la migration de .NET .

La connectivité des cartes principales pour le SLB MUX ne fonctionne pas comme prévu.

Description : La connectivité des cartes principales du SLB MUX peut ne pas fonctionner comme prévu après la migration d’une machine virtuelle.

Solution de contournement : Les utilisateurs peuvent mettre à l’échelle la machine virtuelle du SLB MUX.

Problèmes de connectivité avec les adresses SLB

Description : Avec les adresses IP frontend et backend attribuées aux machines virtuelles SLB MUX, vous pouvez rencontrer des problèmes de connectivité si l’option Inscrire cette adresse de connexion dans DNS est sélectionnée.

Solution de contournement : Désélectionnez l’option pour éviter les problèmes rencontrés avec ces adresses IP.

L’intégration de VMM avec Azure Site Recovery ne prend pas en charge les versions de DRA antérieures à la version 5.1.3100

Description : si vous utilisez l’intégration de VMM avec Azure Site Recovery, VMM prend en charge DRA (Data Recovery Agent) version 5.1.3100 ou ultérieure. Les versions antérieures ne sont pas prises en charge.

Solution de contournement : suivez les étapes ci-dessous et mettez à niveau la version de DRA :

  1. Désinstallez la version existante de DRA
  2. Installez le correctif VMM 1807
  3. Installez la version 5.1.3100 ou une version ultérieure.

L’actualisation de l’hôte/du cluster peut prendre plus de temps, s’il existe un grand nombre de définitions de réseau logique

Description : quand il existe un grand nombre de définitions de réseau logique dans l’environnement, l’actualisation du cluster/de l’hôte peut prendre plus de temps que prévu.

La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet

Description : La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet, car la tâche Remove-PortACL échoue avec une exception NC encore en cours d’utilisation.

Solution de contournement : Supprimez VMSubnet de VMM puis supprimez Port-ACL.

Import-Module NetworkController

#Remplacez l’URI du contrôleur de réseau par l’adresse IP REST ou le nom FQDN.

$uri = "<NC FQDN or IP>"

#Indiquez les informations d’identification de l’administrateur NC.

$cred = Get-Credential

#Identifiez le réseau virtuel contenant le sous-réseau.

$vnet = Get-NetworkControllerVirtualNetwork -ConnectionUri $uri -ResourceId "Fabrikam_VNet1" -Credential $cred

#Identifiez le sous-réseau pour lequel la liste de contrôle d’accès doit être supprimée.

$vnet.Properties.Subnets[0].Properties = $vnet.Properties.Subnets[0].Properties | Select-Object -Property * -ExcludeProperty AccessControlList

#Effectuez la modification.

New-NetworkControllerVirtualNetwork -ResourceId "Fabrikam_VNet1" -ConnectionUri $uri –Properties $vnet.Properties -Credential $cred

Cet article liste les notes de publication de System Center 2016 - Virtual Machine Manager (VMM).

Important

Cette version de Virtual Machine Manager (VMM) a atteint la fin de la prise en charge. Nous vous recommandons de mettre à niveau vers VMM 2022.

Notes de publication de VMM 1801

Les sections suivantes récapitulent les notes de publication de VMM 1801 et englobent les problèmes connus et les solutions de contournement.

Les derniers correctifs d’accessibilité à la console ne sont pas disponibles

Description : Les derniers correctifs d’accessibilité à la console risquent de ne pas être disponibles lorsque vous utilisez .NET 4.7 lors de l’installation de la console VMM.

Solution de contournement : Nous vous recommandons d’utiliser .NET 4.7.1 lors de l’installation de la console VMM. Pour plus d’informations sur la migration vers .NET 4.7.1, consultez l’article sur la migration de .NET .

La connectivité des cartes principales pour le SLB MUX ne fonctionne pas comme prévu.

Description : La connectivité des cartes principales du SLB MUX peut ne pas fonctionner comme prévu après la migration d’une machine virtuelle.

Solution de contournement : Les utilisateurs peuvent mettre à l’échelle la machine virtuelle du SLB MUX.

Problèmes de connectivité avec les adresses SLB

Description : Avec les adresses IP frontend et backend attribuées aux machines virtuelles SLB MUX, vous pouvez rencontrer des problèmes de connectivité si l’option Inscrire cette adresse de connexion dans DNS est sélectionnée.

Solution de contournement : Désélectionnez l’option pour éviter les problèmes rencontrés avec ces adresses IP.

La mise à niveau peut échouer si le nom d’une classification de port par défaut a été modifié

Description : lorsque vous modifiez le nom d’origine d’une classification de port par défaut et que vous essayez ensuite de mettre à niveau vers VMM 1801, la mise à niveau peut échouer avec le message d’erreur suivant dans le journal d’installation VMM.

Violation de contrainte de CLÉ PRIMAIRE « PK_tbl_NetMan_PortClassification ». Impossible d’insérer une clé dupliquée dans l’objet « dbo.tbl_NetMan_PortClassification ».

Solution de contournement : rétablissez le nom d’origine de la classification de port, puis déclenchez la mise à niveau. Après la mise à niveau, vous pouvez modifier le nom par défaut.

La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet

Description : La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet, car la tâche Remove-PortACL échoue avec une exception NC encore en cours d’utilisation.

Solution de contournement : Supprimez VMSubnet de VMM puis supprimez Port-ACL.

Import-Module NetworkController

#Remplacez l’URI du contrôleur de réseau par l’adresse IP REST ou le nom FQDN.

$uri = "<NC FQDN or IP>"

#Indiquez les informations d’identification de l’administrateur NC.

$cred = Get-Credential

#Identifiez le réseau virtuel contenant le sous-réseau.

$vnet = Get-NetworkControllerVirtualNetwork -ConnectionUri $uri -ResourceId "Fabrikam_VNet1" -Credential $cred

#Identifiez le sous-réseau pour lequel la liste de contrôle d’accès doit être supprimée.

$vnet.Properties.Subnets[0].Properties = $vnet.Properties.Subnets[0].Properties | Select-Object -Property * -ExcludeProperty AccessControlList

#Effectuez la modification.

New-NetworkControllerVirtualNetwork -ResourceId "Fabrikam_VNet1" -ConnectionUri $uri –Properties $vnet.Properties -Credential $cred

Notes de publication pour VMM 2016

Les sections suivantes récapitulent les notes de publication de VMM 2016 et englobent les problèmes connus, les correctifs et les solutions de contournement.

Déploiement de VMM

L’importation de la console d’administration VMM peut échouer

Description : Si vous importez le module additionnel de la console d’administration VMM en utilisant un compte non administrateur, la console se bloque. Cela est dû au fait que le module additionnel de la console est stocké à l’emplacement « C:\Program Files\ », auquel seuls les comptes administrateur ont accès. Solution de contournement : Stockez le module complémentaire de la console à un emplacement qui n’a pas besoin d’un accès administrateur, puis importez-le.

Stockage

La promotion d’une machine virtuelle à un haut niveau de disponibilité peut échouer.

Description : Vous créez une machine virtuelle sur un stockage local, vous la démarrez et vous créez des points de contrôle. Si vous essayez de la migrer et de la promouvoir en tant que machine virtuelle à haute disponibilité dans un cluster, la migration peut échouer. Solution de contournement : Avant d’exécuter la migration, supprimez le point de contrôle en cours d’exécution et arrêtez la machine virtuelle.

La migration d’une machine virtuelle d’un volume partagé de cluster vers un stockage à numéro d’unité logique peut échouer

Description : Vous créez une machine virtuelle à haute disponibilité à l’aide du stockage CSV, vous ajoutez un numéro d’unité logique comme stockage disponible sur le cluster et vous migrez la machine virtuelle du stockage CSV vers le stockage à numéro d’unité logique. Si le stockage de machine virtuelle et le numéro d’unité logique sont sur le même nœud, la migration réussit. Si ce n’est pas le cas, la migration échoue. Solution de contournement : Si la machine virtuelle ne figure pas sur le nœud de cluster sur lequel le stockage à numéro d’unité logique est inscrit, placez-la à cet endroit. Ensuite, migrez la machine virtuelle vers le stockage à numéro d’unité logique.

La capacité des périphériques de stockage NAS s’affiche comme étant de 0 Go.

Description : VMM affiche la valeur 0 Go comme Capacité totale et Capacité disponible pour les partages de fichiers existants dans les périphériques de stockage NAS. Solution de contournement : aucune.

Réseau

Les réseaux logiques gérés par le contrôleur de réseau SDN ne peuvent pas utiliser les adresses IP dynamiques

Description : L’utilisation des adresses IP dynamiques pour les machines virtuelles connectées à des réseaux logiques gérés par le contrôleur de réseau SDN dans la structure fabric VMM n’est pas prise en charge. Solution de contournement : Configurez des adresses IP statiques.

Le commutateur SET s’affiche comme commutateur « Interne » dans VMM.

Description : Si vous déployez un commutateur SET en dehors de la console VMM, puis commencez à le gérer dans la structure fabric VMM, le commutateur s’affiche avec le type « Interne ». Cela n’affecte pas la fonctionnalité de commutateur. Solution de contournement : Aucune

Le commutateur associé à LACP ne fonctionne pas après la mise à niveau.

Description : Une équipe LACP configurée dans un commutateur logique ne fonctionne pas après la mise à niveau vers VMM 2016. Solution de contournement : Redéployez le commutateur, ou supprimez et rajoutez une carte réseau physique dans l’équipe.

La connectivité des cartes principales pour le SLB MUX ne fonctionne pas comme prévu.

Description : La connectivité des cartes principales du SLB MUX peut ne pas fonctionner comme prévu après la migration d’une machine virtuelle. Solution de contournement : Utilisez la diminution/augmentation de la taille des instances dans la machine virtuelle SLB MUX.

Les certificats d’autorité de certification basées sur CNG ne sont pas pris en charge

Description : Si vous utilisez des certificats d’une autorité de certification, vous ne pouvez pas utiliser les certificats CNG pour le déploiement de SDN dans VMM. Solution de contournement : Utilisez d’autres formats de certificats.

Une carte virtuelle connectée à un réseau géré par le contrôleur de réseau doit être redémarrée si vous modifiez l’adresse IP

Description : Si l’adresse IP attribuée est modifiée sur une carte réseau virtuelle connectée à un réseau de machines virtuelles géré par le contrôleur de réseau, vous devez redémarrer manuellement les cartes associées. Solution de contournement : aucune.

IPv6 n’est pas pris en charge pour une infrastructure réseau gérée par un contrôleur de réseau

Description : IPv6 n’est pas pris en charge par le contrôleur de réseau dans la structure fabric VMM. Solution de contournement : utilisez IPv4.

Problèmes de connectivité avec les adresses SLB.

Description : Avec les adresses IP des serveurs frontal et principal attribuées aux machines virtuelles SLB MUX, vous pouvez rencontrer des problèmes de connectivité si l’option Inscrire cette adresse de connexion dans DNS est sélectionnée. Solution de contournement : Désélectionnez le paramètre pour éviter des problèmes.

La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet

Description : La tâche Set-SCVMSubnet -RemovePortACL se termine dans VMM sans supprimer l'association portACL de l'objet NC VMSubnet, car la tâche Remove-PortACL échoue avec une exception NC encore en cours d’utilisation.

Solution de contournement : Supprimez VMSubnet de VMM puis supprimez Port-ACL.

Import-Module NetworkController

#Remplacez l’URI du contrôleur de réseau par l’adresse IP REST ou le nom FQDN.

$uri = "<NC FQDN or IP>"

#Indiquez les informations d’identification de l’administrateur NC.

$cred = Get-Credential

#Identifiez le réseau virtuel contenant le sous-réseau.

$vnet = Get-NetworkControllerVirtualNetwork -ConnectionUri $uri -ResourceId "Fabrikam_VNet1" -Credential $cred

#Identifiez le sous-réseau pour lequel la liste de contrôle d’accès doit être supprimée.

$vnet.Properties.Subnets[0].Properties = $vnet.Properties.Subnets[0].Properties | Select-Object -Property * -ExcludeProperty AccessControlList

#Effectuez la modification.

New-NetworkControllerVirtualNetwork -ResourceId "Fabrikam_VNet1" -ConnectionUri $uri –Properties $vnet.Properties -Credential $cred

Gestion de cluster

La mise à niveau fonctionnelle d’un cluster n’actualise pas les informations du serveur de fichiers

Description : Si vous effectuez une mise à niveau fonctionnelle d’un cluster qui inclut un serveur de fichiers, les informations de plateforme ne sont pas automatiquement mises à jour dans la base de données VMM. Solution de contournement : Actualisez le fournisseur de stockage pour le serveur de fichiers après avoir effectué la mise à niveau fonctionnelle du cluster.

La mise à jour d’un cluster d’espaces de stockage direct dans VMM échoue.

Description : La mise à jour d’un cluster (hyperconvergé ou convergé) d’espaces de stockage direct à l’aide de VMM n’est pas prise en charge et risque d’entraîner une perte de données. Solution de contournement : Mettez à jour les clusters en dehors de VMM en utilisant la mise à jour adaptée aux clusters dans Windows.

La mise à niveau propagée d’un cluster hôte Windows Server 2012 R2 vers un cluster hôte Windows Server 2016 Nano Server échoue

Description : Quand vous essayez de mettre à niveau les nœuds hôtes d’un cluster Windows Server 2012 R2 vers Windows Server 2016 - Nano Server à l’aide de la fonctionnalité de mise à niveau propagée de cluster dans VMM, la mise à niveau échoue avec l’erreur 20406 : « VMM n’a pas pu énumérer d’instances de la classe MSFT_StorageNodeToDisk sur le serveur <nom_serveur>. Échec avec l’erreur MI RESULT 7. L’opération demandée n’est pas prise en charge. » Solution de contournement : Effectuez une mise à jour manuelle du cluster hôte Windows Server 2012 R2 vers Nano en dehors de VMM. Notez que la mise à niveau propagée à partir de Windows Server 2012 R2 vers Windows Server 2016 Full Server fonctionne correctement. Ce problème est spécifique à Nano.

L’ajout d’un cluster dans la console d’administration VMM peut provoquer une erreur

Description : Quand vous ajoutez un cluster comme ressource dans la console d’administration VMM, vous pouvez recevoir le message d’erreur suivant : « Aucun ordinateur n’a été découvert d’après vos entrées ». Solution de contournement : Sélectionnez OK et fermez la boîte de dialogue d’erreur. Ensuite, essayez de nouveau d’ajouter le cluster.

La mise à niveau propagée de cluster n’effectue pas la migration dynamique des machines virtuelles qui ne sont pas à haute disponibilité

Description : Quand vous effectuez une mise à niveau propagée de clusters Windows Server 2012 R2 vers Windows Server 2016 à l’aide de VMM, celle-ci n’effectue pas la migration dynamique des machines virtuelles qui ne sont pas à haute disponibilité. Elles sont déplacées vers un état enregistré. Solution de contournement : Vous pouvez rendre hautement disponibles toutes les machines virtuelles avant la mise à niveau, ou effectuer une migration dynamique manuelle pour les machines virtuelles spécifiques.

Vous devez effectuer manuellement certaines étapes pour ajouter un hôte Nano Server situé dans un domaine non approuvé.

Description : Vous ne pouvez pas ajouter un hôte Nano Server dans un domaine non approuvé. Solution de contournement : Effectuez ces étapes sur l’hôte et ajoutez-le comme hôte non approuvé à l’infrastructure VMM.

  1. Activez WINRM sur HTTPS :

    New-Item -Path WSMan:\LocalHost\Listener -Transport HTTPS -Address * -CertificateThumbPrint $cert.Thumbprint –Force

  2. Créez une exception de pare-feu sur l’hôte, pour autoriser WINRM sur HTTPS :

    New-NetFirewallRule -DisplayName 'Windows Remote Management (HTTPS-In)' -Name 'Windows Remote Management (HTTPS-In)' -Profile Any -LocalPort 5986 -Protocol TCP

Vous ne pouvez pas ajouter d’hôtes Nano Server situés dans un réseau de périmètre.

Description : Quand vous essayez d’ajouter un hôte Nano Server situé dans un réseau de périmètre à l’aide de l’Assistant Ajout d’une ressource, l’opération échoue. Solution de contournement : Procédez comme suit sur l’hôte, puis ajoutez-le à l’infrastructure VMM comme hôte non approuvé.

  1. Activez WINRM sur HTTPS sur l’hôte :

    New-Item -Path WSMan:\LocalHost\Listener -Transport HTTPS -Address * -CertificateThumbPrint $cert.Thumbprint –Force

  2. Créez une exception de pare-feu sur l’hôte, pour autoriser WINRM sur HTTPS :

    New-NetFirewallRule -DisplayName 'Windows Remote Management (HTTPS-In)' -Name 'Windows Remote Management (HTTPS-In)' -Profile Any -LocalPort 5986 -Protocol TCP

Le déploiement complet d’ordinateurs hôtes risque d’échouer lors d’une mise à niveau à haute disponibilité.

Description : Après une mise à jour à haut niveau de disponibilité vers VMM 2016, VMM risque de modifier la clé de Registre des services de déploiement Windows (WDS), HKLM\SYSTEM\CCS\SERVICES\WDSSERVER\PROVIDER\WDSPXE\PROVIDES\VMMOSDPROVIDER, en « HOST/VIRT-VMM-1 », au lieu de « SCVMM/VIRT-VMM-1 ». Cela entraîne l’échec du déploiement complet. Solution de contournement : Modifiez manuellement l’entrée de Registre HKLM\SYSTEM\CCS\SERVICES\WDSSERVER\PROVIDER\WDSPXE\PROVIDES\VMMOSDPROVIDER en « SCVMM/VIRT-VMM-1 ».

Non concordance des états de l’agent hôte après la mise à niveau.

Description : Quand VMM met à jour l’agent hôte, il génère un nouveau certificat pour l’hôte. En raison de cette mise à jour, le certificat du serveur du contrôleur de réseau et le certificat de l’hôte ne correspondent pas. Solution de contournement : Réparez l’ordinateur hôte dans la page État de l’hôte.

La migration SAN échoue pour un ordinateur hôte Nano Server.

Description : Quand vous effectuez une migration SAN entre deux ordinateurs hôtes autonomes Nano Server, une erreur se produit. Solution de contournement : Installez le dernier correctif cumulatif de VMM (ce problème a été résolu dans le correctif cumulatif 2).

Espaces de stockage direct

L’ajout à l’infrastructure VMM d’un ordinateur hôte sur lequel les espaces de stockage direct sont activés entraîne un avertissement.

Description : Quand vous ajoutez un hôte à un cluster sur lequel les espaces de stockage direct sont activés, l’avertissement « MPIO (Multi-Path I/O) n’est pas activé pour les baies de stockage connues sur l’hôte \nom_hôte> » est généré. Solution de contournement : Installez le dernier correctif cumulatif de VMM (ce problème a été résolu dans le correctif cumulatif 2).

Le déploiement d’une machine virtuelle sur SOFS à l’aide de la copie de fichiers rapide entraîne un avertissement.

Description : Quand vous déployez une machine virtuelle sur un serveur SOFS à l’aide de la copie rapide de fichiers, l’action aboutit mais affiche l’avertissement suivant : « VMM n’a pas pu transférer le fichier <emplacement source> vers <emplacement cible> avec la copie de fichiers rapide. L’agent VMM sur <hôte> a retourné une erreur Solution de contournement : Aucune

La validation du cluster s’exécute toujours.

Description : Quand vous ajoutez un nœud à un cluster (ou créez un cluster hyperconvergé avec des espaces de stockage direct), la validation du cluster est toujours effectuée même si l’option « Ignorer la validation du cluster » est sélectionnée. Solution de contournement : Installez le dernier correctif cumulatif de VMM. Ce problème a été résolu dans le correctif cumulatif 2.

La modification d’une classification sur un volume partagé de cluster (CSV) n’est pas prise en compte.

Description : Si vous modifiez une classification sur un volume partagé de cluster (CSV) dans un cluster hyperconvergé avec des espaces de stockage direct, seule la classification du nœud propriétaire est mise à jour. Les autres nœuds conservent l’ancienne classification. Solution de contournement : Installez le dernier correctif cumulatif de VMM. Ce problème a été résolu dans le correctif cumulatif 2.

La création d’un partage de fichiers hiérarchisé sur un serveur SOFS ne se déroule pas comme prévu.

Description : Quand vous créez un partage de fichiers hiérarchisé sur un serveur SOFS, l’erreur 43020 [SM_RC_DEDUP_NOT_AVAILABLE] se produit, même si l’option de déduplication n’est pas sélectionnée. Solution de contournement : Ignorez l’erreur.

VMM n’affiche pas les bonnes informations pour un cluster hyperconvergé ou pour un cluster SOFS avec espaces de stockage direct.

Description : Après l’ajout d’un cluster hyperconvergé existant, ou d’un cluster SOFS avec espaces de stockage direct existant, à l’infrastructure VMM, le fournisseur de stockage n’est pas ajouté, et certaines propriétés ne sont pas disponibles. Solution de contournement : Installez le dernier correctif cumulatif de VMM. Ce problème a été résolu dans le correctif cumulatif 2.

Gestion des machines virtuelles

La protection d’une machine virtuelle entraîne une erreur.

Description : Si vous protégez une machine virtuelle existante dans l’infrastructure VMM ou si vous créez une machine virtuelle dotée d’une protection maximale à partir d’un modèle sans protection maximale, le travail risque d’échouer avec l’erreur 1730 : « L’action sélectionnée n’a pas abouti, car elle n’est pas valide dans l’état actuel de la machine virtuelle. » Cette défaillance se produit à la dernière étape du travail, lorsque la machine virtuelle est arrêtée une fois dotée d’une protection maximale. La machine virtuelle est correctement protégée et est utilisable. Solution de contournement : Réparez la machine virtuelle avec l’option Ignorer.

VMM n’affiche pas les modifications apportées aux propriétés de sécurité de la machine virtuelle.

Description : Si vous modifiez les propriétés du démarrage sécurisé d’une machine virtuelle de 2e génération ou si vous activez/désactivez vTPM pour une machine virtuelle protégée, en dehors de la console VMM, la modification n’est pas immédiatement visible dans VMM. Solution de contournement : Actualisez manuellement la machine virtuelle pour afficher les modifications.

Le stockage d’une machine virtuelle dans la bibliothèque VMM échoue si vous modifiez le port par défaut pour BITS (443).

Description : Si vous modifiez le port BITS par défaut lors de la configuration de VMM, une erreur se produit quand vous stockez une machine virtuelle dans la bibliothèque VMM. Erreur 2940 : « VMM ne parvient pas à terminer le transfert de fichier demandé. La connexion au serveur HTTP <nom> n’a pas pu être établie. » < Ajoutez manuellement le nouveau numéro de port à la liste des exceptions du Pare-feu Windows de l’hôte : netsh advfirewall firewall add rule name="VMM" dir=in action=allow localport=<port no.> protocol=TCP.

Vous ne pouvez pas créer de modèles de machine virtuelle à partir d’une machine virtuelle Nano Server.

Description : Quand vous essayez de créer un modèle de machine virtuelle à partir d’une machine virtuelle Nano Server, l’erreur 2903 se produit : « VMM n’a pas pu trouver le fichier/dossier spécifié sur le serveur '<nom_serveur>'. Ce fichier/dossier peut être nécessaire dans le cadre d’un autre objet. » Solution de contournement : Créez un modèle de machine virtuelle à partir de zéro avec un disque dur virtuel Nano Server.

Les déploiements de service à partir de modèles de service risquent d’échouer sur un système d’exploitation invité Nano Server/Core.

Description : Quand il sélectionne des rôles et des fonctionnalités pour un modèle de service, le profil de système d’exploitation invité ne distingue pas les versions Core, Nano Server et Desktop. Si vous sélectionnez des rôles et des fonctionnalités (telles que la fonctionnalité Expérience utilisateur ou d’autres fonctionnalités liées à l’interface graphique utilisateur) qui ne s’appliquent pas à un système d’exploitation invité Nano Server/Core, le déploiement peut échouer. Solution de contournement : N’incluez pas ces rôles et fonctionnalités dans le modèle de service.

VMM 2016 ne met pas à jour les agents invités VMM après une mise à niveau.

Description : Quand vous mettez à niveau VMM à la version 2016 avec des déploiements de service existants, puis effectuez la maintenance de ces services, les agents invités VMM 2016 ne sont pas mis à jour sur les machines virtuelles qui faisaient partie du déploiement de service. Cela n’affecte pas la fonctionnalité. Solution de contournement : Installez manuellement l’agent invité VMM 2016.

La jonction d’une machine virtuelle NANO Server à un domaine échoue.

Description : Lors du déploiement d’une machine virtuelle Nano Server, si vous joignez cette machine virtuelle à un domaine en spécifiant les informations de jonction de domaine dans la page Configuration du système d’exploitation de l’Assistant de déploiement de machine virtuelle, VMM déploie la machine virtuelle, mais ne l’ajoute pas au domaine spécifié. Solution de contournement : une fois la machine virtuelle déployée, joignez manuellement la machine virtuelle au domaine. Plus d’informations

Une erreur se produit lors du démarrage d’une machine virtuelle avec un ordre de démarrage.

Description : Windows Server 2016 inclut la fonctionnalité Ordre de démarrage des machines virtuelles, qui définit l’ordre dans lequel les machines virtuelles dépendantes sont démarrées. Cette fonctionnalité n’est pas disponible dans VMM, mais si vous avez configuré la fonctionnalité en dehors de VMM, VMM reconnaît l’ordre de démarrage des machines virtuelles. Toutefois, VMM génère l’erreur (faux positif) 12711 : « VMM ne peut pas effectuer l’opération WMI sur le serveur <nom serveur> suite à une erreur : [MSCluster_ResourceGroup.Name=<nom>] Le groupe ou la ressource n’est pas dans l’état correct pour effectuer l’opération requise. Solution de contournement : Ignorez l’erreur. Les machines virtuelles démarreront dans le bon ordre.

Intégration

L’intégration de SQL Server Analysis Services (SSAS) ne fonctionne pas dans VMM et le correctif cumulatif 1 d’Operations Manager.

Description : Si vous exécutez le correctif cumulatif 1, vous ne pouvez pas configurer SSAS pour SQL Server. Solution de contournement : Téléchargez les derniers correctifs cumulatifs. Ce problème a été résolu dans le correctif cumulatif 2.

Étapes suivantes

Nouveautés de Virtual Machine Manager