Bereitstellen und Verwalten von Azure Stack HCI-Clustern in VMM

Dieser Artikel enthält Informationen zum Einrichten eines Azure Stack HCI-Clusters im Virtual Machine Manager (VMM) von System Center. Sie können einen Azure Stack HCI-Cluster durch Bereitstellung von Bare-Metal-Servern oder das Hinzufügen vorhandener Hosts bereitstellen. Erfahren Sie mehr über das neue Azure Stack HCI.

VMM 2019 UR3 (Update Rollup 3) unterstützt Azure Stack HCI Version 20H2. Das aktuelle Produkt ist Azure Stack HCI Version 21H2. Ab System Center 2022 unterstützt VMM Azure Stack HCI, Version 20H2. Azure Stack HCI, Version 21H2; und Azure Stack HCI, Version 22H2 (unterstützt von VMM 2022 UR1).

Wichtig

Azure Stack HCI-Cluster, die von Virtual Machine Manager verwaltet werden, sollten dem Vorschaukanal noch nicht beitreten. System Center (einschließlich Virtual Machine Manager, Operations Manager und anderer Komponenten) unterstützt derzeit keine Azure Stack-Vorschauversionen. Die neuesten Updates finden Sie im System Center-Blog.

Vorbereitung

Stellen Sie sicher, dass Sie VMM 2019 UR3 oder höher ausführen.

Was wird unterstützt?

  • Hinzufügen, Erstellen und Verwalten von Azure Stack HCI-Clustern. Lesen Sie die ausführlichen Schritte zum Erstellen und Verwalten von HCI-Clustern.

  • Möglichkeit zur Bestimmung und Bereitstellung von VMS auf den Azure Stack HCI-Clustern und Durchführen von VM-Lebenszyklus-Vorgängen. VMs können mithilfe von VHD(x)-Dateien, Vorlagen oder von einem vorhandenen virtuellen Computer bereitgestellt werden. Weitere Informationen

  • Richten Sie ein VLAN-basiertes Netzwerk auf Azure Stack HCI-Clustern ein.

  • Bereitstellung und Verwaltung des SDN-Netzwerk-Controllers auf Azure Stack HCI-Clustern.

  • Verwaltung von Speicherpooleinstellungen, Erstellen von virtuellen Datenträgern, Erstellen freigegebener Clustervolumes (Cluster Shared Volumes, CSVs) und Anwendung von QoS-Einstellungen.

  • Das Verschieben von VMs zwischen Windows Server- und Azure Stack HCI-Clustern funktioniert über die Netzwerkmigration und die Migration einer offline (heruntergefahrenen) VM. In diesem Szenario exportiert und importiert VMM unter der Haube, obwohl er als einzelner Vorgang ausgeführt wird.

  • Die PowerShell-Cmdlets, die zum Verwalten von Windows Server-Clustern verwendet werden, können auch verwendet werden, um Azure Stack HCI-Cluster zu verwalten.

Registrieren und Aufheben der Registrierung von Azure Stack HCI-Clustern

Mit VMM 2022 führen wir VMM PowerShell-Cmdlets zum Registrieren und Aufheben der Registrierung von Azure Stack HCI-Clustern ein.

Mit den folgenden Cmdlets können Sie einen HCI-Cluster registrieren:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Mit dem folgenden Befehl können Sie die Registrierung eines Clusters aufheben:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Ausführliche Informationen zum unterstützten Parameter finden Sie unter Register-SCAzStackHCI und Unregister-SCAzStackHCI.

Was wird nicht unterstützt?

  • Die Verwaltung von Azure Stack HCI-Stretched Clustern wird derzeit in VMM nicht unterstützt.

  • Azure Stack HCI ist als Virtualisierungshost ausgelegt, auf dem Sie alle Workloads auf VMs ausführen. Sie können gemäß den Azure Stack HCI-Nutzungsbedingungen nur die Vorgänge durchführen, die für das Hosten der VMs erforderlich sind. Azure Stack HCI-Cluster sollten nicht für andere Zwecke wie WSUS-Server, WDS-Server oder Bibliotheksserver verwendet werden. Weitere Informationen finden Sie unter Anwendungsfälle für Azure Stack HCI, Verwenden von Azure Stack HCI und Rollen, die Sie ohne Virtualisierung ausführen können.

  • Die Livemigration zwischen einer beliebigen Version von Windows Server und Azure Stack HCI-Clustern wird nicht unterstützt.

Hinweis

Die Livemigration zwischen Azure Stack HCI-Clustern sowie zwischen Windows Server-Clustern funktioniert.

  • Der einzige verfügbare Speichertyp für Azure Stack HCI ist Direkte Speicherplätze (S2D). Die Erstellung oder Verwaltung von Nicht-S2D-Clustern mit Azure Stack HCI-Knoten wird nicht unterstützt. Wenn Sie einen anderen Speichertyp verwenden müssen, z. B. SANs, verwenden Sie Windows Server als Virtualisierungshost.

Hinweis

Sie müssen S2D aktivieren, wenn Sie einen Azure Stack HCI-Cluster erstellen. Um S2D zu aktivieren, wechseln Sie im Clustererstellungs-Assistenten zu Allgemeine Konfiguration. Wählen Sie unter Clustername und Hostgruppe angeben die Option Direkte Speicherplätze aktivieren aus, wie unten gezeigt:

Screenshot: Aktiviertes S2D

Nachdem Sie einen Cluster mit S2D aktiviert haben, führt VMM Folgendes aus:

  • Das Failover-Cluster-Feature ist aktiviert.
  • Speicherreplikat und Datendeduplizierung werden aktiviert.
  • Der Cluster wird optional überprüft und erstellt.
  • S2D ist aktiviert, und es wird in VMM ein Speicherarrayobjekt mit dem Namen erstellt, den Sie im Assistenten angegeben haben.

Wenn Sie VMM zum Erstellen eines hyperkonvergenten Clusters verwenden, werden der Pool und die Speicherebenen automatisch durch Ausführen von Enable-ClusterStorageSpacesDirect -Autoconfig $True erstellt.

Wenn diese Voraussetzungen erfüllt sind, stellen Sie einen Cluster bereit und richten darauf Speicherressourcen ein. Anschließend können Sie VMS im Cluster bereitstellen.

Führen Sie die folgenden Schritte aus:

Schritt 1: Bereitstellen des Clusters

Sie können einen Cluster mithilfe von Hyper-V-Hosts und Bare-Metal-Computern bereitstellen:

Bereitstellen eines Clusters aus Hyper-V-Hosts

Wenn Sie die Azure Stack HCI-Hosts zur VMM-Fabric hinzufügen müssen, führen Sie die folgenden Schritte aus. Wenn sie sich bereits im VMM-Fabric befinden, fahren Sie mit dem nächsten Schritt fort.

Hinweis

  • Wählen Sie beim Einrichten des Clusters die Option Direkte Speicherplätze aktivieren auf der Seite Allgemeine Konfiguration des Assistenten Hyper-V-Cluster erstellen aus.
  • Wählen Sie unter Ressourcentyp die Option Vorhandene Server mit Windows Server-Betriebssystem und dann die Hyper-V-Hosts aus, die dem Cluster hinzugefügt werden sollen.
  • Auf allen ausgewählten Hosts sollte Azure Stack HCI installiert sein.
  • Da S2D aktiviert ist, muss der Cluster überprüft werden.

Bereitstellen eines Clusters aus Bare-Metal-Computern

Hinweis

In der Regel erfordert der S2D-Knoten RDMA-, QoS- und SET-Einstellungen. Um diese Einstellungen für einen Knoten zu konfigurieren, der Bare-Metal-Computer verwendet, können Sie die Funktionalität für PCP-Skripts nach der Bereitstellung nutzen. Hier sehen Sie das PCP-Beispielskript nach der Bereitstellung. Sie können dieses Skript auch verwenden, um RDMA, QoS und SET zu konfigurieren, während Sie einer vorhandenen S2D-Bereitstellung von Bare-Metal-Computern einen neuen Knoten hinzufügen.

  1. Lesen Sie die Voraussetzungen für das Bereitstellen von Bare-Metal-Computern.

Hinweis

  • Die generalisierte VHD oder VHDX in der VMM-Bibliothek sollte Azure Stack HCl mit den neuesten Updates ausführen. Die Werte Betriebssystem und Virtualisierungsplattform für die Festplatte sollten festgelegt sein.
  • Für die Bare-Metal-Bereitstellung müssen Sie einen Pre-Boot eXecution Environment-Server (PXE) zum VMM-Fabric hinzufügen. Der PXE-Server wird über Windows-Bereitstellungsdienste bereitgestellt. VMM verwendet ein eigenes WinPE-Image, und Sie müssen sicherstellen, dass es das neueste ist. Wählen Sie hierzu Fabric>Infrastructure>Update WinPE image aus, und stellen Sie sicher, dass der Auftrag abgeschlossen wird.
  1. Befolgen Sie die Anweisungen unter Bereitstellen eines Hyper-V-Hosts oder -Clusters basierend auf Bare-Metal-Computern.

Schritt 2: Einrichten des Netzwerks für den Cluster

Nachdem der Cluster bereitgestellt wurde und im VMM-Fabric verwaltet wird, müssen Sie ein Netzwerk für Clusterknoten einrichten.

  1. Beginnen Sie mit dem Erstellen eines logischen Netzwerks, das das physische Verwaltungsnetzwerk spiegelt.
  2. Sie müssen einen logischen Switch mit aktiviertem Switch Embedded Teaming (SET) einrichten, damit der Switch virtualisierungsfähig ist. Dieser Switch ist mit dem logischen Verwaltungsnetzwerk verbunden und verfügt über alle virtuellen Hostadapter, die für den Zugriff auf das Verwaltungsnetzwerk oder das Konfigurieren des Speichernetzwerks erforderlich sind. S2D verfügt über ein Netzwerk für die Kommunikation zwischen Hosts. Es werden RDMA-fähige Adapter empfohlen.
  3. Erstellen von VM-Netzwerken.

Schritt 3: Konfigurieren von DCB-Einstellungen auf dem Azure Stack HCI-Cluster

Hinweis

Die Konfiguration von DCB-Einstellungen ist ein optionaler Schritt, um eine hohe Leistung während des Workflows der Erstellung des S2D-Clusters zu erzielen. Fahren Sie mit Schritt 4 fort, wenn Sie keine DCB-Einstellungen konfigurieren möchten.

Empfehlungen

  • Wenn Sie vNICs bereitgestellt haben, wird empfohlen, alle Ihre vNICs den entsprechenden pNICs zuzuordnen, um eine optimale Leistung zu erzielen. Affinitäten zwischen vNIC und pNIC werden vom Betriebssystem nach dem Zufallsprinzip festgelegt, und in manchen Szenarien könnten mehrere vNICs derselben pNIC zugeordnet werden. Sie sollten die Affinität zwischen vNIC und pNIC manuell festlegen, indem Sie die hier aufgeführten Schritte befolgen, um solche Szenarios zu vermeiden.

  • Wenn Sie ein Portprofil für den Netzwerkadapter erstellen, sollten Sie IEEE-Priorität zulassen. Weitere Informationen

    Sie können die IEEE-Priorität auch mithilfe der folgenden PowerShell-Befehle festlegen:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Führen Sie die folgenden Schritte aus, um DCB-Einstellungen zu konfigurieren:

  1. Erstellen Sie einen neuen Hyper-V-Cluster, und wählen Sie „Direkte Speicherplätze“ aktivieren aus. Die Option DCB-Konfiguration wird dem Workflow zum Erstellen von Hyper-V-Clustern hinzugefügt.

    Screenshot: Hyper-V-Cluster

  2. Wählen Sie in DCB-Konfiguration die Option Data Center Bridging konfigurieren aus.

  3. Geben Sie Werte für Priorität und Bandbreite für den Datenverkehr zwischen SMB-Direct und Clustertakt an.

Hinweis

Priorität und Bandbreite werden Standardwerte zugewiesen. Passen Sie diese Werte gemäß der Umgebungsanforderungen Ihres Unternehmens an.

Screenshot der Prioritätsbandbreite.

Standardwerte:

Datenverkehrsklasse Priority Bandbreite (%)
Clustertakt 7 1
SMB-Direct 3 50
  1. Wählen Sie die für den Speicherdatenverkehr verwendeten Netzwerkadapter aus. RDMA ist auf diesen Netzwerkadaptern aktiviert.

    Hinweis

    Wählen Sie in einem konvergierten NIC-Szenario die Speicher-vNICs aus. Die zugrunde liegenden pNICs sollten RDMA-fähig sein, damit vNICs angezeigt und zur Auswahl verfügbar sein können.

    Screenshot: Aktivieren von RMDS.

  2. Überprüfen Sie die Zusammenfassung, und wählen Sie Fertig stellen aus.

    Ein Azure Stack HCI-Cluster wird erstellt, und die DCB-Parameter werden für alle S2D-Knoten konfiguriert.

    Hinweis

    • DCB-Einstellungen können auf den vorhandenen Hyper-V S2D-Clustern konfiguriert werden, indem Sie die Seite Clustereigenschaften besuchen und zur DCB-Konfigurationsseite navigieren.
    • Alle Out-of-Band-Änderungen an den DCB-Einstellungen auf beliebigen Knoten bewirken, dass der S2D-Cluster in VMM nicht kompatibel ist. Eine Option „Wartung ausführen“ ist auf der Seite DCB-Konfiguration der Clustereigenschaften verfügbar, mit der Sie die DCB-Einstellungen erzwingen können, die in VMM auf den Clusterknoten konfiguriert werden.

Schritt 4: Registrierung des Azure Stack HCI-Clusters bei Azure

Nachdem Sie einen Azure Stack HCI-Cluster erstellt haben, muss er innerhalb von 30 Tagen nach der Installation gemäß den Azure Online Services-Nutzungsbedingungen in Azure registriert werden. Wenn Sie System Center 2022 verwenden, verwenden Sie Register-SCAzStackHCI das Cmdlet in VMM, um den Azure Stack HCI-Cluster bei Azure zu registrieren. Führen Sie alternativ diese Schritte aus, um den Azure Stack HCI-Cluster bei Azure zu registrieren.

Der Registrierungsstatus wird in VMM nach einer erfolgreichen Cluster Aktualisierung widerspiegeln.

Schritt 5: Anzeigen des Registrierungsstatus Azure Stack HCI-Clustern

  1. In der VMM-Konsole können Sie die Registrierung status und das Datum der letzten Verbindung von Azure Stack HCI-Clustern anzeigen.

  2. Wählen Sie Fabric aus, klicken Sie mit der rechten Maustaste auf den Azure Stack HCI-Cluster , und wählen Sie Eigenschaften aus.

    Screenshot: Registrierung status.

  3. Alternativ können Sie die Eigenschaften des zurückgegebenen Objekts ausführen Get-SCVMHost und beobachten, um die Registrierung status zu überprüfen.

Schritt 6: Verwalten des Pools und Erstellen von CSVs

Sie können jetzt die Einstellungen des Speicherpools ändern und virtuelle Datenträger und CSVs erstellen.

  1. Wählen Sie Fabric>Storage>Arrays aus.

  2. Klicken Sie mit der rechten Maustaste auf den Cluster >Pool verwalten, und wählen Sie den Speicherpool aus, der standardmäßig erstellt wurde. Sie können den Standardnamen ändern und eine Klassifizierung hinzufügen.

  3. Klicken Sie zum Erstellen eines CSV mit der rechten Maustaste auf den Cluster und dann auf >>>>.

  4. Geben Sie im Speichertyp des Assistenten> zum Erstellen von Volumes den Volumenamen an, und wählen Sie den Speicherpool aus.

  5. Unter Kapazität können Sie Volumegröße, Dateisystem und Resilienzeinstellungen (zu tolerierende Fehler) angeben.

    Screenshot der Lautstärkeeinstellungen.

  6. Wählen Sie Erweiterte Speicher- und Tieringeinstellungen konfigurieren aus, um diese Optionen einzurichten.

    Screenshot: Konfigurieren der Speichereinstellungen

  7. Überprüfen Sie die Einstellungen unter Zusammenfassung, und beenden Sie den Assistenten. Ein virtueller Datenträger wird mit dem Erstellen des Volumes automatisch erstellt.

Schritt 7: Bereitstellen von VMs auf dem Cluster

In einer hyperkonvergenten Topologie können VMs direkt im Cluster bereitgestellt werden. Ihre virtuellen Festplatten werden auf den Volumes, die Sie mit S2D erstellt haben, platziert. Diese VMs können Sie genau wie andere VMs erstellen und bereitstellen.

Wichtig

Wenn der Azure Stack HCI-Cluster nach der Registrierung mehr als 30 Tage lang nicht bei Azure registriert oder nicht mit Azure verbunden ist, wird die Erstellung von Hochverfügbarkeits-VMs (HAVM) im Cluster blockiert. Weitere Informationen zur Cluster-Registrierung finden Sie in Schritt 4 und 5.

Schritt 8: Migrieren von VMs von Windows Server zu Azure Stack HCI-Cluster

Verwenden Sie die Netzwerkmigrationsfunktion in VMM, um Workloads von Hyper-V (Windows Server 2019 & höher) zu Azure Stack HCI zu migrieren.

Hinweis

Die Livemigration zwischen Windows Server und Azure Stack HCI wird nicht unterstützt. Die Netzwerkmigration von Azure Stack HCI zu Windows Server wird nicht unterstützt.

  1. Deaktivieren Sie vorübergehend die Livemigration auf dem Azure Stack HCI-Zielhost.
  2. Wählen Sie VMs und Dienste > Alle Hosts und dann den Hyper-V-Quellhost aus, von dem Sie migrieren möchten.
  3. Wählen Sie den virtuellen Computer aus, den Sie migrieren möchten. Der virtuelle Computer muss sich in einem deaktivierten Zustand befinden.
  4. Wählen Sie Migrieren virtueller Computer aus.
  5. Überprüfen Und wählen Sie unter Host auswählen den Azure Stack HCI-Zielhost aus.
  6. Wählen Sie Weiter aus, um die Netzwerkmigration zu initiieren. VMM führt Importe und Exporte am Back-End durch.
  7. Überprüfen Sie die Liste der VMs auf dem Zielhost, um zu überprüfen, ob der virtuelle Computer erfolgreich migriert wurde. Aktivieren Sie die VM, und aktivieren Sie die Livemigration auf dem Azure Stack HCI-Host erneut.

Schritt 9: Migrieren von VMware-Workloads zum Azure Stack HCI-Cluster mithilfe von SCVMM

VMM bietet eine einfache assistentenbasierte Oberfläche für die V2V-Konvertierung (Virtual to Virtual). Sie können das Konvertierungstool verwenden, um Workloads im großen Stil von der VMware-Infrastruktur zur Hyper-V-Infrastruktur zu migrieren. Eine Liste der unterstützten VMware-Server finden Sie unter Systemanforderungen.

Voraussetzungen und Einschränkungen für die Konvertierung finden Sie unter Konvertieren einer VMware-VM in Hyper-V im VMM-Fabric.

  1. Erstellen Sie ausführend für die vCenter Server-Administratorrolle in VMM. Diese Administratoranmeldeinformationen werden verwendet, um vCenter-Server und ESXi-Hosts zu verwalten. Screenshot: Seite

  2. Wählen Sie in der VMM-Konsole unter Fabricdie Option Server>VMware vCenter Server hinzufügen aus. Screenshot: Option

  3. Gehen Sie auf der Seite VMware vCenter Server hinzufügen wie folgt vor:

    1. Computername: Geben Sie den vCenter-Servernamen an.
    2. Ausführen eines Kontos: Wählen Sie das ausführend-Konto aus, das für den vSphere-Administrator erstellt wurde.
      Screenshot: Serverinformationen
  4. Wählen Sie Fertig stellen aus.

  5. Wählen Sie auf der Seite Zertifikat importierendie Option Importieren aus.

    Screenshot: Option

  6. Nach dem erfolgreichen Hinzufügen des vCenter-Servers werden alle ESXi-Hosts unter dem vCenter zu VMM migriert.

Hinzufügen von Hosts

  1. Wählen Sie in der VMM-Konsole unter Fabricdie Option Server>VMware ESX-Hosts und -Cluster hinzufügen aus.
    Screenshot: Option
  2. Im Assistenten zum Hinzufügen von Ressourcen
    1. Wählen Sie unter Anmeldeinformationen das Konto Ausführen aus, das für den Port verwendet wird, und wählen Sie Weiter aus. Screenshot der Registerkarte

    2. Wählen Sie unter Zielressourcen alle ESX-Cluster aus, die VMM hinzugefügt werden müssen, und wählen Sie Weiter aus. Screenshot: Registerkarte

    3. Wählen Sie unter Hosteinstellungen den Speicherort aus, an dem Sie die VMs hinzufügen möchten, und wählen Sie Weiter aus. Screenshot: Registerkarte

    4. Überprüfen Sie unter Zusammenfassung die Einstellungen, und wählen Sie Fertig stellen aus. Zusammen mit den Hosts werden auch zugeordnete VMs hinzugefügt.

      Screenshot der Registerkarte

Überprüfen der status des ESXi-Hosts

  1. Wenn der ESXi-Host status als OK (eingeschränkt) angezeigt wird, klicken Sie mit der rechten Maustaste auf Eigenschaftenverwaltung>, wählen Sie Als Konto ausführen aus, das für den Port verwendet wird, und importieren Sie die Zertifikate für den Host.
    Wiederholen Sie den gleichen Prozess für alle ESXi-Hosts. Screenshot der Registerkarte Nachdem Sie die ESXi-Cluster hinzugefügt haben, werden alle virtuellen Computer, die auf den ESXi-Clustern ausgeführt werden, automatisch in VMM ermittelt.

Anzeigen von VMs

  1. Wechseln Sie zu VMs und Dienste , um die virtuellen Computer anzuzeigen. Sie können auch die primären Lebenszyklusvorgänge dieser virtuellen Computer über VMM verwalten.
    Screenshot: ESXi-Hosts.

  2. Klicken Sie mit der rechten Maustaste auf den virtuellen Computer, und wählen Sie Ausschalten aus (Onlinemigrationen werden nicht unterstützt), die migriert werden müssen, und deinstallieren Sie VMware-Tools vom Gastbetriebssystem.

  3. Wählen Sie Start>Erstellen Virtual Machines>Virtuellen Computer umstellen aus.

  4. Im Assistenten zum Konvertieren virtueller Computer

    1. Wählen Sie unter Quelle auswählen den virtuellen Computer aus, der auf dem ESXi-Server ausgeführt wird, und wählen Sie Weiter aus. Screenshot: Option
    2. Geben Sie unter Identität des virtuellen Computers angeben den neuen Namen für den virtuellen Computer ein, wenn Sie möchten, und wählen Sie Weiter aus.
      Screenshot: Option
  5. Wählen Sie unter Host auswählen den Azure Stack HCI-Zielknoten aus, geben Sie den Speicherort auf dem Host für VM-Speicherdateien an, und wählen Sie Weiter aus.

    Screenshot: Option

  6. Wählen Sie ein virtuelles Netzwerk für den virtuellen Computer und dann Erstellen aus, um die Migration abzuschließen.
    Der virtuelle Computer, der im ESXi-Cluster ausgeführt wird, wurde erfolgreich zum Azure Stack HCI-Cluster migriert. Verwenden Sie zur Automatisierung PowerShell-Befehle für die Konvertierung.

Nächste Schritte