Freigeben über


Bereitstellen und Verwalten von Azure Stack HCI-Clustern in VMM

Dieser Artikel stellt Informationen darüber bereit, wie Sie einen Azure Stack HCI-Cluster in System Center Virtual Machine Manager (VMM) einrichten. Sie können einen Azure Stack HCI-Cluster durch Bereitstellung von Bare-Metal-Servern oder das Hinzufügen vorhandener Hosts bereitstellen. Erfahren Sie mehr über das neue Azure Stack HCI.

VMM 2022 unterstützt Azure Stack HCI, Version 20H2; Azure Stack HCI, Version 21H2; und Azure Stack HCI, Version 22H2 (unterstützt ab VMM 2022 UR1).

VMM 2019 UR3 (Update Rollup 3) unterstützt Azure Stack HCI Version 20H2. Das aktuelle Produkt ist Azure Stack HCI Version 21H2.

Wichtig

Azure Stack HCI-Cluster, die von Virtual Machine Manager verwaltet werden, dürfen noch nicht dem Vorschaukanal beitreten. System Center (einschließlich Virtual Machine Manager, Operations Manager und anderer Komponenten) unterstützt derzeit keine Azure Stack-Vorschauversionen. Die neuesten Updates finden Sie im System Center-Blog.

Vor der Installation

Stellen Sie sicher, dass Sie VMM 2019 UR3 oder höher verwenden.

Was wird unterstützt?

  • Hinzufügen, Erstellen und Verwalten von Azure Stack HCI-Clustern. Siehe detaillierte Schritte zum Erstellen und Verwalten von HCI-Clustern.

  • Fähigkeit zum Bereitstellen und Bereitstellen von VMs auf den Azure Stack HCI-Clustern und zum Durchführen von VM- Lebenszyklusvorgängen. VMs können mithilfe von VHD(x)-Dateien, Vorlagen oder von einer vorhandenen VM bereitgestellt werden. Weitere Informationen

  • Einrichten eines VLAN-basierten Netzwerks auf Azure Stack HCI-Clustern.

  • Bereitstellen und Verwalten von SDN Netzwerkcontrollern auf Azure Stack HCI-Clustern.

  • Verwalten von Speicherpool-Einstellungen, Erstellen von virtuellen Datenträgern, Erstellen von freigegebenen Cluster-Volumes (CSVs) und Anwenden von QoS-Einstellungen.

  • Das Verschieben von VMs zwischen Windows Server und Azure Stack HCI-Clustern funktioniert über Netzwerkmigration und die Migration einer offline (heruntergefahrenen) VM. In diesem Szenario exportiert und importiert der VMM hinter den Kulissen, auch wenn es sich um einen einzigen Vorgang handelt.

  • Die PowerShell-Cmdlets, die zum Verwalten von Windows Server-Clustern verwendet werden, können auch zum Verwalten von Azure Stack HCI-Clustern verwendet werden.

Registrieren und Aufheben der Registrierung von Azure Stack HCI-Clustern

Mit VMM 2022 führen wir VMM PowerShell-Cmdlets ein, um sich bei Azure Stack HCI-Clustern zu registrieren und die Registrierung aufzuheben.

Mit den folgenden Cmdlets können Sie einen HCI-Cluster registrieren:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Mit dem folgenden Befehl können Sie die Registrierung eines Clusters aufheben:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Detaillierte Informationen zu den unterstützten Parametern finden Sie unter Register-SCAzStackHCI und Unregister-SCAzStackHCI.

Was wird nicht unterstützt?

Hinweis

Die Live-Migration zwischen Azure Stack HCI-Clustern funktioniert ebenso wie die zwischen Windows Server-Clustern.

  • Der einzige für Azure Stack HCI verfügbare Speichertyp ist Direkte Speicherplätze (S2D). Die Erstellung oder Verwaltung von Nicht-S2D-Clustern mit Azure Stack HCI-Knoten wird nicht unterstützt. Wenn Sie einen anderen Speichertyp, z. B. SANs, verwenden müssen, verwenden Sie Windows Server als Virtualisierungshost.

Hinweis

Sie müssen S2D aktivieren, wenn Sie einen Azure Stack HCI-Cluster erstellen. Um S2D zu aktivieren, gehen Sie im Assistenten zum Erstellen von Clustern zu Allgemeine Konfiguration. Wählen Sie unter Bestimmen von Clusternamen und Hostgruppe die Option Direkte Speicherplätze aktivieren, wie unten dargestellt:

Screenshot der aktivierten S2D.

Nachdem Sie einen Cluster mit S2D aktiviert haben, geht der VMM wie folgt vor:

  • Die Funktion „Failover Clustering“ ist aktiviert.
  • Speicherreplikat und Datendeduplizierung werden aktiviert.
  • Der Cluster wird optional validiert und erstellt.
  • S2D ist aktiviert, und es wird in VMM ein Speicherarrayobjekt mit dem Namen erstellt, den Sie im Assistenten angegeben haben.

Wenn Sie VMM zum Erstellen eines hyperkonvergenten Clusters verwenden, werden der Pool und die Speicherebenen automatisch durch Ausführen von Enable-ClusterStorageSpacesDirect -Autoconfig $True erstellt.

Nachdem diese Voraussetzungen erfüllt sind, stellen Sie einen Cluster bereit und richten Speicherressourcen darauf ein. Sie können dann VMs auf dem Cluster bereitstellen.

Führen Sie folgende Schritte aus:

Schritt 1: Bereitstellen des Clusters

Sie können einen Cluster mit Hyper-V-Hosts und Bare-Metal-Geräten bereitstellen:

Bereitstellen eines Clusters aus Hyper-V-Hosts

Wenn Sie die Azure Stack HCI-Hosts zur VMM-Fabric hinzufügen müssen, führen Sie die folgenden Schritte aus. Wenn sie sich bereits im VMM-Fabric befinden, fahren Sie mit dem nächsten Schritt fort.

Hinweis

  • Wenn Sie den Cluster einrichten, wählen Sie die Option Direkte Speicherplätze aktivieren auf der Seite Allgemeine Konfiguration des Assistenten Hyper-V Cluster erstellen.
  • Wählen Sie unter Ressourcentyp die Option Vorhandene Server mit einem Windows Server-Betriebssystem und wählen Sie die Hyper-V-Hosts aus, die dem Cluster hinzugefügt werden sollen.
  • Auf allen ausgewählten Hosts muss Azure Stack HCI installiert sein.
  • Da S2D aktiviert ist, muss der Cluster validiert werden.

Bereitstellen eines Clusters aus Bare-Metal-Geräten

Hinweis

In der Regel sind für den S2D-Knoten RDMA-, QoS- und SET-Einstellungen erforderlich. Um diese Einstellungen für einen Knoten mit Bare-Metal-Computern zu konfigurieren, können Sie die Post-Deployment-Skriptfunktion in PCP verwenden. Hier ist das Beispiel für ein PCP-Skript nach der Bereitstellung. Sie können dieses Skript auch verwenden, um RDMA, QoS und SET zu konfigurieren, während Sie einen neuen Knoten zu einer bestehenden S2D-Bereitstellung von Bare-Metal-Computern hinzufügen.

  1. Lesen Sie die Voraussetzungen für die Bereitstellung von Bare-Metal-Clustern.

Hinweis

  • Auf der generalisierten VHD oder VHDX in der VMM-Bibliothek muss Azure Stack HCI mit den neuesten Updates ausgeführt werden. Es müssen die Werte Betriebssystem und Virtualisierungsplattform für den Datenträger festgelegt werden.
  • Für die Bare-Metal-Bereitstellung müssen Sie der VMM Fabric einen PXE-Server (Pre-Boot Execution Environment) hinzufügen. Der PXE-Server wird über Windows-Bereitstellungsdienste bereitgestellt. VMM verwendet sein eigenes WinPE-Image, und Sie müssen sicherstellen, dass es auf dem neuesten Stand ist. Wählen Sie dazu Fabric>Infrastruktur>Update WinPE image und stellen Sie sicher, dass der Auftrag beendet wird.
  1. Folgen Sie den Anweisungen zur Bereitstellen eines Clusters aus Bare-Metal-Computern.

Schritt 2: Einrichten des Netzwerks für den Cluster

Nachdem der Cluster in VMM Fabric bereitgestellt und verwaltet wurde, müssen Sie das Netzwerk für die Clusterknoten einrichten.

  1. Starten Sie mit der Erstellen eines logischen Netzwerks, das Ihr physisches Verwaltungsnetzwerk widerspiegelt.
  2. Sie müssen einen logischen Switch mit aktiviertem Switch Embedded Teaming (SET) einrichten, damit der Switch die Virtualisierung wahrnimmt. Dieser Switch ist mit dem logischen Verwaltungsnetzwerk verbunden und verfügt über alle virtuellen Hostadapter, die erforderlich sind, um den Zugang zum Verwaltungsnetzwerk bereitzustellen oder das Speichernetzwerk zu konfigurieren. S2D stützt sich auf ein Netzwerk zur Kommunikation zwischen Hosts. RDMA-fähige Adapter werden empfohlen.
  3. Erstellen von VM-Netzwerken.

Schritt 3: Konfigurieren von DCB-Einstellungen auf dem Azure Stack HCI-Cluster

Hinweis

Die Konfiguration der DCB-Einstellungen ist ein optionaler Schritt, um eine hohe Leistung während des Workflows zur Erstellung von S2D-Clustern zu erreichen. Fahren Sie mit Schritt 4 fort, wenn Sie die DCB-Einstellungen nicht konfigurieren möchten.

Empfehlungen

  • Wenn Sie vNICs bereitgestellt haben, empfehlen wir Ihnen für eine optimale Leistung, alle Ihre vNICs den entsprechenden pNICs zuzuordnen. Affinitäten zwischen vNIC und pNIC werden vom Betriebssystem nach dem Zufallsprinzip festgelegt, und es kann Szenarien geben, in denen mehrere vNICs derselben pNIC zugeordnet sind. Um solche Szenarien zu vermeiden, empfehlen wir Ihnen, die Affinität zwischen vNIC und pNIC manuell festzulegen, indem Sie die hier aufgeführten Schritte ausführen.

  • Wenn Sie ein Port-Profil für einen Netzwerkadapter erstellen, empfehlen wir Ihnen, die IEEE-Priorität zuzulassen. Weitere Informationen

    Sie können die IEEE-Priorität auch mit den folgenden PowerShell-Befehlen festlegen:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Nutzen Sie die folgenden Schritte, um die DCB-Einstellungen zu konfigurieren:

  1. Erstellen Sie einen neuen Hyper-V-Cluster, wählen Sie Aktivieren Sie Direkte Speicherplätze. Die Option DCB-Konfiguration wird dem Workflow zur Erstellung von Hyper-V-Clustern hinzugefügt.

    Screenshot des Hyper-V-Clusters.

  2. Wählen Sie unter DCB-Konfiguration die Option Data Center Bridging konfigurieren.

  3. Stellen Sie Priorität und Bandbreite Werte für SMB-Direct und Cluster-Taktdatenverkehr bereit.

Hinweis

Standardwerte werden für Priorität und Bandbreite zugewiesen. Passen Sie diese Werte an die Anforderungen der Umgebung Ihres Unternehmens an.

Screenshot der Prioritätsbandbreite.

Standardwerte:

Datenverkehrsklasse Priorität Bandbreite (%)
Clustertakt 7 1
SMB-Direkt 3 50
  1. Wählen Sie die für den Speicherdatenverkehr verwendeten Netzwerkadapter aus. RDMA ist auf diesen Netzwerkadaptern aktiviert.

    Hinweis

    In einem konvergenten NIC-Szenario wählen Sie die Storage vNICs aus. Die zugrunde liegenden pNICs müssen RDMA-fähig sein, damit vNICs angezeigt werden und zur Auswahl stehen.

    Screenshot der RMDS-Aktivierung.

  2. Überprüfen Sie die Zusammenfassung, und wählen Sie Fertig stellen aus.

    Es wird ein Azure Stack HCI-Cluster erstellt und die DCB-Parameter werden auf allen S2D-Knoten konfiguriert.

    Hinweis

    • DCB-Einstellungen können auf den vorhandenen Hyper-V S2D-Clustern konfiguriert werden, indem Sie die Seite Cluster-Eigenschaften besuchen und zur Seite DCB-Konfiguration navigieren.
    • Jede Out-of-Band-Änderung der DCB-Einstellungen auf einem der Knoten führt dazu, dass der S2D-Cluster im VMM nicht konform ist. Auf der Seite DCB-Konfiguration der Eigenschaften des Clusters wird eine Option Remediate bereitgestellt, mit der Sie die im VMM konfigurierten DCB-Einstellungen auf den Cluster-Knoten erzwingen können.

Schritt 4: Registrieren des Azure Stack HCI-Clusters bei Azure

Nach der Erstellung eines Azure Stack HCI-Clusters muss dieser innerhalb von 30 Tagen nach der Installation gemäß den Begriffen des Azure Online Service bei Azure registriert werden. Wenn Sie System Center 2022 verwenden, verwenden Sie das Cmdlet Register-SCAzStackHCI in VMM, um sich den Azure Stack HCI-Cluster bei Azure zu registrieren. Führen Sie alternativ diese Schritte aus, um den Azure Stack HCI-Cluster bei Azure zu registrieren.

Der Registrierungsstatus wird nach einer erfolgreichen Aktualisierung des Clusters im VMM angezeigt.

Schritt 5: Anzeigen des Registrierungsstatus von Azure Stack HCI-Clustern

  1. In der VMM-Konsole können Sie den Registrierungsstatus und das Datum der letzten Verbindung von Azure Stack HCI-Clustern anzeigen.

  2. Wählen Sie Fabric, klicken Sie mit der rechten Maustaste auf den Azure Stack HCI-Cluster, und wählen Sie Eigenschaften.

    Screenshot des Registrierungsstatus.

  3. Alternativ dazu können Sie Get-SCVMHost ausführen und die Eigenschaften des zurückgegebenen Objekts beachten, um den Registrierungsstatus zu überprüfen.

Schritt 6: Verwalten des Pools und Erstellen von CSVs

Sie können nun die Einstellungen des Speicherpools ändern und virtuelle Datenträger und CSVs erstellen.

  1. Klicken Sie auf Fabric>Speicher>Arrays.

  2. Klicken Sie mit der rechten Maustaste auf den Cluster >Pool verwalten, und wählen Sie den standardmäßig erstellten Speicherpool aus. Sie können den Standardnamen ändern und eine Klassifizierung hinzufügen.

  3. Klicken Sie zum Erstellen eines CSV mit der rechten Maustaste auf den Cluster und dann auf >Eigenschaften>Freigegebene Volumes.

  4. Geben Sie im Assistenten zum Erstellen von Volumes>Speichertyp den Volume-Namen an und wählen Sie den Speicherpool aus.

  5. Unter Kapazität können Sie die Einstellungen für Volume-Größe, Dateisystem und Resilienz (Tolerierte Anzahl von Fehlern) festlegen.

    Screenshot der Volumeeinstellungen.

  6. Wählen Sie Erweiterte Speicher- und Ebenen-Einstellungen konfigurieren, um diese Optionen einzurichten.

    Screenshot der Konfiguration der Speichereinstellungen.

  7. Überprüfen Sie unter Zusammenfassung die Einstellungen und beenden Sie den Assistenten. Beim Erstellen des Volumes wird automatisch ein virtueller Datenträger erstellt.

Schritt 7: Bereitstellung von VMs auf dem Cluster

In einer hyperkonvergenten Topologie können VMs direkt auf dem Cluster bereitgestellt werden. Ihre virtuellen Festplatten werden auf den Volumes platziert, die Sie mit S2D erstellt haben. Sie erstellen und stellen diese VMs bereit genauso wie jede andere VM.

Wichtig

Wenn der Azure Stack HCI-Cluster nicht bei Azure registriert ist oder länger als 30 Tage nach der Registrierung nicht mit Azure verbunden ist, wird die Erstellung einer virtuellen Hochverfügbarkeitsmaschine (HAVM) auf dem Cluster blockiert. Siehe Schritt 4 und 5 für die Cluster-Registrierung.

Schritt 8: VMs von Windows Server auf Azure Stack HCI-Cluster migrieren

Verwenden Sie die Netzwerkmigrationsfunktion in VMM, um Workloads von Hyper-V (Windows Server 2019 und höher) zu Azure Stack HCI zu migrieren.

Hinweis

Die Live-Migration zwischen Windows Server und Azure Stack HCI wird nicht unterstützt. Die Netzwerkmigration von Azure Stack HCI auf Windows Server wird nicht unterstützt.

  1. Deaktivieren Sie vorübergehend die Live-Migration auf dem Ziel Azure-Stack HCI-Host.
  2. Wählen Sie VMs und Dienste > Alle Hosts, und wählen Sie dann den Quell-Hyper-V-Host aus, von dem Sie migrieren möchten.
  3. Wählen Sie die VM aus, die Sie migrieren möchten. Die VM muss sich in einem ausgeschalteten Zustand befinden.
  4. Wählen Sie Virtuelle Maschine migrieren.
  5. Überprüfen und wählen Sie unter Host auswählen den Azure Stack HCI-Host aus.
  6. Wählen Sie Weiter, um die Netzwerkmigration zu starten. VMM führt Importe und Exporte am Back-End durch.
  7. Um zu überprüfen, ob die virtuelle Maschine erfolgreich migriert wurde, überprüfen Sie die Liste der VMs auf dem Zielhost. Schalten Sie die VM ein und aktivieren Sie die Live-Migration auf dem Azure Stack HCI-Host erneut.

Schritt 9: Migrieren von VMware-Workloads auf Azure Stack HCI-Cluster mit SCVMM

VMM bietet eine einfache, assistentengestützte Erfahrung für die V2V-Konvertierung (Virtual to Virtual). Mit dem Konvertierungstool können Sie Workloads in großem Umfang von einer VMware-Infrastruktur auf eine Hyper-V-Infrastruktur migrieren. Eine Liste der unterstützten VMware-Server finden Sie unter Systemanforderungen.

Voraussetzungen und Einschränkungen für die Konvertierung finden Sie unter Konvertieren einer VMware-VM nach Hyper-V in der VMM-Fabric.

  1. Erstellen Sie ein Runs as-Konto für die Rolle vCenter Server Administrierende im VMM. Diese Administratoranmeldeinformationen werden für die Verwaltung von vCenter-Server und ESXi-Hosts verwendet. Screenshot der Seite Run as-Konto erstellen.

  2. Wählen Sie in der VMM-Konsole unter Fabric die Option Server>VMware vCenter Server hinzufügen. Screenshot mit der Option VMware vCenter hinzufügen.

  3. Gehen Sie auf der Seite VMware vCenter Server hinzufügen wie folgt vor:

    1. Computername: Geben Sie den Namen des vCenter-Servers an.
    2. Ausführendes Konto: Das für den vSphere-Administrierenden erstellte ausführende Konto auswählen.
      Screenshot mit Serverinformationen.
  4. Wählen Sie Fertig stellenaus.

  5. Wählen Sie auf der Seite Zertifikat importieren die Option Importieren.

    Screenshot mit der Option Zertifikate importieren.

  6. Nach dem erfolgreichen Hinzufügen des vCenter-Servers werden alle ESXi-Hosts unter dem vCenter zum VMM migriert.

Hosts hinzufügen

  1. Wählen Sie in der VMM-Konsole unter Fabric die Option Server>VMware ESX Hosts und Cluster hinzufügen.
    Screenshot der Option Hosts hinzufügen.
  2. Im Assistenten zum Hinzufügen von Ressourcen,
    1. Wählen Sie unter Anmeldeinformationen das „Ausführen als“-Konto, das für den Port verwendet wird, und wählen Sie Weiter. Screenshot der Registerkarte „Anmeldeinformationen

    2. Wählen Sie unter Zielressourcen alle ESX-Cluster aus, die dem VMM hinzugefügt werden müssen, und wählen Sie Weiter. Screenshot der Registerkarte „Zielressourcen“.

    3. Wählen Sie unter Host-Einstellungen den Standort, an dem Sie die VMs hinzufügen möchten, und wählen Sie Weiter. Screenshot der Registerkarte „Hosteinstellungen“.

    4. Überprüfen Sie unter Zusammenfassung die Einstellungen und wählen Sie Beenden. Zusammen mit den Hosts werden auch die zugehörigen VMs hinzugefügt.

      Screenshot der Registerkarte „Zusammenfassung“.

Überprüfen Sie den Status des ESXi-Hosts

  1. Wenn der ESXi-Hoststatus als OK (Limitiert) angezeigt wird, klicken Sie mit der rechten Maustaste auf Eigenschaften>Verwaltung, wählen Sie „Ausführen als“-Konto, das für den Port verwendet wird, und importieren Sie die Zertifikate für den Host.
    Wiederholen Sie den gleichen Vorgang für alle ESXi-Hosts. Screenshot der Registerkarte „Verwalten“. Nachdem Sie die ESXi-Cluster hinzugefügt haben, werden alle virtuellen Computer, die auf den ESXi-Clustern laufen, automatisch im VMM erkannt.

VMs anzeigen

  1. Gehen Sie zu VMs und Dienste, um die virtuellen Computer anzuzeigen. Sie können die primären Lebenszyklusvorgänge dieser virtuellen Computer auch vom VMM aus verwalten.
    Screenshot der ESXi-Hosts.

  2. Klicken Sie mit der rechten Maustaste auf die zu migrierende VM und wählen Sie Ausschalten (Online-Migrationen werden nicht unterstützt) und deinstallieren Sie die VMware-Tools vom Gastbetriebssystem.

  3. Wählen Sie Home>Erstellen virtueller Computer>Konvertieren virtueller Computer.

  4. Im Assistenten zum Konvertieren virtueller Computer,

    1. Wählen Sie unter Auswählen der Quelle die VM, die auf dem ESXi-Server läuft, und wählen Sie Weiter. Screenshot zeigt die Option „Auswählen der Quelle“.
    2. Geben Sie unter Spezifizieren der Identität des virtuellen Computers den neuen Namen für das virtuelle Gerät ein, wenn Sie dies wünschen, und wählen Sie Weiter.
      Screenshot zeigt die Option „VM-Name“.
  5. Wählen Sie unter Host auswählen den Ziel-Azure-Stack-HCI-Knoten aus und geben Sie den Standort auf dem Host für VM-Speicherdateien an und wählen Sie Weiter.

    Screenshot zeigt die Option „Host auswählen“.

  6. Wählen Sie ein virtuelles Netzwerk für das virtuelle Gerät und wählen Sie Erstellen, um die Migration abzuschließen.
    Das virtuelle Gerät, das auf dem ESXi-Cluster ausgeführt wird, wurde erfolgreich zum Azure Stack HCI-Cluster migriert. Zur Automatisierung verwenden Sie PowerShell-Befehle für die Konvertierung.

Nächste Schritte