Bereitstellen und Verwalten von Azure Stack HCI-Clustern in VMM
Dieser Artikel stellt Informationen darüber bereit, wie Sie einen Azure Stack HCI-Cluster in System Center Virtual Machine Manager (VMM) einrichten. Sie können einen Azure Stack HCI-Cluster durch Bereitstellung von Bare-Metal-Servern oder das Hinzufügen vorhandener Hosts bereitstellen. Erfahren Sie mehr über das neue Azure Stack HCI.
VMM 2022 unterstützt Azure Stack HCI, Version 20H2; Azure Stack HCI, Version 21H2; und Azure Stack HCI, Version 22H2 (unterstützt ab VMM 2022 UR1).
VMM 2019 UR3 (Update Rollup 3) unterstützt Azure Stack HCI Version 20H2. Das aktuelle Produkt ist Azure Stack HCI Version 21H2.
Wichtig
Azure Stack HCI-Cluster, die von Virtual Machine Manager verwaltet werden, dürfen noch nicht dem Vorschaukanal beitreten. System Center (einschließlich Virtual Machine Manager, Operations Manager und anderer Komponenten) unterstützt derzeit keine Azure Stack-Vorschauversionen. Die neuesten Updates finden Sie im System Center-Blog.
Vor der Installation
Stellen Sie sicher, dass Sie VMM 2019 UR3 oder höher verwenden.
Was wird unterstützt?
Hinzufügen, Erstellen und Verwalten von Azure Stack HCI-Clustern. Siehe detaillierte Schritte zum Erstellen und Verwalten von HCI-Clustern.
Fähigkeit zum Bereitstellen und Bereitstellen von VMs auf den Azure Stack HCI-Clustern und zum Durchführen von VM- Lebenszyklusvorgängen. VMs können mithilfe von VHD(x)-Dateien, Vorlagen oder von einer vorhandenen VM bereitgestellt werden. Weitere Informationen
Einrichten eines VLAN-basierten Netzwerks auf Azure Stack HCI-Clustern.
Bereitstellen und Verwalten von SDN Netzwerkcontrollern auf Azure Stack HCI-Clustern.
Verwalten von Speicherpool-Einstellungen, Erstellen von virtuellen Datenträgern, Erstellen von freigegebenen Cluster-Volumes (CSVs) und Anwenden von QoS-Einstellungen.
Das Verschieben von VMs zwischen Windows Server und Azure Stack HCI-Clustern funktioniert über Netzwerkmigration und die Migration einer offline (heruntergefahrenen) VM. In diesem Szenario exportiert und importiert der VMM hinter den Kulissen, auch wenn es sich um einen einzigen Vorgang handelt.
Die PowerShell-Cmdlets, die zum Verwalten von Windows Server-Clustern verwendet werden, können auch zum Verwalten von Azure Stack HCI-Clustern verwendet werden.
Stellen Sie sicher, dass Sie VMM 2022 UR1 oder höher ausführen.
Was wird unterstützt?
Hinzufügen, Erstellen und Verwalten von Azure Stack HCI-Clustern. Siehe detaillierte Schritte zum Erstellen und Verwalten von HCI-Clustern.
Fähigkeit zum Bereitstellen und Bereitstellen von VMs auf den Azure Stack HCI-Clustern und zum Durchführen von VM- Lebenszyklusvorgängen. VMs können mithilfe von VHD(x)-Dateien, Vorlagen oder von einer vorhandenen VM bereitgestellt werden. Weitere Informationen
Einrichten eines VLAN-basierten Netzwerks auf Azure Stack HCI-Clustern.
Bereitstellen und Verwalten von SDN Netzwerkcontrollern auf Azure Stack HCI-Clustern.
Verwalten von Speicherpool-Einstellungen, Erstellen von virtuellen Datenträgern, Erstellen von freigegebenen Cluster-Volumes (CSVs) und Anwenden von QoS-Einstellungen.
Das Verschieben von VMs zwischen Windows Server und Azure Stack HCI-Clustern funktioniert über Netzwerkmigration und die Migration einer offline (heruntergefahrenen) VM. In diesem Szenario exportiert und importiert der VMM hinter den Kulissen, auch wenn es sich um einen einzigen Vorgang handelt.
Die PowerShell-Cmdlets, die zum Verwalten von Windows Server-Clustern verwendet werden, können auch zum Verwalten von Azure Stack HCI-Clustern verwendet werden.
Registrieren und Aufheben der Registrierung von Azure Stack HCI-Clustern
Mit VMM 2022 führen wir VMM PowerShell-Cmdlets ein, um sich bei Azure Stack HCI-Clustern zu registrieren und die Registrierung aufzuheben.
Mit den folgenden Cmdlets können Sie einen HCI-Cluster registrieren:
Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>
Mit dem folgenden Befehl können Sie die Registrierung eines Clusters aufheben:
Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>
Detaillierte Informationen zu den unterstützten Parametern finden Sie unter Register-SCAzStackHCI und Unregister-SCAzStackHCI.
Was wird nicht unterstützt?
Die Verwaltung von Azure Stack HCI-Stretched Clustern wird derzeit in VMM nicht unterstützt.
Azure Stack HCI ist als Virtualisierungshost ausgelegt, auf dem Sie alle Workloads auf VMs ausführen. Sie können gemäß den Azure Stack HCI-Nutzungsbedingungen nur die Vorgänge durchführen, die für das Hosten der VMs erforderlich sind. Azure Stack HCI-Cluster sollten nicht für andere Zwecke wie WSUS-Server, WDS-Server oder Bibliotheksserver verwendet werden. Siehe Anwendungsfälle für Azure Stack HCI, Wann sollte Azure Stack HCI verwendet werden und Rollen, die ohne Virtualisierung ausgeführt werden können.
Die Live-Migration zwischen einer beliebigen Version von Windows Server und Azure Stack HCI-Clustern wird nicht unterstützt.
Hinweis
Die Live-Migration zwischen Azure Stack HCI-Clustern funktioniert ebenso wie die zwischen Windows Server-Clustern.
- Der einzige für Azure Stack HCI verfügbare Speichertyp ist Direkte Speicherplätze (S2D). Die Erstellung oder Verwaltung von Nicht-S2D-Clustern mit Azure Stack HCI-Knoten wird nicht unterstützt. Wenn Sie einen anderen Speichertyp, z. B. SANs, verwenden müssen, verwenden Sie Windows Server als Virtualisierungshost.
Hinweis
Sie müssen S2D aktivieren, wenn Sie einen Azure Stack HCI-Cluster erstellen. Um S2D zu aktivieren, gehen Sie im Assistenten zum Erstellen von Clustern zu Allgemeine Konfiguration. Wählen Sie unter Bestimmen von Clusternamen und Hostgruppe die Option Direkte Speicherplätze aktivieren, wie unten dargestellt:
Nachdem Sie einen Cluster mit S2D aktiviert haben, geht der VMM wie folgt vor:
- Die Funktion „Failover Clustering“ ist aktiviert.
- Speicherreplikat und Datendeduplizierung werden aktiviert.
- Der Cluster wird optional validiert und erstellt.
- S2D ist aktiviert, und es wird in VMM ein Speicherarrayobjekt mit dem Namen erstellt, den Sie im Assistenten angegeben haben.
Wenn Sie VMM zum Erstellen eines hyperkonvergenten Clusters verwenden, werden der Pool und die Speicherebenen automatisch durch Ausführen von Enable-ClusterStorageSpacesDirect -Autoconfig $True
erstellt.
Nachdem diese Voraussetzungen erfüllt sind, stellen Sie einen Cluster bereit und richten Speicherressourcen darauf ein. Sie können dann VMs auf dem Cluster bereitstellen.
Führen Sie folgende Schritte aus:
Schritt 1: Bereitstellen des Clusters
Sie können einen Cluster mit Hyper-V-Hosts und Bare-Metal-Geräten bereitstellen:
Bereitstellen eines Clusters aus Hyper-V-Hosts
Wenn Sie die Azure Stack HCI-Hosts zur VMM-Fabric hinzufügen müssen, führen Sie die folgenden Schritte aus. Wenn sie sich bereits im VMM-Fabric befinden, fahren Sie mit dem nächsten Schritt fort.
Hinweis
- Wenn Sie den Cluster einrichten, wählen Sie die Option Direkte Speicherplätze aktivieren auf der Seite Allgemeine Konfiguration des Assistenten Hyper-V Cluster erstellen.
- Wählen Sie unter Ressourcentyp die Option Vorhandene Server mit einem Windows Server-Betriebssystem und wählen Sie die Hyper-V-Hosts aus, die dem Cluster hinzugefügt werden sollen.
- Auf allen ausgewählten Hosts muss Azure Stack HCI installiert sein.
- Da S2D aktiviert ist, muss der Cluster validiert werden.
Bereitstellen eines Clusters aus Bare-Metal-Geräten
Hinweis
Normalerweise erfordert der S2D-Knoten RDMA‑, QoS‑ und SET-Einstellungen. Um diese Einstellungen für einen Knoten mit Bare-Metal-Computern zu konfigurieren, können Sie die Post-Deployment-Skriptfunktion in PCP verwenden. Hier ist das Beispiel für ein PCP-Skript nach der Bereitstellung. Sie können dieses Skript auch verwenden, um RDMA, QoS und SET zu konfigurieren, während Sie einen neuen Knoten zu einer bestehenden S2D-Bereitstellung von Bare-Metal-Computern hinzufügen.
- Lesen Sie die Voraussetzungen für die Bereitstellung von Bare-Metal-Clustern.
Hinweis
- Die generalisierte VHD oder VHDX in der VMM-Bibliothek sollte Azure Stack HCI mit den neuesten Updates ausführen. Die Werte der Betriebssystem - und Virtualisierungsplattform für die Festplatte sollten festgelegt werden.
- Für die Bare-Metal-Bereitstellung müssen Sie dem VMM-Fabric einen PXE-Server (Pre-Boot Execution Environment) hinzufügen. Der PXE-Server wird über Windows-Bereitstellungsdienste bereitgestellt. VMM verwendet sein eigenes WinPE-Image, und Sie müssen sicherstellen, dass es auf dem neuesten Stand ist. Wählen Sie dazu Fabric>Infrastruktur>Update WinPE image und stellen Sie sicher, dass der Auftrag beendet wird.
- Befolgen Sie die Anweisungen zum Bereitstellen eines Clusters von Bare-Metal-Computern.
Schritt 2: Einrichten des Netzwerks für den Cluster
Nachdem der Cluster im VMM-Fabric bereitgestellt und verwaltet wurde, müssen Sie ein Netzwerk für Clusterknoten einrichten.
- Beginnen Sie mit Erstellen eines logischen Netzwerkes, um Ihr physisches Verwaltungsnetzwerk zu spiegeln.
- Sie müssen einen logischen Switch mit aktiviertem Switch Embedded Teaming (SET) einrichten, damit der Switch die Virtualisierung wahrnimmt. Dieser Switch ist mit dem logischen Verwaltungsnetzwerk verbunden und verfügt über alle virtuellen Hostadapter, die erforderlich sind, um den Zugang zum Verwaltungsnetzwerk bereitzustellen oder das Speichernetzwerk zu konfigurieren. S2D stützt sich auf ein Netzwerk zur Kommunikation zwischen Hosts. RDMA-fähige Adapter werden empfohlen.
- Erstellen von VM-Netzwerken.
Schritt 3: Konfigurieren von DCB-Einstellungen auf dem Azure Stack HCI-Cluster
Hinweis
Die Konfiguration der DCB-Einstellungen ist ein optionaler Schritt, um eine hohe Leistung während des Workflows zur Erstellung von S2D-Clustern zu erreichen. Fahren Sie mit Schritt 4 fort, wenn Sie die DCB-Einstellungen nicht konfigurieren möchten.
Empfehlungen
Wenn Sie vNICs bereitgestellt haben, empfehlen wir Ihnen, für eine optimale Leistung alle Ihre vNICs den entsprechenden pNICs zuzuordnen. Affinitäten zwischen vNIC und pNIC werden vom Betriebssystem zufällig festgelegt, und es kann Szenarien geben, in denen mehrere vNICs demselben pNIC zugeordnet sind. Um solche Szenarien zu vermeiden, empfehlen wir Ihnen, die Affinität zwischen vNIC und pNIC manuell festzulegen, indem Sie die hier aufgeführten Schritte ausführen.
Wenn Sie ein Netzwerkadapterportprofil erstellen, empfehlen wir, IEEE-Priorität zu erlauben. Weitere Informationen
Sie können die IEEE-Priorität auch mit den folgenden PowerShell-Befehlen festlegen:
Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
Nutzen Sie die folgenden Schritte, um die DCB-Einstellungen zu konfigurieren:
Erstellen Sie einen neuen Hyper-V-Cluster, wählen Sie Aktivieren Sie Direkte Speicherplätze. Die Option DCB-Konfiguration wird dem Workflow zur Erstellung von Hyper-V-Clustern hinzugefügt.
Wählen Sie in der DCB-Konfiguration Folgendes aus: Data Center Bridging konfigurieren aus.
Stellen Sie Prioritäts‑ und Bandbreiten-Werte für SMB-Direct- und Cluster-Taktdatenverkehr bereit.
Hinweis
Standardwerte werden für Priorität und Bandbreite zugewiesen. Passen Sie diese Werte an die Umgebungsanforderungen Ihrer Organisation an.
Standardwerte:
Datenverkehrsklasse | Priorität | Bandbreite (%) |
---|---|---|
Clustertakt | 7 | 1 |
SMB-Direct | 3 | 50 |
Wählen Sie die Netzwerkadapter aus, die für den Speicherdatenverkehr verwendet werden. RDMA ist auf diesen Netzwerkadaptern aktiviert.
Hinweis
Wählen Sie in einem konvergenten NIC-Szenario die Speicher-vNICs aus. Die zugrunde liegenden pNICs müssen RDMA-fähig sein, damit vNICs angezeigt und zur Auswahl verfügbar sind.
Überprüfen Sie die Zusammenfassung, und wählen Sie Fertig stellen aus.
Es wird ein Azure Stack HCI-Cluster erstellt und die DCB-Parameter werden auf allen S2D-Knoten konfiguriert.
Hinweis
- DCB-Einstellungen können auf den vorhandenen Hyper-V S2D-Clustern konfiguriert werden, indem Sie die Seite Cluster-Eigenschaften besuchen und zur Seite DCB-Konfiguration navigieren.
- Jede Out-of-Band-Änderung der DCB-Einstellungen auf einem der Knoten führt dazu, dass der S2D-Cluster im VMM nicht konform ist. Auf der Seite DCB-Konfiguration der Eigenschaften des Clusters wird eine Option Remediate bereitgestellt, mit der Sie die im VMM konfigurierten DCB-Einstellungen auf den Cluster-Knoten erzwingen können.
Schritt 4: Registrieren des Azure Stack HCI-Clusters bei Azure
Nach der Erstellung eines Azure Stack HCI-Clusters muss dieser innerhalb von 30 Tagen nach der Installation gemäß den Begriffen des Azure Online Service bei Azure registriert werden. Wenn Sie System Center 2022 verwenden, verwenden Sie das Cmdlet Register-SCAzStackHCI
in VMM, um sich den Azure Stack HCI-Cluster bei Azure zu registrieren. Führen Sie alternativ diese Schritte aus, um den Azure Stack HCI-Cluster bei Azure zu registrieren.
Der Registrierungsstatus wird nach einer erfolgreichen Aktualisierung des Clusters im VMM angezeigt.
Schritt 5: Anzeigen des Registrierungsstatus von Azure Stack HCI-Clustern
In der VMM-Konsole können Sie den Registrierungsstatus und das Datum der letzten Verbindung von Azure Stack HCI-Clustern anzeigen.
Wählen Sie Fabric, klicken Sie mit der rechten Maustaste auf den Azure Stack HCI-Cluster, und wählen Sie Eigenschaften.
Alternativ dazu können Sie
Get-SCVMHost
ausführen und die Eigenschaften des zurückgegebenen Objekts beachten, um den Registrierungsstatus zu überprüfen.
Schritt 6: Verwalten des Pools und Erstellen von CSVs
Sie können nun die Einstellungen des Speicherpools ändern und virtuelle Datenträger und CSVs erstellen.
Klicken Sie auf Fabric>Speicher>Arrays.
Klicken Sie mit der rechten Maustaste auf den Cluster >Pool verwalten, und wählen Sie den standardmäßig erstellten Speicherpool aus. Sie können den Standardnamen ändern und eine Klassifizierung hinzufügen.
Klicken Sie zum Erstellen eines CSV mit der rechten Maustaste auf den Cluster und dann auf >Eigenschaften>Freigegebene Volumes.
Geben Sie im Assistenten zum Erstellen von Volumes>Speichertyp den Volume-Namen an und wählen Sie den Speicherpool aus.
Unter Kapazität können Sie die Einstellungen für Volume-Größe, Dateisystem und Resilienz (Tolerierte Anzahl von Fehlern) festlegen. Wählen Sie Erweiterte Speicher- und Ebenenoptionen konfigurieren aus, um diese Optionen einzurichten.
In den Speichereinstellungen können Sie die Speicherebene teilen, Kapazität und Resilienz angeben.
Überprüfen Sie unter Zusammenfassung die Einstellungen und beenden Sie den Assistenten. Beim Erstellen des Volumes wird automatisch ein virtueller Datenträger erstellt.
Schritt 7: Bereitstellung von VMs auf dem Cluster
In einer hyperkonvergenten Topologie können VMs direkt auf dem Cluster bereitgestellt werden. Ihre virtuellen Festplatten werden auf den Volumes platziert, die Sie mit S2D erstellt haben. Sie erstellen und stellen diese VMs bereit genauso wie jede andere VM.
Wichtig
Wenn der Azure Stack HCI-Cluster nicht bei Azure registriert ist oder länger als 30 Tage nach der Registrierung nicht mit Azure verbunden ist, wird die Erstellung einer virtuellen Hochverfügbarkeitsmaschine (HAVM) auf dem Cluster blockiert. Siehe Schritt 4 und 5 für die Cluster-Registrierung.
Schritt 8: VMs von Windows Server auf Azure Stack HCI-Cluster migrieren
Verwenden Sie die Netzwerkmigrationsfunktion in VMM, um Workloads von Hyper-V (Windows Server 2019 und höher) zu Azure Stack HCI zu migrieren.
Hinweis
Die Live-Migration zwischen Windows Server und Azure Stack HCI wird nicht unterstützt. Die Netzwerkmigration von Azure Stack HCI auf Windows Server wird nicht unterstützt.
- Deaktivieren Sie vorübergehend die Live-Migration auf dem Ziel Azure-Stack HCI-Host.
- Wählen Sie VMs und Dienste>für alle Hosts aus, und wählen Sie dann den Hyper-V-Quellhost aus, von dem Sie migrieren möchten.
- Wählen Sie die VM aus, die Sie migrieren möchten. Die VM muss sich in einem ausgeschalteten Zustand befinden.
- Wählen Sie "Virtueller Computer migrieren" aus.
- Überprüfen Sie in "Host auswählen" den Azure Stack HCI-Zielhost, und wählen Sie es aus.
- Wählen Sie "Weiter" aus, um die Netzwerkmigration zu initiieren. VMM führt Importe und Exporte am Back-End durch.
- Um zu überprüfen, ob die virtuelle Maschine erfolgreich migriert wurde, überprüfen Sie die Liste der VMs auf dem Zielhost. Schalten Sie die VM ein und aktivieren Sie die Live-Migration auf dem Azure Stack HCI-Host erneut.
Schritt 9: Migrieren von VMware-Workloads auf Azure Stack HCI-Cluster mit SCVMM
VMM bietet eine einfache, assistentengestützte Erfahrung für die V2V-Konvertierung (Virtual to Virtual). Mit dem Konvertierungstool können Sie Workloads in großem Umfang von einer VMware-Infrastruktur auf eine Hyper-V-Infrastruktur migrieren. Eine Liste der unterstützten VMware-Server finden Sie unter Systemanforderungen.
Voraussetzungen und Einschränkungen für die Konvertierung finden Sie unter Konvertieren einer VMware-VM nach Hyper-V in der VMM-Fabric.
Erstellen Sie ein Runs as-Konto für die Rolle vCenter Server Administrierende im VMM. Diese Administratoranmeldeinformationen werden für die Verwaltung von vCenter-Server und ESXi-Hosts verwendet.
Wählen Sie in der VMM-Konsole unter Fabric die Option Server>VMware vCenter Server hinzufügen.
Gehen Sie auf der Seite VMware vCenter Server hinzufügen wie folgt vor:
Computername: Geben Sie den Namen des vCenter-Servers an.
Ausführendes Konto: Das für den vSphere-Administrierenden erstellte ausführende Konto auswählen.
Wählen Sie Fertig stellen aus.
Wählen Sie auf der Seite Zertifikat importieren die Option Importieren.
Nach dem erfolgreichen Hinzufügen des vCenter-Servers werden alle ESXi-Hosts unter dem vCenter zum VMM migriert.
Hosts hinzufügen
- Wählen Sie in der VMM-Konsole unter Fabric die Option Server>VMware ESX Hosts und Cluster hinzufügen.
- Im Assistenten zum Hinzufügen von Ressourcen,
Wählen Sie unter Anmeldeinformationen das „Ausführen als“-Konto, das für den Port verwendet wird, und wählen Sie Weiter.
Wählen Sie unter Zielressourcen alle ESX-Cluster aus, die dem VMM hinzugefügt werden müssen, und wählen Sie Weiter.
Wählen Sie unter Host-Einstellungen den Standort, an dem Sie die VMs hinzufügen möchten, und wählen Sie Weiter.
Überprüfen Sie unter Zusammenfassung die Einstellungen und wählen Sie Beenden. Zusammen mit den Hosts werden auch die zugehörigen VMs hinzugefügt.
Überprüfen Sie den Status des ESXi-Hosts
Wenn der ESXi-Hoststatus als OK (Limitiert) angezeigt wird, klicken Sie mit der rechten Maustaste auf Eigenschaften>Verwaltung, wählen Sie „Ausführen als“-Konto, das für den Port verwendet wird, und importieren Sie die Zertifikate für den Host.
Wiederholen Sie den gleichen Vorgang für alle ESXi-Hosts.
Nachdem Sie die ESXi-Cluster hinzugefügt haben, werden alle virtuellen Computer, die auf den ESXi-Clustern ausgeführt werden, automatisch in VMM ermittelt.
VMs anzeigen
Gehen Sie zu VMs und Dienste, um die virtuellen Computer anzuzeigen. Sie können die primären Lebenszyklusvorgänge dieser virtuellen Computer auch vom VMM aus verwalten.
Klicken Sie mit der rechten Maustaste auf die zu migrierende VM und wählen Sie Ausschalten (Online-Migrationen werden nicht unterstützt) und deinstallieren Sie die VMware-Tools vom Gastbetriebssystem.
Wählen Sie Home>Erstellen virtueller Computer>Konvertieren virtueller Computer.
Im Assistenten zum Konvertieren virtueller Computer,
- Wählen Sie unter Auswählen der Quelle die VM, die auf dem ESXi-Server läuft, und wählen Sie Weiter.
- Geben Sie unter Spezifizieren der Identität des virtuellen Computers den neuen Namen für das virtuelle Gerät ein, wenn Sie dies wünschen, und wählen Sie Weiter.
Wählen Sie unter Host auswählen den Ziel-Azure-Stack-HCI-Knoten aus und geben Sie den Standort auf dem Host für VM-Speicherdateien an und wählen Sie Weiter.
Wählen Sie ein virtuelles Netzwerk für das virtuelle Gerät und wählen Sie Erstellen, um die Migration abzuschließen.
Das virtuelle Gerät, das auf dem ESXi-Cluster ausgeführt wird, wurde erfolgreich zum Azure Stack HCI-Cluster migriert. Zur Automatisierung verwenden Sie PowerShell-Befehle für die Konvertierung.