Teilen über


Bereitstellen und Verwalten von lokalen Azure-Instanzen in VMM

Dieser Artikel enthält Informationen zum Einrichten einer lokalen Azure-Instanz in System Center Virtual Machine Manager (VMM). Sie können eine Azure lokale Instanz bereitstellen, indem Sie von Bare-Metal-Servern vermitteln oder vorhandene Hosts hinzufügen. Erfahren Sie mehr über das neue Azure Lokal.

VMM 2022 unterstützt Azure lokal, Version 22H2 (unterstützt ab VMM 2022 UR1).

VMM 2019 Updaterollup 3 (UR3) unterstützt Azure Stack HCI, Version 20H2. Das aktuelle Produkt ist Azure Local, Version 23H2.

Wichtig

Azure-Lokale-Instanzen, die vom Virtual Machine Manager verwaltet werden, dürfen noch nicht dem „Vorschaukanal“ beitreten. System Center (einschließlich Virtual Machine Manager, Operations Manager und andere Komponenten) unterstützt derzeit keine lokalen Azure-Vorschauversionen. Für die neuesten Aktualisierungen siehe den System Center-Blog.

Vorbereitung

Stellen Sie sicher, dass Sie VMM 2019 UR3 oder später ausführen.

Was wird unterstützt?

  • Hinzufügung, Erstellung und Verwaltung von lokalen Azure-Instanzen. Siehe detaillierte Schritte, um Azure Local-Instanzen zu erstellen und zu verwalten.

  • Möglichkeit zum Bereitstellen und Implementieren von VMs auf den Azure Local-Instanzen und zum Ausführen von VM-Lebenszyklusvorgängen. VMs können unter Verwendung von VHD(x)-Dateien, Vorlagen oder von einer bestehenden VM bereitgestellt werden.  Erfahren Sie mehr

  • Einrichten des VLAN-basierten Netzwerks auf lokalen Azure-Instanzen.

  • Bereitstellung und Verwaltung von SDN-Netzwerkcontrollern auf lokalen Azure-Instanzen.

  • Verwaltung von Speicherpool-Einstellungen, Erstellung von virtuellen Datenträgern, Erstellung von freigegebenen Clustervolumes (CSVs) und Anwendung von „QoS-Einstellungen“.

  • Das Verschieben von VMs zwischen Windows Server und lokalen Azure-Instanzen erfolgt über die Netzwerkmigration und das Migrieren einer offline (heruntergefahrenen) VM. In diesem Szenario führt VMM im Hintergrund sowohl das Exportieren als auch das Importieren durch, obwohl es als eine einzige Operation ausgeführt wird.

  • Die PowerShell-Cmdlets, die zum Verwalten von Windows Server-Clustern verwendet werden, können auch zum Verwalten von lokalen Azure-Instanzen verwendet werden.

Stellen Sie sicher, dass Sie VMM 2022 UR1 oder später ausführen.

Was wird unterstützt?

  • Hinzufügung, Erstellung und Verwaltung von lokalen Azure-Instanzen. Siehe detaillierte Schritte, um Azure Local-Instanzen zu erstellen und zu verwalten.

  • Möglichkeit zum Bereitstellen und Implementieren von VMs auf den Azure Local-Instanzen und zum Ausführen von VM-Lebenszyklusvorgängen. VMs können unter Verwendung von VHD(x)-Dateien, Vorlagen oder von einer bestehenden VM bereitgestellt werden.  Erfahren Sie mehr

  • Einrichten des VLAN-basierten Netzwerks auf lokalen Azure-Instanzen.

  • Bereitstellung und Verwaltung von SDN-Netzwerkcontrollern auf lokalen Azure-Instanzen.

  • Verwaltung von Speicherpool-Einstellungen, Erstellung von virtuellen Datenträgern, Erstellung von freigegebenen Clustervolumes (CSVs) und Anwendung von „QoS-Einstellungen“.

  • Das Verschieben von VMs zwischen Windows Server und lokalen Azure-Instanzen erfolgt über die Netzwerkmigration und das Migrieren einer offline (heruntergefahrenen) VM. In diesem Szenario führt VMM im Hintergrund sowohl das Exportieren als auch das Importieren durch, obwohl es als eine einzige Operation ausgeführt wird.

  • Die PowerShell-Cmdlets, die zum Verwalten von Windows Server-Clustern verwendet werden, können auch zum Verwalten von lokalen Azure-Instanzen verwendet werden.

Registrieren und Aufheben der Registrierung lokaler Azure-Instanzen

Mit VMM 2022 führen wir VMM PowerShell-Cmdlets zum Registrieren und Aufheben der Registrierung lokaler Azure-Instanzen ein.

Verwenden Sie die folgenden Cmdlets, um eine lokale Azure-Instanz zu registrieren:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Mit dem folgenden Befehl können Sie die Registrierung eines Clusters aufheben:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Für detaillierte Informationen zu dem unterstützten Parameter, siehe Register-SCAzStackHCI und Unregister-SCAzStackHCI.

Was wird nicht unterstützt?

  • Verwaltung von Azure lokalen Stretched Clustern wird derzeit in VMM nicht unterstützt.

  • Azure-Localmaschinen sind als Virtualisierungshosts vorgesehen, auf denen Sie alle Ihre Workloads in virtuellen Maschinen betreiben. Mit den lokalen Azure-Nutzungsbedingungen können Sie nur das betreiben, was für das Hosten virtueller Maschinen erforderlich ist. Lokale Azure-Instanzen sollten nicht für andere Zwecke wie WSUS-Server, WDS-Server oder Bibliotheksserver verwendet werden. Weitere Informationen finden Sie unter Anwendungsfälle für Azure Local, Wann Azure Localverwendet werden soll, und Rollen, die Sie ausführen können, ohnezu virtualisieren.

  • Die Livemigration zwischen einer beliebigen Version von Windows Server und azure Local instances wird nicht unterstützt.

Hinweis

Die Livemigration zwischen lokalen Azure-Instanzen funktioniert ebenso wie zwischen Windows Server-Clustern.

  • Der einzige für Azure Local verfügbare Speichertyp ist "Storage Spaces Direct (S2D)". Das Erstellen oder Verwalten von Nicht-S2D-Clustern mit lokalen Azure-Computern wird nicht unterstützt. Wenn Sie einen anderen Typ von Speicher verwenden müssen, zum Beispiel SANs, verwenden Sie Windows Server als Virtualisierungshost.

Hinweis

Sie müssen S2D beim Erstellen einer lokalen Azure-Instanz aktivieren. Um S2D zu aktivieren, gehen Sie im Clustererstellungs-Assistenten zu Allgemeine Konfiguration. Unter Geben Sie den Clustername und die Hostgruppe an, aktivieren Sie Direkte Speicherplätze aktivieren, wie unten gezeigt:

Screenshot von S2D aktiviert.

Nachdem Sie einen Cluster mit S2D aktiviert haben, führt VMM Folgendes aus:

  • Die Failoverclustering-Funktion ist aktiviert.
  • Speicherreplikat und Datendeduplizierung werden aktiviert.
  • Der Cluster wird optional validiert und erstellt.
  • S2D ist aktiviert, und es wird in VMM ein Speicherarrayobjekt mit dem Namen erstellt, den Sie im Assistenten angegeben haben.

Wenn Sie VMM zum Erstellen eines hyperkonvergenten Clusters verwenden, werden der Pool und die Speicherebenen automatisch durch Ausführen von Enable-ClusterStorageSpacesDirect -Autoconfig $True erstellt.

Nachdem diese Voraussetzungen erfüllt sind, richten Sie einen Cluster ein und konfigurieren die Speicherressourcen darauf. Sie können dann VMs auf dem Cluster bereitstellen.

Führen Sie folgende Schritte aus:

Schritt 1: Bereitstellen des Clusters

Sie können einen Cluster durch Hyper-V-Hosts und Bare-Metal-Computer bereitstellen

Bereitstellen eines Clusters von Hyper-V-Hosts

Wenn Sie die Azure lokalen Computer zur VMM-Fabric hinzufügen müssen, folgen Sie diesen Schritten. Wenn sie bereits im VMM-Fabric sind, fahren Sie mit dem nächsten Schritt fort.

Hinweis

  • Wenn Sie das Cluster einrichten, aktivieren Sie die Option „Direkte Speicherplätze aktivieren“ auf der Seite „Allgemeine Konfiguration“ des Assistenten „Hyper-V-Cluster erstellen“.
  • Wählen Sie im Ressourcentyp die Option Vorhandene Server mit einem Windows Server-Betriebssystem aus, und wählen Sie die Hyper-V-Hosts aus, die dem Cluster hinzugefügt werden sollen.
  • Alle ausgewählten Hosts müssen Azure Local installiert haben.
  • Da S2D aktiviert ist, muss das Cluster validiert werden.

Bereitstellen eines Clusters aus Bare-Metal-Computern

Hinweis

Typischerweise erfordert ein S2D-Knoten RDMA-, QoS- und SET-Einstellungen. Um diese Einstellungen für einen Knoten mit Bare-Metal-Computern zu konfigurieren, können Sie die Funktion für das Post-Deployment-Skript in PCP verwenden. Hier ist das Stichproben-PCP-Skript nach der Bereitstellung. Sie können dieses Skript auch verwenden, um RDMA, QoS und SET zu konfigurieren, während Sie einen neuen Knoten zu einer bestehenden S2D-Bereitstellung von Bare-Metal-Computern hinzufügen.

  1. Lesen Sie die Voraussetzungen für die Bereitstellung eines Bare-Metal-Clusters.

Hinweis

  • Das generalisierte VHD oder VHDX in der VMM-Bibliothek sollte Azure Stack HCI mit den neuesten Updates ausführen. Die Betriebssystem- und Virtualisierungsplattform-Werte für die Festplatte sollten festgelegt werden.
  • Für die Bereitstellung auf Bare-Metal müssen Sie eine Pre-Boot-Execution-Environment (PXE)-Server zum VMM-Fabric hinzufügen. Der PXE-Server wird über die Windows-Bereitstellungsdienste bereitgestellt. VMM verwendet sein eigenes WinPE-Bild, und Sie müssen sicherstellen, dass es das neueste ist. Um dies zu tun, wählen Sie Fabric>Infrastructure>Update-WinPE-Image aus und stellen Sie sicher, dass der Auftrag abgeschlossen wird.
  1. Folgen Sie den Anweisungen zur Bereitstellung eines Clusters aus Bare-Metal-Computern.

Schritt 2: Einrichten der Netzwerke für den Cluster

Nachdem der Cluster im VMM-Fabric bereitgestellt und verwaltet wurde, müssen Sie das Netzwerk für die Clusterknoten einrichten.

  1. Beginnen Sie mit dem Erstellen eines logischen Netzwerks, um Ihr physisches Verwaltungsnetzwerk zu spiegeln.
  2. Sie müssen einen logischen Switch mit „Switch Embedded Teaming (SET)“ einrichten, damit der Switch die Virtualisierung erkennt. Dieser Switch ist mit dem Management-logischen Netzwerk verbunden und verfügt über alle Hostadapter, die erforderlich sind, um auf das Management-Netzwerk zuzugreifen oder das Speichernetzwerk zu konfigurieren. S2D verwendet ein Netzwerk zur Kommunikation zwischen Hosts. RDMA-fähige Adapter werden empfohlen.
  3. Erstellen von VM-Netzwerken.

Schritt 3: Konfigurieren von DCB-Einstellungen in der lokalen Azure-Instanz

Hinweis

Die Konfiguration der DCB-Einstellungen ist ein optionaler Schritt, um während des S2D-Cluster-Erstellungs-Workflows eine hohe Leistung zu erzielen. Überspringen Sie zu Schritt 4, wenn Sie die DCB-Einstellungen nicht konfigurieren möchten.

Empfehlungen

  • Wenn Sie vNICs bereitgestellt haben, empfehlen wir Ihnen, für optimale Leistung alle Ihre vNICs mit den entsprechenden pNICs zuzuordnen. Affinitäten zwischen vNIC und pNIC werden vom Betriebssystem zufällig festgelegt, und es kann Szenarien geben, in denen mehrere vNICs demselben pNIC zugeordnet sind. Um solche Szenarien zu vermeiden, empfehlen wir Ihnen, die Affinität zwischen vNIC und pNIC manuell festzulegen, indem Sie die Schritte befolgen, die hier aufgeführt sind.

  • Wenn Sie ein Netzwerkadapter-Portprofil erstellen, empfehlen wir Ihnen, die „IEEE-Priorität“ zuzulassen. Erfahren Sie mehr

    Sie können die IEEE-Priorität auch mit den folgenden PowerShell-Befehlen festlegen:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Verwenden Sie die folgenden Schritte, um die DCB-Einstellungen „“ zu konfigurieren:

  1. Erstellen Sie einen neuen Hyper-V-Cluster, aktivieren Sie Direkte Speicherplätze. Die DCB-Konfigurations-Option wird zum Hyper-V-Clustererstellungs-Workflow hinzugefügt.

    Screenshot des Hyper-V-Clusters

  2. In der DCB-Konfiguration wählen Sie Datenzentrum-Bridging konfigurieren.

  3. Bereitstellen von Prioritäts- und Bandbreiten-Werten für SMB-Direct- und Cluster-Heartbeat-Datenverkehr.

Hinweis

Standardwerte werden Priorität und Bandbreite zugewiesen. Passen Sie diese Werte an die Bedürfnisse Ihrer Organisation an.

Screenshot der Prioritätsbandbreite.

Standardwerte:

Datenverkehrsklasse Priority Bandbreite (%)
Cluster-Heartbeat 7 1
SMB-Direkt 3 50
  1. Auswahl der Netzwerkadapter für den Speicherverkehr RDMA ist auf diesen Netzwerkadaptern aktiviert.

    Hinweis

    Im Szenario einer konvergierten NIC wählen Sie die Speicher-vNICs aus. Die zugrunde liegenden pNICs müssen RDMA-fähig sein, damit vNICs angezeigt und zur Auswahl verfügbar sind.

    Screenshot von RMDS aktivieren.

  2. Überprüfen Sie die Zusammenfassung, und wählen Sie Fertig stellen aus.

    Es wird eine lokale Azure-Instanz erstellt, und die DCB-Parameter werden auf allen S2D-Knoten konfiguriert.

    Hinweis

    • DCB-Einstellungen können auf den vorhandenen Hyper-V-S2D-Clustern konfiguriert werden, indem Sie die Seite „Cluster-Eigenschaften“ besuchen und zur Seite „DCB-Konfiguration“ navigieren.
    • Alle außerbandmäßigen Änderungen an DCB-Einstellungen auf einem der Knoten führen dazu, dass der S2D-Cluster in VMM nicht konform ist. Eine Option zur Behebung wird auf der Seite DCB-Konfiguration der Clustereigenschaften bereitgestellt, die Sie verwenden können, um die in VMM konfigurierten DCB-Einstellungen auf den Clusterknoten durchzusetzen.

Schritt 4: Registrieren einer lokalen Azure-Instanz mit Azure

Nach dem Erstellen einer lokalen Azure-Instanz muss sie innerhalb von 30 Tagen nach der Installation gemäß den Nutzungsbedingungen des Azure Online-Diensts bei Azure registriert werden. Wenn Sie System Center 2022 verwenden, verwenden Sie Register-SCAzStackHCI Cmdlet in VMM, um die lokale Azure-Instanz bei Azure zu registrieren. Alternativ können Sie diesen Schritten folgen, um die Azure-Lokale-Instanz bei Azure zu registrieren.

Der Registrierungsstatus wird nach einer erfolgreichen Clusteraktualisierung in VMM angezeigt.

Schritt 5: Anzeigen des Registrierungsstatus von Azure Stack HCI-Instanzen

  1. In der VMM-Konsole können Sie den Registrierungsstatus und das letzte Verbindungsdatum der Azure Stack HCI-Cluster anzeigen.

  2. Wählen Sie „Fabric“ aus, klicken Sie mit der rechten Maustaste auf den „Azure Stack HCI“-Cluster, und wählen Sie „Eigenschaften“ aus.

    Screenshot des Registrierungsstatus

  3. Alternativ können Sie Get-SCVMHost ausführen und die Eigenschaften des zurückgegebenen Objekts beobachten, um den Registrierungsstatus zu überprüfen.

Schritt 6: Verwalten des Pools und Erstellen von CSVs

Sie können jetzt die Einstellungen des Speicherpools ändern und virtuelle Datenträger und CSVs erstellen.

  1. Wählen Sie „Fabric>Storage>Arrays“ aus.

  2. Klicken Sie mit der rechten Maustaste auf den Cluster >Pool verwalten, und wählen Sie den standardmäßig erstellten Speicherpool aus. Sie können den Standardnamen ändern und eine Klassifizierung hinzufügen.

  3. Um eine CSV zu erstellen, klicken Sie mit der rechten Maustaste auf den Cluster >Eigenschaften>Freigegebene Volumes.

  4. Im Assistent zum Erstellen von Volumes>Speichertyp geben Sie den Volume-Namen an und aktivieren Sie den Speicherpool.

  5. In „Kapazität“ können Sie die Volume-Größe, das Dateisystem und die Resilienzeinstellungen (Fehler, die toleriert werden sollen) festlegen. Wählen Sie Erweiterte Speicher- und Tiering-Einstellungen konfigurieren aus, um diese Optionen einzurichten.

    Screenshot der Volume-Einstellungen.

  6. In Speichereinstellungen können Sie die Speicherebenenteilung, Kapazität und Resilienz festlegen.

    Screenshot der Speicher-Einstellungen konfigurieren.

  7. In der Zusammenfassung überprüfen Sie die Einstellungen und schließen Sie den Assistenten ab. Ein virtueller Datenträger wird automatisch erstellt, wenn Sie das Volume erstellen.

Schritt 7: Bereitstellen von VMs im Cluster

In einer hyperkonvergenten Topologie können VMs direkt auf dem Cluster bereitgestellt werden. Ihre virtuellen Festplatten werden auf den Volumes platziert, die Sie mit S2D erstellt haben. Sie erstellen und stellen diese VMs bereit, genau so, wie Sie jede andere VM erstellen würden.

Wichtig

Wenn die lokale Azure-Instanz nicht bei Azure registriert ist oder seit mehr als 30 Tagen nach der Registrierung nicht mit Azure verbunden ist, wird die Erstellung virtueller Hochverfügbarkeitscomputer (HAVM) auf dem Cluster blockiert. Verweisen Sie auf Schritt 4 und 5 für die Clusterregistrierung.

Schritt 8: Migrieren von VMs von Windows Server zur lokalen Azure-Instanz

Nutzen Sie die Netzwerk-Migrationsfunktionalität in VMM, um Arbeitsauslastungen von Hyper-V (Windows Server 2019 und später) zu Azure Stack HCI zu migrieren.

Hinweis

Die Livemigration zwischen Windows Server und Azure Local wird nicht unterstützt. Die Netzwerkmigration von Azure Local zu Windows Server wird nicht unterstützt.

  1. Temporär die Livemigration am Ziel Azure Localhost deaktivieren.
  2. Aktivieren Sie VMs und Dienste>Alle Hosts und wählen Sie dann den Quelle-Hyper-V-Host aus, von dem Sie migrieren möchten.
  3. Aktivieren Sie die VM, die Sie migrieren möchten. Die VM muss sich in einem deaktivierten Zustand befinden.
  4. Wählen Sie „Virtuelle Maschine migrieren“ aus.
  5. In „Host auswählen“ überprüfen und wählen Sie den Ziel-Azure-Local-Host aus.
  6. Wählen Sie Weiter aus, um die Netzwerk-Migration zu starten. VMM wird im Back-End importieren und exportieren.
  7. Um zu überprüfen, dass die virtuelle Maschine erfolgreich migriert wurde, sehen Sie in der Liste der virtuellen Maschinen auf dem Zielhost nach. Schalten Sie die VM ein und aktivieren Sie die Livemigration auf dem lokalen Host in Azure erneut.

Schritt 9: Migrieren von VMware-Workloads zur lokalen Azure-Instanz mithilfe von SCVMM

VMM bietet eine einfache, assistentengestützte Erfahrung für die V2V-Konvertierung. Sie können das Konvertierungstool verwenden, um Arbeitsauslastungen in großem Maßstab von VMware-Infrastruktur zu Hyper-V-Infrastruktur zu migrieren. Für die Liste der unterstützten VMware-Server siehe Systemanforderungen.

Informationen zu den Voraussetzungen und Limits für die Konvertierung finden Sie unter Konvertieren einer VMware-VM in Hyper-V im VMM-Fabric.

  1. Erstellen Sie ausführendes Konto für die vCenter Server-Administratorrolle in VMM. Diese Administratoranmeldeinformationen werden verwendet, um den vCenter-Server und die ESXi-Hosts zu verwalten. Screenshot, der die Seite zum Erstellen eines ausführenden Kontos zeigt.

  2. In der VMM-Konsole, unter „Fabric“, aktivieren Sie „Server>VMware vCenter Server hinzufügen“. Screenshot mit der Option zum Hinzufügen von VMware vCenter.

  3. Auf der Seite VMware vCenter Server hinzufügen führen Sie Folgendes aus:

    1. Computername: Geben Sie den vCenter-Servernamen an.

    2. ausführendes Konto: Wählen Sie das ausführende Konto aus, das für den vSphere-Administrator erstellt wurde.

      Screenshot zeigt Serverinformationen.

  4. Wählen Sie Fertig stellenaus.

  5. Auf der Seite Importzertifikat aktivieren Sie Importieren.

    Screenshot mit der Option zum Importieren von Zertifikaten anzeigen.

  6. Nach dem erfolgreichen Hinzufügen des vCenter-Servers werden alle ESXi-Hosts unter dem vCenter zu VMM migriert.

Hosts hinzufügen

  1. In der VMM-Konsole, unter Fabric, aktivieren Sie Server>VMware ESX-Host und Cluster hinzufügen.
    Screenshot mit der Option „Hosts hinzufügen“
  2. Im Hinzufügen von Ressourcen-Assistent
    1. Unter Anmeldeinformationen aktivieren Sie das ausführende Konto, das für den Anschluss verwendet wird, und wählen Sie Weiter aus.

      Screenshot mit Anmeldeinformationen-Registerkarte anzeigen.

    2. Unter Zielressourcen aktivieren Sie alle ESX-Cluster, die zu VMM hinzugefügt werden müssen, und wählen Sie Weiter aus. Screenshot der Registerkarte „Zielressourcen“ anzeigen.

    3. Unter Host-Einstellungen aktivieren Sie den Speicherort, an dem Sie die VMs hinzufügen möchten, und wählen Sie Weiter. Screenshot zeigt die Host-Einstellungen-Registerkarte.

    4. Unter Zusammenfassung die Einstellungen überprüfen und Fertig stellen aktivieren. Zusammen mit den Hosts werden auch die zugeordneten VMs hinzugefügt.

      Screenshot zeigt die Registerkarte „Zusammenfassung“.

Überprüfen Sie den Status des ESXi-Hosts

  1. Wenn der ESXi-Host-Status als OK (Begrenzt) gespiegelt wird, mit der rechten Maustaste auf Eigenschaften>Verwaltung klicken, das ausführende Konto aktivieren, das für den Port verwendet wird, und die Zertifikate für den Host importieren.
    Wiederholen Sie denselben Prozess für alle ESXi-Hosts.

    Screenshot zeigt die Registerkarte „Verwalten“.

Nachdem Sie die ESXi-Cluster hinzugefügt haben, werden alle virtuellen Maschinen, die auf den ESXi-Clustern ausgeführt werden, im Virtual Machine Manager automatisch ermittelt.

VMs anzeigen

  1. Gehe zu VMs und Dienste, um die virtuellen Computer zu sehen. Sie können auch die primären Lebenszyklus-Operationen dieser virtuellen Maschinen aus dem Virtual Machine Manager verwalten.
    Screenshot zeigt ESXi-Hosts.

  2. Klicken Sie mit der rechten Maustaste auf die VM und aktivieren Sie Ein/Aus (online Migrationen werden nicht unterstützt), die migriert werden müssen, und deinstallieren Sie VMware-Werkzeuge vom Gastbetriebssystem.

  3. Auswählen Start>Erstellen von Virtual Machines>Konvertieren von Virtueller Maschine.

  4. Im Assistenten zum Konvertieren von virtuellen Maschinen,

    1. Unter Auswählen der Quelle aktivieren Sie die VM, die auf dem ESXi-Server Rennen, und aktivieren Sie Weiter. Screenshot mit der Option „Quelle auswählen“ anzeigen.
    2. Unter Identität der virtuellen Maschine angeben können Sie den neuen Name für die virtuelle Maschine eingeben, wenn Sie möchten, und Weiter auswählen.
      Screenshot mit der Option „VM-Name“ anzeigen.
  5. Unter Auswählen Host aktivieren Sie den Ziel-Azure-lokalen Computer und geben Sie den Speicherort auf dem Host für VM-Speicherdateien an und wählen Sie Weiter aus.

    Screenshot mit der Option „Host auswählen“

  6. Aktivieren Sie ein virtuelles Netzwerk für die virtuelle Maschine und wählen Sie Erstellen, um die Migration abzuschließen.
    Der virtuelle Computer, der auf dem ESXi-Cluster ausgeführt wird, wird erfolgreich zur lokalen Azure-Instanz migriert. Für die Automatisierung nutzen Sie PowerShell-Befehle zur Konvertierung.

Nächste Schritte