Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieses Thema enthält Hardwarespezifikationen und Konfigurationsempfehlungen für Server, die Hyper-V virtuellen Windows Server-Gatewaycomputern ausgeführt werden und diese hosten, sowie Konfigurationsparameter für virtuelle Windows Server-Gatewaycomputer (VMs). Um die beste Leistung von Windows Server-Gateway-VMs zu erzielen, wird erwartet, dass diese Richtlinien befolgt werden. Die folgenden Abschnitte enthalten Hardware- und Konfigurationsanforderungen für die Bereitstellung von Windows Server-Gateway.
- Hyper-V Hardware-Empfehlungen
- Hyper-V Host-Konfiguration
- Konfiguration der Windows Server-Gateway-VM
Hyper-V Hardware-Empfehlungen
Im Folgenden finden Sie die empfohlene Mindesthardwarekonfiguration für jeden Server, auf dem Windows Server 2016 und Hyper-V ausgeführt werden.
Serverkomponente | Spezifikation |
---|---|
Zentraleinheit (CPU) | NUMA-Knoten (Non-Uniform Memory Architecture): 2 Wenn auf dem Host mehrere Windows Server-Gateway-VMs vorhanden sind, sollte jede Gateway-VM Vollzugriff auf einen NUMA-Knoten haben, um eine optimale Leistung zu erzielen. Und er sollte sich von dem NUMA-Knoten unterscheiden, der vom physischen Hostadapter verwendet wird. |
Kerne pro NUMA-Knoten | 2 |
Hyper-Threading | Arbeitsunfähig. Hyper-Threading verbessert die Leistung des Windows Server-Gateways nicht. |
Arbeitsspeicher (RAM) | 48 GB |
Netzwerkkarten (NICs) | Zwei 10-GB-Netzwerkkarten, Die Gateway-Leistung hängt von der Leitungsgeschwindigkeit ab. Wenn die Leitungsgeschwindigkeit weniger als 10 Gbit/s beträgt, sinken auch die Durchsatzzahlen des Gateway-Tunnels um den gleichen Faktor. |
Stellen Sie sicher, dass die Anzahl der virtuellen Prozessoren, die einer Windows Server-Gateway-VM zugewiesen sind, die Anzahl der Prozessoren auf dem NUMA-Knoten nicht überschreitet. Wenn ein NUMA-Knoten z. B. über 8 Kerne verfügt, sollte die Anzahl der virtuellen Prozessoren kleiner oder gleich 8 sein. Für eine optimale Leistung sollte es 8 sein. Um die Anzahl der NUMA-Knoten und die Anzahl der Kerne pro NUMA-Knoten zu ermitteln, führen Sie das folgende Windows PowerShell-Skript auf jedem Hyper-V Host aus:
$nodes = [object[]] $(gwmi –Namespace root\virtualization\v2 -Class MSVM_NumaNode)
$cores = ($nodes | Measure-Object NumberOfProcessorCores -sum).Sum
$lps = ($nodes | Measure-Object NumberOfLogicalProcessors -sum).Sum
Write-Host "Number of NUMA Nodes: ", $nodes.count
Write-Host ("Total Number of Cores: ", $cores)
Write-Host ("Total Number of Logical Processors: ", $lps)
Von Bedeutung
Das Zuordnen virtueller Prozessoren über NUMA-Knoten kann sich negativ auf die Leistung von Windows Server Gateway auswirken. Das Ausführen mehrerer VMs, von denen jede über virtuelle Prozessoren von einem NUMA-Knoten verfügt, bietet wahrscheinlich eine bessere Gesamtleistung als eine einzelne VM, der alle virtuellen Prozessoren zugewiesen sind.
Bei der Auswahl der Anzahl der Gateway-VMs, die auf jedem Hyper-V Host installiert werden sollen, wird eine Gateway-VM mit acht virtuellen Prozessoren und mindestens 8 GB RAM empfohlen, wenn jeder NUMA-Knoten über acht Kerne verfügt. In diesem Fall ist ein NUMA-Knoten für den Hostcomputer reserviert.
Hyper-V Host-Konfiguration
Im Folgenden finden Sie die empfohlene Konfiguration für jeden Server, auf dem Windows Server 2016 und Hyper-V ausgeführt werden und dessen Workload darin besteht, Windows Server-Gateway-VMs auszuführen. Diese Konfigurationsanweisungen umfassen die Verwendung von Windows PowerShell-Befehlsbeispielen. Diese Beispiele enthalten Platzhalter für tatsächliche Werte, die Sie angeben müssen, wenn Sie die Befehle in Ihrer Umgebung ausführen. Platzhalter für Netzwerkadapternamen sind z. B. "NIC1" und "NIC2". Wenn Sie Befehle ausführen, die diese Platzhalter verwenden, verwenden Sie die tatsächlichen Namen der Netzwerkadapter auf den Servern, anstatt die Platzhalter zu verwenden, da die Befehle sonst fehlschlagen.
Hinweis
Zum Ausführen der folgenden Windows PowerShell-Befehle müssen Sie Mitglied der Gruppe Administratoren sein.
Konfigurationselement | Windows Powershell-Konfiguration |
---|---|
Eingebettetes Teaming wechseln | Wenn Sie einen vSwitch mit mehreren Netzwerkadaptern erstellen, wird das eingebettete Switch-Teaming für diese Adapter automatisch aktiviert. New-VMSwitch -Name TeamedvSwitch -NetAdapterName "NIC 1","NIC 2" Herkömmliche Teamarbeit über LBFO wird mit SDN in Windows Server 2016 nicht unterstützt. Mit Switch Embedded Teaming können Sie denselben Satz von Netzwerkkarten für Ihren virtuellen Datenverkehr und RDMA-Datenverkehr verwenden. Dies wurde bei NIC-Teaming auf Basis von LBFO nicht unterstützt. |
Interrupt-Moderation auf physischen Netzwerkkarten | Verwenden Sie die Standardeinstellungen. Um die Konfiguration zu überprüfen, können Sie den folgenden Windows PowerShell-Befehl verwenden: Get-NetAdapterAdvancedProperty |
Größe der Empfangspuffer auf physischen Netzwerkkarten | Sie können überprüfen, ob die physischen Netzwerkkarten die Konfiguration dieses Parameters unterstützen, indem Sie den Befehl Get-NetAdapterAdvancedProperty ausführen. Wenn dieser Parameter nicht unterstützt wird, enthält die Ausgabe des Befehls nicht die Eigenschaft "Receive Buffers". Wenn Netzwerkkarten diesen Parameter unterstützen, können Sie den folgenden Windows PowerShell-Befehl verwenden, um die Größe der Empfangspuffer festzulegen: Set-NetAdapterAdvancedProperty "NIC1" –DisplayName "Receive Buffers" –DisplayValue 3000 |
Größe der Sendepuffer auf physischen Netzwerkkarten | Sie können überprüfen, ob die physischen Netzwerkkarten die Konfiguration dieses Parameters unterstützen, indem Sie den Befehl Get-NetAdapterAdvancedProperty ausführen. Wenn die Netzwerkkarten diesen Parameter nicht unterstützen, enthält die Ausgabe des Befehls nicht die Eigenschaft "Send Buffers". Wenn Netzwerkkarten diesen Parameter unterstützen, können Sie den folgenden Windows PowerShell-Befehl verwenden, um die Größe der Sendepuffer festzulegen: Set-NetAdapterAdvancedProperty "NIC1" –DisplayName "Transmit Buffers" –DisplayValue 3000 |
Receive Side Scaling (RSS) auf physischen Netzwerkkarten | Sie können überprüfen, ob RSS auf Ihren physischen Netzwerkkarten aktiviert ist, indem Sie den Windows PowerShell-Befehl Get-NetAdapterRss ausführen. Sie können die folgenden Windows PowerShell-Befehle verwenden, um RSS auf Ihren Netzwerkadaptern zu aktivieren und zu konfigurieren: Enable-NetAdapterRss "NIC1","NIC2" Set-NetAdapterRss "NIC1","NIC2" –NumberOfReceiveQueues 16 -MaxProcessors HINWEIS: Wenn VMMQ oder VMQ aktiviert ist, muss RSS auf den physischen Netzwerkadaptern nicht aktiviert sein. Sie können es auf den virtuellen Hostnetzwerkadaptern aktivieren |
VMMQ (Englisch) | Führen Sie den folgenden Befehl aus, um VMMQ für eine VM zu aktivieren: Set-VmNetworkAdapter -VMName <gateway vm name>,-VrssEnabled $true -VmmqEnabled $true Hinweis: Nicht alle Netzwerkadapter unterstützen VMMQ. Derzeit wird es auf den Serien Chelsio T5 und T6, Mellanox CX-3 und CX-4 sowie QLogic 45xxx unterstützt |
Virtual Machine Queue (VMQ) im NIC-Team | Sie können VMQ in Ihrem SET-Team aktivieren, indem Sie den folgenden Windows PowerShell-Befehl verwenden: Enable-NetAdapterVmq HINWEIS: Diese Option sollte nur aktiviert werden, wenn die Hardware VMMQ nicht unterstützt. Falls unterstützt, sollte VMMQ aktiviert werden, um eine bessere Leistung zu erzielen. |
Hinweis
VMQ und vRSS kommen nur dann ins Spiel, wenn die Auslastung der VM hoch ist und die CPU maximal ausgelastet wird. Nur dann ist mindestens ein Prozessorkern maximal ausgelastet. VMQ und vRSS sind dann von Vorteil, um die Verarbeitungslast auf mehrere Kerne zu verteilen. Dies gilt nicht für IPsec-Datenverkehr, da IPsec-Datenverkehr auf einen einzelnen Kern beschränkt ist.
Konfiguration der Windows Server-Gateway-VM
Auf beiden Hyper-V Hosts können Sie mehrere VMs konfigurieren, die als Gateways mit Windows Server-Gateway konfiguriert sind. Sie können den Virtual Switch Manager verwenden, um einen Hyper-V Virtual Switch zu erstellen, der an das NIC-Team auf dem Hyper-V Host gebunden ist. Beachten Sie, dass Sie für eine optimale Leistung eine einzelne Gateway-VM auf einem Hyper-V Host bereitstellen sollten. Im Folgenden finden Sie die empfohlene Konfiguration für jede Windows Server-Gateway-VM.
Konfigurationselement | Windows Powershell-Konfiguration |
---|---|
Gedächtnis | 8 GB |
Anzahl der virtuellen Netzwerkadapter | 3 Netzwerkkarten mit den folgenden spezifischen Verwendungszwecken: 1 für die Verwaltung, die vom Verwaltungsbetriebssystem verwendet wird, 1 extern, die Zugriff auf externe Netzwerke ermöglicht, 1 interne Netzwerkkarte, die nur Zugriff auf interne Netzwerke bietet. |
Empfangsseitige Skalierung (RSS) | Sie können die RSS-Standardeinstellungen für die Verwaltungs-NIC beibehalten. Die folgende Beispielkonfiguration gilt für eine VM mit 8 virtuellen Prozessoren. Für die externen und internen Netzwerkkarten können Sie RSS aktivieren, wobei BaseProcNumber auf 0 und MaxRssProcessors auf 8 festgelegt ist, indem Sie den folgenden Windows PowerShell-Befehl verwenden: Set-NetAdapterRss "Internal","External" –BaseProcNumber 0 –MaxProcessorNumber 8 |
Seitenpuffer senden | Sie können die standardmäßigen Einstellungen für den sendeseitigen Puffer für die Verwaltungs-NIC beibehalten. Sowohl für die interne als auch für die externe Netzwerkkarte können Sie den sendeseitigen Puffer mit 32 MB RAM konfigurieren, indem Sie den folgenden Windows PowerShell-Befehl verwenden: Set-NetAdapterAdvancedProperty "Internal","External" –DisplayName "Send Buffer Size" –DisplayValue "32MB" |
Empfangsseitiger Puffer | Sie können die standardmäßigen Einstellungen für den empfangsseitigen Puffer für die Verwaltungs-NIC beibehalten. Sowohl für die interne als auch für die externe Netzwerkkarte können Sie den empfangsseitigen Puffer mit 16 MB RAM konfigurieren, indem Sie den folgenden Windows PowerShell-Befehl verwenden: Set-NetAdapterAdvancedProperty "Internal","External" –DisplayName "Receive Buffer Size" –DisplayValue "16MB" |
Vorwärts-Optimierung | Sie können die standardmäßigen Einstellungen für die Weiterleitungsoptimierung für die Verwaltungs-NIC beibehalten. Sowohl für die interne als auch für die externe Netzwerkkarte können Sie die Vorwärtsoptimierung aktivieren, indem Sie den folgenden Windows PowerShell-Befehl verwenden: Set-NetAdapterAdvancedProperty "Internal","External" –DisplayName "Forward Optimization" –DisplayValue "1" |