Sdílet prostřednictvím


Nasazení sady clusterů

Tento článek obsahuje informace o nasazení sady clusterů pro Failover Clustery s Windows Serverem s použitím PowerShellu. Sada clusterů je skupina více failover clusterů, které jsou spolu seskupeny. Pomocí sady clusterů můžete zvýšit počet uzlů serveru v jednom cloudu SDDC (Software Defined Data Center) o řád.

Sady clusterů se otestovaly a podporovaly až 64 celkového počtu uzlů clusteru. Sady clusterů se ale můžou škálovat na mnohem větší limity a nejsou pevně zakódované pro limit.

Benefits

Sady clusterů nabízejí následující výhody:

  • Výrazně se zvyšuje podporovaná škálovatelnost cloudů SDDC pro spouštění virtuálních počítačů s vysokou dostupností tím, že kombinuje několik menších clusterů do jediné velké struktury, přičemž je zachován softwarový limit selhání na jediný cluster. Virtuální počítače můžete snadno migrovat napříč sadou clusterů.

  • Zvýšená odolnost. Když máte čtyři clustery se čtyřmi uzly v sadě clusterů, získáte lepší odolnost než jeden cluster s 16 uzly v tom, že několik výpočetních uzlů může snížit kapacitu a produkční prostředí zůstane nedotčené.

  • Správa životního cyklu clusteru pro převzetí služeb při selhání, včetně onboardingu a vyřazení clusterů, aniž by to mělo vliv na dostupnost virtuálních počítačů nájemců.

  • Flexibilita virtuálních počítačů napříč jednotlivými clustery a stávající jednotný obor názvů úložiště

  • Snadno změňte poměr úloh výpočetních prostředků k úložišti v hyperkonvergovaném prostředí.

  • Využijte výhod domén selhání a skupin dostupnosti podobných Azure napříč jednotlivými clustery při počátečním umístění virtuálního počítače a následné migraci.

  • Může se použít i v případě, že výpočetní a úložný hardware mezi uzly clusteru není stejný.

  • Migrace virtuálních počítačů za provozu mezi clustery

  • Skupiny dostupnosti podobné Azure a domény selhání napříč několika clustery

  • Přesun virtuálních počítačů s SQL Serverem mezi clustery

Požadavky a omezení

Použití sad clusterů má několik požadavků a omezení:

  • Všechny členské clustery v sadě clusterů musí být ve stejné doménové struktuře Active Directory (AD).

  • Členské servery v sadě musí používat stejnou verzi operačního systému. Virtuální počítače nejde migrovat za provozu mezi různými operačními systémy. Můžete mít sadu clusterů, která se skládá z libovolné, ale ne násobku, z následujících možností:

    • Cluster s podporou převzetí služeb při selhání s Windows Serverem 2019 a cluster s podporou převzetí služeb při selhání ve Windows Serveru 2019
    • Cluster s podporou převzetí služeb při selhání s Windows Serverem 2019 a Prostory úložiště s přímým přístupem ve Windows Serveru 2019
    • Prostory úložiště s přímým přístupem a Prostory úložiště s Windows Serverem 2019 s přímým přístupem
  • Pro migraci za provozu mezi členskými clustery je nutný identický hardware procesoru pro všechny členské servery; jinak musíte v nastavení virtuálních počítačů vybrat kompatibilitu procesoru.

  • Virtuální počítače sady clusterů musí být ručně migrovány za provozu napříč clustery – nemůžou automaticky převzít služby při selhání.

  • Replika úložiště musí být použita mezi členskými clustery, aby bylo možné realizovat odolnost úložiště vůči selháním clusteru. Při použití Storage Replica mějte na paměti, že cesty UNC oboru názvů se při přepnutí na cílový replikační cluster při selhání automaticky nezmění.

  • Storage Spaces Direct nepracuje napříč členskými clustery v sadě clusterů. Spíše se Storage Spaces Direct vztahuje pouze na jeden cluster, přičemž každý cluster má vlastní úložný fond.

Architecture

Následující diagram znázorňuje cluster nastavený na vysoké úrovni:

Diagram znázorňující sadu clusterů

Následuje souhrn jednotlivých zobrazených prvků:

Cluster pro správu

Cluster pro správu hostuje vysoce dostupnou správní rovinu a server souborového systému škálovatelného podle oboru názvů (SOFS) pro sadu clusterů. Cluster pro správu je logicky oddělený od jednotlivých členských clusterů, které spouštějí úlohy virtuálních počítačů. Díky tomu je rovina správy sady clusterů odolná vůči všem lokalizovaným selháním v celém clusteru, jako je ztráta výkonu člena clusteru.

Odkazová služba pro sady clusterů v názvovém prostoru (SoFS)

Obor názvů pro sadu clusterů je poskytován s rolí serveru SOFS spuštěnou v clusteru pro správu. To je podobné prostoru názvů distribuovaného systému souborů (DFSN). Na rozdíl od DFSN se ale metadata odkazů sady clusterů automaticky vyplňují na všech uzlech clusteru bez nutnosti zásahu, takže nedochází k téměř žádným režijním nákladům na výkon v cestě přístupu k úložišti. Tento lehký referenční mechanismus se nezahrnuje do vstupně-výstupní cesty.

Každá sdílená složka referenčního seznamu SMB (Server Message Block) v referenčním seznamu sady clusterů je typu SimpleReferral. Toto referral umožňuje klientům SMB přístup k cílové sdílené složce SMB hostované na členském clusteru SOFS. Referenční seznamy se trvale ukládají do mezipaměti na každém klientském uzlu a obor názvů sady clusterů dynamicky aktualizuje referenční seznamy podle potřeby automaticky. Referenční informace se trvale ukládají do mezipaměti v každém uzlu sady clusteru, a to i během restartování.

Primární řadič sady clusterů

Komunikace mezi členskými clustery je volně vázána a koordinována hlavním řídícím prvkem společné sady clusterů (CS-Master). Stejně jako u jiných prostředků sady clusterů je CS-Master vysoce dostupná a odolná vůči selháním jednotlivých členských clusterů nebo selháním uzlů clusteru pro správu. Prostřednictvím zprostředkovatele služby WMI sady clusterů poskytuje CS-Master koncový bod správy pro všechny akce správy sady clusterů.

Cluster členů

Členský klastr spouští práci s virtuálními počítači a Storage Spaces Direct. Více členských clusterů se účastní nasazení sady clusterů, což tvoří větší cloudovou infrastrukturu SDDC. Členské clustery se liší od clusteru pro správu ve dvou klíčových aspektech: členské clustery se účastní funkcí domény selhání a skupin dostupnosti a členské clustery mají velikost pro hostování pracovních úloh virtuálních počítačů a Storage Spaces Direct. Z tohoto důvodu nejsou virtuální počítače, které se přesouvají mezi členskými clustery, hostované v clusteru pro správu.

Pracovník sady clusterů

CS-Master komunikuje s prostředkem clusteru ve členských clusterech nazývaným pracovník sady clusterů (CS-Worker). CS-Worker reaguje na požadavky CS-Master, včetně umístění virtuálního stroje a inventarizace prostředků. Existuje jedna instance CS-Worker na jeden členský klastr.

Doména selhání

Doména selhání je skupina hardwaru a softwaru, která by mohla selhat společně. I když byste mohli určit jeden nebo více clusterů společně jako doménu selhání, každý uzel se může podílet na doméně selhání ve skupině dostupnosti. Hranice domén selhání jsou založené na topologii datového centra, síťové architektuře a dalších aspektech.

Skupina dostupnosti

Skupina dostupnosti se používá ke konfiguraci požadované redundance clusterovaných úloh v rámci domén selhání prostřednictvím jejich seskupení a nasazení. U dvouvrstvé aplikace byste měli nakonfigurovat alespoň dva virtuální počítače ve skupině dostupnosti pro každou vrstvu, což zajistí, že když dojde k výpadku domény selhání ve skupině dostupnosti, bude mít vaše aplikace alespoň jeden virtuální počítač v každé vrstvě hostované v jiné doméně selhání.

Vytvoření sady clusterů

Pomocí PowerShellu v následujícím ukázkovém pracovním postupu vytvořte sadu clusterů pomocí dvou clusterů. Název sady clusterů je CSMASTER.

Název clusteru Název SOFS infrastruktury
SET-CLUSTER SOFS-CLUSTERSET
CLUSTER1 SOFS-CLUSTER1
CLUSTER2 SOFS-CLUSTER2
  1. Použijte klientský počítač pro správu se systémem Windows Server 2022 nebo Windows Server 2019.

  2. Nainstalujte nástroje clusteru s podporou převzetí služeb při selhání na server clusteru pro správu.

  3. Vytvořte dva členy clusteru, přičemž každý člen musí mít alespoň dva sdílené svazky clusteru (CSV).

  4. Vytvořte cluster pro správu (fyzický nebo virtuální), který překračuje členské clustery. Tím se zajistí, že bude rovina správy sady clusterů i nadále dostupná, i když dojde k možným selháním členského clusteru.

  5. Vytvoření sady clusterů:

    New-ClusterSet -Name CSMASTER -NamespaceRoot SOFS-CLUSTERSET -CimSession SET-CLUSTER
    

    Note

    Pokud používáte statickou IP adresu, musíte do příkazu New-ClusterSet zahrnout parametr -StaticAddress x.x.x.x.

  6. Přidání členů clusteru do sady clusterů:

    Add-ClusterSetMember -ClusterName CLUSTER1 -CimSession CSMASTER -InfraSOFSName SOFS-CLUSTER1
    Add-ClusterSetMember -ClusterName CLUSTER2 -CimSession CSMASTER -InfraSOFSName SOFS-CLUSTER2
    
  7. Výčet všech členských clusterů v sadě clusterů:

    Get-ClusterSetMember -CimSession CSMASTER
    
  8. Výčet všech členských clusterů v sadě clusterů včetně uzlů clusteru pro správu:

    Get-ClusterSet -CimSession CSMASTER | Get-Cluster | Get-ClusterNode
    
  9. Zobrazení seznamu všech uzlů serveru ze všech členských clusterů:

    Get-ClusterSetNode -CimSession CSMASTER
    
  10. Zobrazení seznamu všech skupin prostředků v sadě clusterů:

    Get-ClusterSet -CimSession CSMASTER | Get-Cluster | Get-ClusterGroup
    
  11. Pokud chcete ověřit, že sada clusterů obsahuje jeden sdílený svazek SMB (kdeScopeName je název souborového serveru infrastruktury) na infrastrukturním SOFS pro každý svazek CSV člena clusteru:

    Get-SmbShare -CimSession CSMASTER
    
  12. Zkontrolujte soubory protokolu ladění sady clusterů pro sadu clusterů, cluster pro správu a každého člena clusteru:

    Get-ClusterSetLog -ClusterSetCimSession CSMASTER -IncludeClusterLog -IncludeManagementClusterLog -DestinationFolderPath <path>
    
  13. Nakonfigurujte Kerberos s omezeným delegování mezi všemi členy sady clusterů.

  14. Nakonfigurujte typ ověřování živé migrace mezi clustery na Kerberos na každém uzlu v sadě clusteru.

    foreach($h in $hosts){ Set-VMHost -VirtualMachineMigrationAuthenticationType Kerberos -ComputerName $h }
    
  15. Přidejte správní cluster do místní skupiny administrátorů na každém členském serverovém uzlu v sadě clusteru.

    foreach($h in $hosts){ Invoke-Command -ComputerName $h -ScriptBlock {Net localgroup administrators /add <management_cluster_name>$} }
    

Vytvoření virtuálních počítačů se sadou clusterů

Po vytvoření sady clusterů je dalším krokem vytvoření virtuálních počítačů. Měli byste provést následující kontroly předem:

  • Kontrola dostupné paměti na každém uzlu serveru clusteru
  • Kontrola dostupného místa na disku na každém uzlu serveru clusteru
  • Zkontrolujte všechny konkrétní požadavky na úložiště virtuálních počítačů z hlediska rychlosti a výkonu.

Příkaz Get-ClusterSetOptimalNodeForVM identifikuje optimální cluster a uzel v sadě clusterů a pak do něj nasadí virtuální počítač. V následujícím příkladu se vytvoří nový virtuální počítač s:

  • K dispozici je 4 GB
  • Jeden virtuální procesor
  • 10% minimální dostupný procesor
# Identify the optimal node to create a new virtual machine
$memoryinMB=4096
$vpcount = 1
$targetnode = Get-ClusterSetOptimalNodeForVM -CimSession CSMASTER -VMMemory $memoryinMB -VMVirtualCoreCount $vpcount -VMCpuReservation 10
$secure_string_pwd = convertto-securestring "<password>" -asplaintext -force
$cred = new-object -typename System.Management.Automation.PSCredential ("<domain\account>",$secure_string_pwd)

# Deploy the virtual machine on the optimal node
Invoke-Command -ComputerName $targetnode.name -scriptblock { param([String]$storagepath); New-VM CSVM1 -MemoryStartupBytes 3072MB -path $storagepath -NewVHDPath CSVM.vhdx -NewVHDSizeBytes 4194304 } -ArgumentList @("\\SOFS-CLUSTER1\VOLUME1") -Credential $cred | Out-Null

Start-VM CSVM1 -ComputerName $targetnode.name | Out-Null
Get-VM CSVM1 -ComputerName $targetnode.name | fl State, ComputerName

Po dokončení se zobrazí uzel clusteru, na kterém byl virtuální počítač nasazený. Ve výše uvedeném příkladu by se zobrazovalo takto:

State         : Running
ComputerName  : 1-S2D2

Pokud není k dispozici dostatek paměti, kapacity procesoru nebo místa na disku pro přidání virtuálního počítače, zobrazí se následující chyba:

Get-ClusterSetOptimalNodeForVM : A cluster node isn't available for this operation.

Po vytvoření virtuálního počítače se zobrazí ve správci Hyper-V na zadaném konkrétním uzlu. Pokud ho chcete přidat jako virtuální počítač se sadou clusterů a přidat ho do clusteru, použijte tento příkaz:

Register-ClusterSetVM -CimSession CSMASTER -MemberName $targetnode.Member -VMName CSVM1

Po dokončení výstupu:

Id  VMName  State  MemberName  PSComputerName
--  ------  -----  ----------  --------------
 1  CSVM1     On   CLUSTER1    CSMASTER

Pokud jste vytvořili cluster pomocí existujících virtuálních počítačů, musí být virtuální počítače zaregistrované v sadě clusterů. Pokud chcete zaregistrovat všechny virtuální počítače najednou, použijte:

Get-ClusterSetMember -Name CLUSTER3 -CimSession CSMASTER | Register-ClusterSetVM -RegisterAll -CimSession CSMASTER

Dále přidejte cestu k virtuálnímu počítači do oboru názvů sady clusterů.

Předpokládejme například, že do sady clusterů se přidá existující cluster s předem nakonfigurovanými virtuálními počítači, které se nacházejí na místním sdíleném svazku clusteru (CSV). Cesta pro VHDX by mohla vypadat podobně jako C:\ClusterStorage\Volume1\MYVM\Virtual Hard Disks\MYVM.vhdx1.

Migrace úložiště je nutná, protože cesty CSV jsou navrženy tak, aby byly místní pro jeden členský cluster, a proto nejsou přístupné virtuálnímu počítači po migraci za provozu mezi členskými clustery.

V tomto příkladu je CLUSTER3 přidán do sady clusterů pomocí Add-ClusterSetMember s využitím souborového serveru se škálováním SOFS-CLUSTER3. Pokud chcete přesunout konfiguraci a úložiště virtuálního počítače, je tento příkaz:

Move-VMStorage -DestinationStoragePath \\SOFS-CLUSTER3\Volume1 -Name MyVM

Po dokončení se může zobrazit upozornění:

WARNING: There were issues updating the virtual machine configuration that may prevent the virtual machine from running. For more information view the report file below.
WARNING: Report file location: C:\Windows\Cluster\Reports\Update-ClusterVirtualMachineConfiguration '' on date at time.htm.

Toto upozornění může být ignorováno, protože v konfiguraci úložiště rolí virtuálního počítače nebyly žádné fyzické změny. Skutečné fyzické umístění se nezmění; změní se pouze konfigurační cesty.

Další informace najdete Move-VMStoragev tématu Move-VMStorage.

Migrace virtuálního počítače za provozu v rámci sady clusterů zahrnuje následující:

Set-VMHost -UseAnyNetworkForMigration $true

Pokud pak chcete přesunout virtuální počítač se sadou clusterů z CLUSTER1 do NODE2-CL3 na CLUSTER3 například příkaz bude:

Move-ClusterSetVM -CimSession CSMASTER -VMName CSVM1 -Node NODE2-CL3

Tento příkaz nepřesune úložiště nebo konfigurační soubory virtuálního počítače a není nutný, protože cesta k virtuálnímu počítači zůstává jako \\SOFS-CLUSTER1\VOLUME1. Jakmile je virtuální počítač zaregistrovaný v cestě ke sdílené složce souborového serveru infrastruktury, jednotky a virtuální počítač nemusí být na stejném uzlu.

Vytvoření škálovatelného souborového serveru na infrastruktuře

V clusteru je jedna role clusteru INFRASTRUKTURA SOFS. Role Infrastruktura SOFS se vytvoří zadáním parametru přepínače -Infrastructure do rutiny Add-ClusterScaleOutFileServerRole. Například:

Add-ClusterScaleoutFileServerRole -Name "my_infra_sofs_name" -Infrastructure

Každý svazek CSV vytvořený automaticky aktivuje vytvoření sdílené složky SMB s automaticky vygenerovaným názvem na základě názvu svazku CSV. Sdílené složky SMB nemůžete vytvářet ani upravovat přímo v rámci role SOFS, kromě použití svazku CSV k vytvoření a úpravě operací.

V hyperkonvergovaných konfiguracích umožňuje SOFS infrastruktury klientovi SMB (Hyper-V hostiteli) komunikovat s nepřetržitou dostupností (CA) na server SMB SOFS infrastruktury. Tato hyperkonvergovaná smyčka SMB je implementována prostřednictvím virtuálních počítačů, které přistupují ke svým souborům virtuálního disku (VHDX), kde se identita vlastnického virtuálního počítače předává mezi klientem a serverem. Předávání této identity umožňuje používat seznamy ACL pro soubory VHDx stejně jako u standardních konfigurací hyperkonvergovaného clusteru jako předtím.

Po vytvoření sady clusterů se obor názvů sady clusterů spoléhá na infrastrukturní SOFS na každém z členských clusterů a dále na infrastrukturní SOFS v clusteru pro správu.

V okamžiku přidání člena clusteru do sady clusterů můžete zadat název SOFS infrastruktury v daném clusteru, pokud už existuje. Pokud SOFS infrastruktury neexistuje, vytvoří se nová role SOFS infrastruktury v novém členském clusteru. Pokud už v členském clusteru existuje role SOFS infrastruktury, operace Přidat ji podle potřeby implicitně přejmenuje na zadaný název. Všechny existující servery SMB nebo role SOFS mimo infrastrukturu v členských clusterech se v sadě clusterů nepoužívají.

Po vytvoření sady clusterů máte možnost použít existující objekt počítače AD jako kořen oboru názvů v clusteru pro správu. Vytvoření sady clusterů vytvoří v clusteru pro správu roli clusteru Infrastruktura SOFS nebo přejmenuje stávající roli SOFS infrastruktury. SOFS infrastruktury v řídicím clusteru se používá jako referenční SOFS pro obor názvů sady clusterů.

Vytvoření domén selhání a skupin dostupnosti

Domény selhání a skupiny dostupnosti podobné Azure je možné nakonfigurovat v sadě clusterů. To je výhodné pro počáteční umístění a migrace virtuálních počítačů mezi clustery.

Následující příklad obsahuje čtyři clustery v sadě clusterů. V rámci této sady se vytvoří jedna doména selhání se dvěma clustery a druhá doména selhání se vytvoří s ostatními dvěma clustery. Tyto dvě domény selhání tvoří skupinu dostupnosti.

V následujícím příkladu jsou CLUSTER1 a CLUSTER2 v doméně selhání FD1 a CLUSTER3 a CLUSTER4 jsou v doméně selhání FD2. Skupina dostupnosti je CSMASTER-AS.

Pokud chcete vytvořit domény selhání, příkazy jsou:

New-ClusterSetFaultDomain -Name FD1 -FdType Logical -CimSession CSMASTER -MemberCluster CLUSTER1,CLUSTER2 -Description "First fault domain"

New-ClusterSetFaultDomain -Name FD2 -FdType Logical -CimSession CSMASTER -MemberCluster CLUSTER3,CLUSTER4 -Description "Second fault domain"

K zajištění, že byly úspěšně vytvořeny, může být Get-ClusterSetFaultDomain spuštěn a jeho výstup zobrazen pro FD1:

PS C:\> Get-ClusterSetFaultDomain -CimSession CSMASTER -FdName FD1 | fl *

PSShowComputerName    : True
FaultDomainType       : Logical
ClusterName           : {CLUSTER1, CLUSTER2}
Description           : First fault domain
FDName                : FD1
Id                    : 1
PSComputerName        : CSMASTER

Po vytvoření domén selhání se vytvoří skupina dostupnosti:

New-ClusterSetAvailabilitySet -Name CSMASTER-AS -FdType Logical -CimSession CSMASTER -ParticipantName FD1,FD2

Pokud chcete ověřit, že je vytvořený, použijte:

Get-ClusterSetAvailabilitySet -AvailabilitySetName CSMASTER-AS -CimSession CSMASTER

Při vytváření nových virtuálních počítačů pomocí parametru -AvailabilitySet určete optimální uzel pro umístění. Tady je příklad:

# Identify the optimal node to create a new VM
$memoryinMB=4096
$vpcount = 1
$av = Get-ClusterSetAvailabilitySet -Name CSMASTER-AS -CimSession CSMASTER
$targetnode = Get-ClusterSetOptimalNodeForVM -CimSession CSMASTER -VMMemory $memoryinMB -VMVirtualCoreCount $vpcount -VMCpuReservation 10 -AvailabilitySet $av
$secure_string_pwd = convertto-securestring "<password>" -asplaintext -force
$cred = new-object -typename System.Management.Automation.PSCredential ("<domain\account>",$secure_string_pwd)

Odebrání clusteru ze sady

Existují časy, kdy je potřeba cluster odebrat ze sady clusterů. Osvědčeným postupem je, že všechny virtuální počítače sady clusterů by se měly předem přesunout mimo cluster. Můžete to provést pomocí příkazů Move-ClusterSetVM a Move-VMStorage.

Pokud se nejprve virtuální počítače z clusteru nepřesunou, všechny zbývající virtuální počítače ze sady clusterů, které jsou hostovány v odebíraném clusteru, se stanou vysoce dostupnými virtuálními počítači vázanými na tento cluster za předpokladu, že budou mít přístup ke svému úložišti. Sady clusterů také automaticky aktualizují svůj inventář tím, že již dále nesledují stav odebraného clusteru a virtuálních počítačů na něm běžících. Také odstraňují obor názvů a všechny odkazy na sdílené složky hostované v odstraněném clusteru.

Příkaz pro odebrání clusteru CLUSTER1 ze sady clusterů je například následující:

Remove-ClusterSetMember -ClusterName CLUSTER1 -CimSession CSMASTER

Zálohování stavu systému

Záloha stavu systému zachová stav clusteru a metadata. Pomocí zálohování Windows Serveru můžete v případě potřeby obnovit pouze databázi clusteru uzlu nebo provést autoritativní obnovení pro vrácení celé databáze clusteru napříč všemi uzly. U sad clusterů doporučujeme nejprve provést autoritativní obnovu pro členské sady a poté pro správní sadu. Další informace o zálohování stavu systému naleznete v tématu Zálohování stavu systému a kompletní záloha.

Další kroky