Požadavky na síť hostitele pro Azure Stack HCI
Platí pro: Azure Stack HCI, verze 23H2 a 22H2
Toto téma popisuje aspekty a požadavky na hostování sítí pro Azure Stack HCI. Informace o architekturách datacenter a fyzických připojeních mezi servery najdete v tématu Požadavky na fyzickou síť.
Informace o tom, jak zjednodušit sítě hostitelů pomocí síťové ATC, naleznete v tématu Zjednodušení sítí v síti ATC.
Typy síťového provozu
Síťový provoz Azure Stack HCI je možné klasifikovat zamýšleným účelem:
- Provoz správy: Provoz do místního clusteru nebo mimo místní cluster. Například provoz repliky úložiště nebo provoz používaný správcem pro správu clusteru, jako je Vzdálená plocha, Windows Admin Center, Active Directory atd.
- Výpočetní provoz: Provoz pocházející z virtuálního počítače nebo určený do virtuálního počítače.
- Přenosy dat úložiště: Provoz pomocí protokolu SMB (Server Message Block), například Prostory úložiště s přímým přístupem nebo migrace za provozu založená na protokolu SMB. Tento provoz je přenos vrstvy 2 a není směrovatelný.
Důležité
Replika úložiště používá provoz smb založený na RDMA, který není založený na RDMA. Tato a směrová povaha provozu (Sever–jih) je úzce sladěná s provozem "správy" uvedeným výše, podobně jako u tradiční sdílené složky.
Výběr síťového adaptéru
Síťové adaptéry jsou kvalifikované typy síťového provozu (viz výše), které se podporují pro použití. Při kontrole katalogu Systému Windows Server teď certifikace systému Windows Server 2022 označuje jednu nebo více následujících rolí. Před nákupem serveru pro Azure Stack HCI musíte mít minimálně jeden adaptér, který je kvalifikovaný pro správu, výpočetní prostředky a úložiště, protože všechny tři typy přenosů se vyžadují v Azure Stack HCI. Síťové ATC pak můžete použít ke konfiguraci adaptérů pro odpovídající typy přenosů.
Další informace o této kvalifikaci síťové karty založené na rolích najdete na tomto odkazu.
Důležité
Použití adaptéru mimo jeho kvalifikovaný typ provozu není podporováno.
Level | Role správy | Výpočetní role | Role úložiště |
---|---|---|---|
Rozdíl na základě role | Správa | Compute Standard | Storage Standard |
Maximální cena | Neuvedeno | Compute Premium | Storage Premium |
Poznámka:
Nejvyšší kvalifikace pro všechny adaptéry v našem ekosystému bude obsahovat kvalifikace Management, Compute Premium a Storage Premium .
Požadavky na ovladač
Ovladače doručené pošty se nepodporují pro použití se službou Azure Stack HCI. Pokud chcete zjistit, jestli váš adaptér používá ovladač doručené pošty, spusťte následující rutinu. Adaptér používá ovladač doručené pošty, pokud je vlastnost DriverProvider Microsoft.
Get-NetAdapter -Name <AdapterName> | Select *Driver*
Přehled možností klíčových síťových adaptérů
Mezi důležité možnosti síťového adaptéru používané službou Azure Stack HCI patří:
- Dynamická více fronta virtuálních počítačů (dynamic VMMQ nebo d.VMMQ)
- Vzdálený přímý přístup do paměti (RDMA)
- Hostovaný přímý přístup do paměti (RDMA)
- Switch Embedded Teaming (SET)
Dynamické VMMQ
Všechny síťové adaptéry s kvalifikací Compute (Premium) podporují dynamické VMMQ. Dynamické funkce VMMQ vyžaduje použití seskupování přepínače Embedded.
Použitelné typy provozu: výpočty
Požadované certifikace: Compute (Premium)
Dynamic VMMQ je inteligentní technologie na straně příjmu. Vychází ze svých předchůdců fronty virtuálních počítačů (VMQ), škálování na straně příjmu (vRSS) a VMMQ, aby poskytoval tři primární vylepšení:
- Optimalizuje efektivitu hostitele pomocí menšího počtu jader procesoru.
- Automatické ladění zpracování síťového provozu na jádra procesoru, což umožňuje virtuálním počítačům splňovat a udržovat očekávanou propustnost.
- Umožňuje "nárazové" úlohy přijímat očekávaný objem provozu.
Další informace o dynamic VMMQ naleznete v blogovém příspěvku Syntetické akcelerace.
RDMA
RDMA je přesměrování zátěže zásobníku sítě na síťový adaptér. Umožňuje, aby provoz úložiště SMB obešel operační systém ke zpracování.
RDMA umožňuje sítě s vysokou propustností a nízkou latencí s využitím minimálních prostředků procesoru hostitele. Tyto prostředky procesoru hostitele je pak možné použít ke spouštění dalších virtuálních počítačů nebo kontejnerů.
Použitelné typy provozu: úložiště hostitelů
Požadované certifikace: Storage (Standard)
Všechny adaptéry s kvalifikací Storage (Standard) nebo Storage (Premium) podporují RDMA na straně hostitele. Další informace o používání RDMA s úlohami hosta najdete v části Host RDMA dále v tomto článku.
Azure Stack HCI podporuje RDMA s implementacemi protokolu RDMA (Internet Wide Area RDMA Protocol) nebo RDMA přes implementace konvergovaného ethernetu (RoCE).
Důležité
Adaptéry RDMA fungují jenom s jinými adaptéry RDMA, které implementují stejný protokol RDMA (iWARP nebo RoCE).
Ne všechny síťové adaptéry od dodavatelů podporují RDMA. Následující tabulka uvádí dodavatele (v abecedním pořadí), kteří nabízejí certifikované adaptéry RDMA. V tomto seznamu však nejsou zahrnuti dodavatelé hardwaru, kteří podporují také RDMA. Pokud chcete najít adaptéry s kvalifikací Storage (Standard) nebo Storage (Premium), které vyžadují podporu RDMA, najdete v katalogu Windows Serveru.
Poznámka:
InfiniBand (IB) se v Azure Stack HCI nepodporuje.
Dodavatel síťových adaptérů | iWARP | RoCE |
---|---|---|
Broadcom | No | Ano |
Intel | Ano | Ano (některé modely) |
Marvell (Qlogic) | Ano | Yes |
Nvidia | No | Ano |
Další informace o nasazení RDMA pro hostitele důrazně doporučujeme použít Síť ATC. Informace o ručním nasazení najdete v úložišti SDN Na GitHubu.
iWARP
Protokol iWARP používá protokol TCP (Transmission Control Protocol) a lze ho volitelně rozšířit pomocí řízení toku založeného na prioritě (PFC) a rozšířené služby přenosu (ETS).
Použijte iWARP, pokud:
- Nemáte zkušenosti se správou sítí RDMA.
- Nespravujete nebo je nepříjemné spravovat přepínače ToR (Top-of-Rack).
- Po nasazení nebudete řešení spravovat.
- Už máte nasazení, která používají iWARP.
- Nejste si jistí, kterou možnost zvolit.
RoCE
RoCE používá protokol UDP (User Datagram Protocol) a k zajištění spolehlivosti vyžaduje PFC a ETS.
Použijte RoCE, pokud:
- V datacentru už máte nasazení s RoCE.
- Jste spokojení se správou požadavků na síť DCB.
Hostovaný přímý přístup do paměti (RDMA)
Hostovaný RDMA umožňuje úlohám SMB pro virtuální počítače získat stejné výhody použití RDMA na hostitelích.
Použitelné typy provozu: Úložiště založené na hostech
Požadované certifikace: Compute (Premium)
Hlavními výhodami používání RDMA typu host jsou:
- Procesor se přesměruje na síťovou kartu pro zpracování síťového provozu.
- Extrémně nízká latence.
- Vysoká propustnost.
Další informace potřebujete stáhnout z úložiště SDN Na GitHubu.
Switch Embedded Teaming (SET)
SET je softwarová seskupovací technologie, která je součástí operačního systému Windows Server od verze Windows Server 2016. SET je jediná technologie seskupování podporovaná v Azure Stack HCI. SET funguje dobře s přenosy výpočetních prostředků, úložiště a správy a podporuje se až s osmi adaptéry ve stejném týmu.
Použitelné typy provozu: výpočty, úložiště a správa
Požadované certifikace: Compute (Standard) nebo Compute (Premium)
SET je jediná technologie seskupování podporovaná v Azure Stack HCI. SADA dobře funguje s přenosy výpočetních prostředků, úložiště a správy.
Důležité
Azure Stack HCI nepodporuje seskupování síťových adaptérů se starším vyrovnáváním zatížení nebo převzetím služeb při selhání (LBFO). Další informace o LBFO v Azure Stack HCI najdete v blogovém příspěvku Seskupování ve službě Azure Stack HCI .
Sada SET je důležitá pro Azure Stack HCI, protože je to jediná technologie seskupování, která umožňuje:
- Seskupování adaptérů RDMA (v případě potřeby)
- RDMA hosta.
- Dynamické VMMQ.
- Další klíčové funkce Azure Stack HCI (viz Seskupování v Azure Stack HCI).
SET vyžaduje použití symetrických (identických) adaptérů. Symetrické síťové adaptéry jsou ty, které mají stejné tyto položky:
- značka (dodavatel)
- model (verze)
- rychlost (propustnost)
- konfigurace
Ve verzi 22H2 síťová ATC automaticky rozpozná a informuje vás, jestli zvolené adaptéry jsou asymetrické. Nejjednodušší způsob, jak ručně zjistit, jestli jsou adaptéry symetrické, je, pokud jsou rychlosti a popisy rozhraní přesné shody. Mohou se odchylovat pouze v číslicích uvedených v popisu. Pomocí rutiny Get-NetAdapterAdvancedProperty
se ujistěte, že sestava konfigurace obsahuje stejné hodnoty vlastností.
Příklad popisů rozhraní, které se liší pouze číslicemi (#), najdete v následující tabulce:
Název | Popis rozhraní | Rychlost propojení |
---|---|---|
NIC1 | Síťový adaptér č. 1 | 25 Gb/s |
NIC2 | Síťový adaptér č. 2 | 25 Gb/s |
NIC3 | Síťový adaptér č. 3 | 25 Gb/s |
NIC4 | Síťový adaptér č. 4 | 25 Gb/s |
Poznámka:
SET podporuje pouze konfiguraci nezávislou na přepínači pomocí dynamických algoritmů nebo algoritmů vyrovnávání zatížení portů Hyper-V. Pokud chcete dosáhnout nejlepšího výkonu, doporučuje se u všech síťových karet, které fungují rychlostí 10 Gbps a více, použít port Hyper-V. Síťová ATC vytvoří všechny požadované konfigurace pro SET.
Důležité informace o provozu RDMA
Pokud implementujete DCB, musíte zajistit, aby byla správně implementována konfigurace PFC a ETS napříč všemi síťovými porty, včetně síťových přepínačů. DcB se vyžaduje pro RoCE a volitelný pro iWARP.
Podrobné informace o nasazení RDMA potřebujete stáhnout dokument z úložiště SDN Na GitHubu.
Implementace Azure Stack HCI založené na RoCE vyžadují konfiguraci tří tříd provozu PFC, včetně výchozí třídy provozu, napříč prostředky infrastruktury a všemi hostiteli.
Třída provozu clusteru
Tato třída provozu zajišťuje, že je dostatek šířky pásma vyhrazená pro prezenční signály clusteru:
- Povinné: Ano
- S podporou PFC: Ne
- Doporučená priorita provozu: Priorita 7
- Doporučená rezervace šířky pásma:
- 10 GbE nebo nižší sítě RDMA = 2 procenta
- 25 GbE nebo vyšší sítě RDMA = 1 procento
Třída provozu RDMA
Tato třída provozu zajišťuje, že je dostatek šířky pásma vyhrazená pro bezeztrátovou komunikaci RDMA pomocí smb Direct:
- Povinné: Ano
- S podporou PFC: Ano
- Doporučená priorita provozu: Priorita 3 nebo 4
- Doporučená rezervace šířky pásma: 50 procent
Výchozí třída provozu
Tato třída provozu nese všechny ostatní přenosy, které nejsou definovány v clusteru nebo třídách přenosů RDMA, včetně provozu virtuálního počítače a provozu správy:
- Povinné: Ve výchozím nastavení (na hostiteli není nutná žádná konfigurace)
- Řízení toku (PFC)- povoleno: Ne
- Doporučená třída provozu: Ve výchozím nastavení (Priorita 0)
- Doporučená rezervace šířky pásma: Ve výchozím nastavení (nevyžaduje se žádná konfigurace hostitele)
Modely provozu úložiště
Protokol SMB poskytuje mnoho výhod jako protokol úložiště pro Azure Stack HCI, včetně smb Multichannel. Protokol SMB Multichannel není popsaný v tomto článku, ale je důležité si uvědomit, že provoz je multiplexovaný přes všechny možné propojení, které může protokol SMB Multichannel používat.
Poznámka:
K oddělení provozu úložiště ve službě Azure Stack HCI doporučujeme použít více podsítí a sítí VLAN.
Podívejte se na následující příklad clusteru se čtyřmi uzly. Každý server má dva porty úložiště (vlevo a vpravo). Vzhledem k tomu, že každý adaptér je ve stejné podsíti a síti VLAN, rozdělí smb Multichannel připojení mezi všechny dostupné odkazy. Proto levý port na prvním serveru (192.168.1.1.1) vytvoří připojení k levému portu na druhém serveru (192.168.1.2). Pravý port na prvním serveru (192.168.1.12) se připojí k pravému portu na druhém serveru. Podobná připojení jsou vytvořena pro třetí a čtvrtý server.
To však vytváří zbytečná připojení a způsobuje zahlcení v agregační skupině propojení (skupina agregace více skříní nebo MC-LAG), která spojuje přepínače ToR (označené Xs). Podívejte se na následující diagram:
Doporučeným přístupem je použití samostatných podsítí a sítí VLAN pro každou sadu adaptérů. V následujícím diagramu teď pravé porty používají podsíť 192.168.2.x /24 a VLAN2. To umožňuje, aby provoz na portech na levé straně zůstal na TOR1 a provoz na pravých portech zůstal na TOR2.
Přidělení šířky pásma provozu
Následující tabulka ukazuje příklad přidělování šířky pásma různých typů přenosů pomocí běžných rychlostí adaptérů v Azure Stack HCI. Všimněte si, že toto je příklad sblíženého řešení, kdy všechny typy provozu (výpočetní prostředky, úložiště a správa) běží přes stejné fyzické adaptéry a jsou seskupené pomocí set.
Vzhledem k tomu, že tento případ použití představuje největší omezení, představuje dobrý směrný plán. Nicméně vzhledem k permutacím počtu adaptérů a rychlostí by se to mělo považovat za příklad, a ne požadavek na podporu.
V tomto příkladu jsou provedeny následující předpoklady:
Každý tým má dva adaptéry.
Vrstva sběrnice úložiště (SBL), sdílený svazek clusteru (CSV) a provoz Hyper-V (migrace za provozu):
- Použijte stejné fyzické adaptéry.
- Použijte protokol SMB.
Smb má přidělení šířky pásma 50 procent pomocí DCB.
- SBL/CSV je provoz s nejvyšší prioritou a přijímá 70 procent rezervace šířky pásma SMB.
- Migrace za provozu (LM) je omezena pomocí
Set-SMBBandwidthLimit
rutiny a přijímá 29 procent zbývající šířky pásma.Pokud je dostupná šířka pásma pro migraci >za provozu = 5 Gb/s a síťové adaptéry jsou schopné, použijte RDMA. K tomu použijte následující rutinu:
Set-VMHost -VirtualMachineMigrationPerformanceOption SMB
Pokud je dostupná šířka pásma pro migraci < za provozu 5 Gb/s, snižte dobu výpadku pomocí komprese. K tomu použijte následující rutinu:
Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
Pokud pro přenosy migrace za provozu používáte RDMA, ujistěte se, že provoz migrace za provozu nemůže využívat celou šířku pásma přidělenou třídě přenosů RDMA pomocí limitu šířky pásma SMB. Buďte opatrní, protože tato rutina přijímá vstup v bajtech za sekundu (Bps), zatímco síťové adaptéry jsou uvedeny v bitech za sekundu (bps). Pomocí následující rutiny nastavte limit šířky pásma 6 Gb/s, například:
Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
Poznámka:
750 MB/s v tomto příkladu odpovídá 6 Gb/s.
Tady je příklad tabulky přidělení šířky pásma:
Rychlost síťové karty | Seskupené šířky pásma | Rezervace šířky pásma SMB** | SBL/CSV % | Šířka pásma SBL/CSV | Migrace za provozu % | Maximální šířka pásma migrace za provozu | Prezenčních signálů % | Šířka pásma prezenčních signálů |
---|---|---|---|---|---|---|---|---|
10 Gb/s | 20 Gb/s | 10 Gb/s | 70 % | 7 Gb/s | * | 200 Mb/s | ||
25 Gb/s | 50 Gb/s | 25 Gb/s | 70 % | 17,5 Gb/s | 29 % | 7,25 Gb/s | 1 % | 250 MB/s |
40 Gb/s | 80 Gb/s | 40 Gb/s | 70 % | 28 Gb/s | 29 % | 11,6 Gb/s | 1 % | 400 Mb/s |
50 Gb/s | 100 Gb/s | 50 Gb/s | 70 % | 35 Gb/s | 29 % | 14,5 Gb/s | 1 % | 500 Mb/s |
100 Gb/s | 200 Gb/s | 100 Gb/s | 70 % | 70 Gb/s | 29 % | 29 Gb/s | 1 % | 1 Gb/s |
200 Gb/s | 400 Gb/s | 200 Gb/s | 70 % | 140 Gb/s | 29 % | 58 Gb/s | 1 % | 2 Gb/s |
* Použijte kompresi místo RDMA, protože přidělení šířky pásma pro provoz migrace za provozu je <5 Gb/s.
** 50 procent je příkladem rezervace šířky pásma.
Roztažené shluky
Roztažené clustery poskytují zotavení po havárii, které zahrnuje více datacenter. V nejjednodušší podobě vypadá roztažená síť clusteru Azure Stack HCI takto:
Požadavky na roztažené clustery
Důležité
Funkce roztaženého clusteru je dostupná jenom v Azure Stack HCI verze 22H2.
Roztažené clustery mají následující požadavky a charakteristiky:
Přímý přístup do paměti (RDMA) je omezený na jednu lokalitu a nepodporuje se napříč různými lokalitami nebo podsítěmi.
Servery ve stejné lokalitě se musí nacházet ve stejném racku a hranici vrstvy 2.
Komunikace mezi lokalitami musí překračovat hranice vrstvy 3; Roztažené topologie vrstvy 2 se nepodporují.
Máte dostatečnou šířku pásma pro spouštění úloh na druhé lokalitě. V případě převzetí služeb při selhání bude muset alternativní lokalita spouštět veškerý provoz. Doporučujeme zřídit lokality na 50 procentech dostupné síťové kapacity. To ale není požadavek, pokud během převzetí služeb při selhání dokážete tolerovat nižší výkon.
Adaptéry používané pro komunikaci mezi lokalitami:
Může to být fyzický nebo virtuální (hostitelský virtuální adaptér). Pokud jsou adaptéry virtuální, musíte zřídit jeden virtuální síťový adaptér ve své vlastní podsíti a síti VLAN na fyzickou síť NIC.
Musí být ve vlastní podsíti a síti VLAN, které se můžou směrovat mezi lokalitami.
RDMA musí být zakázán pomocí rutiny
Disable-NetAdapterRDMA
. Doporučujeme explicitně vyžadovat, aby replika úložiště používala konkrétní rozhraní pomocí rutinySet-SRNetworkConstraint
.Musí splňovat všechny další požadavky pro repliku úložiště.
Další kroky
- Seznamte se s požadavky na síťový přepínač a fyzickou síť. Viz požadavky na fyzickou síť.
- Zjistěte, jak zjednodušit sítě hostitelů pomocí síťové ATC. Viz Zjednodušení sítě hostitelů pomocí síťové ATC.
- Základní informace o sítích clusteringu s podporou převzetí služeb při selhání
- Viz Nasazení pomocí webu Azure Portal.
- Viz Nasazení pomocí šablony Azure Resource Manageru.