Udostępnij za pośrednictwem


Zapoznaj się ze wzorcem dokumentacji sieci wdrażania magazynu pojedynczego serwera dla usługi Azure Stack HCI

Dotyczy: Azure Stack HCI, wersje 23H2 i 22H2

W tym artykule opisano wzorzec referencyjny sieci magazynu pojedynczego serwera, którego można użyć do wdrożenia rozwiązania Azure Stack HCI. Informacje zawarte w tym artykule ułatwiają również określenie, czy ta konfiguracja jest opłacalna dla potrzeb dotyczących planowania wdrożenia. Ten artykuł jest przeznaczony dla administratorów IT, którzy wdrażają usługę Azure Stack HCI i zarządzają nią w swoich centrach danych.

Aby uzyskać informacje o innych wzorcach sieci, zobacz Wzorce wdrażania sieci usługi Azure Stack HCI.

Wprowadzenie

Wdrożenia z jednym serwerem zapewniają korzyści związane z kosztami i przestrzenią, pomagając jednocześnie zmodernizować infrastrukturę i przenieść hybrydowe przetwarzanie platformy Azure do lokalizacji, które mogą tolerować odporność pojedynczego serwera. Rozwiązanie Azure Stack HCI uruchomione na jednym serwerze działa podobnie do usługi Azure Stack HCI w klastrze z wieloma węzłami: zapewnia natywną integrację usługi Azure Arc, możliwość dodawania serwerów do skalowania w poziomie klastra i obejmuje te same korzyści platformy Azure.

Obsługuje również te same obciążenia, takie jak azure Virtual Desktop (AVD) i AKS w usłudze Azure Stack HCI, obsługiwane i rozliczane w taki sam sposób.

Scenariusze

Użyj wzorca magazynu pojedynczego serwera w następujących scenariuszach:

  • Urządzenia, które mogą tolerować niższy poziom odporności. Rozważ wdrożenie tego wzorca za każdym razem, gdy lokalizacja lub usługa zapewniana przez ten wzorzec może tolerować niższy poziom odporności bez wpływu na twoją firmę.

  • Żywność, opieka zdrowotna, finanse, handel detaliczny, placówki rządowe. Niektóre scenariusze żywności, opieki zdrowotnej, finansów i handlu detalicznego mogą zastosować tę opcję, aby zminimalizować koszty bez wpływu na podstawowe operacje i transakcje biznesowe.

Mimo że usługi sieci zdefiniowanej programowo (SDN) w warstwie 3 (L3) są w pełni obsługiwane w tym wzorzec, usługi routingu, takie jak Border Gateway Protocol (BGP) mogą być skonfigurowane dla urządzenia zapory na przełączniku TOR (top-of-rack).

Funkcje zabezpieczeń sieci, takie jak mikrosegmentacja i jakość usługi (QoS) nie wymagają dodatkowej konfiguracji dla urządzenia zapory, ponieważ są one implementowane w warstwie wirtualnej karty sieciowej. Aby uzyskać więcej informacji, zobacz Microsegmentation with Azure Stack HCI (Mikrosegmentacja za pomocą rozwiązania Azure Stack HCI).

Uwaga

Pojedyncze serwery muszą używać tylko jednego typu dysku: dyski SSD (Non-volatile Memory Express) lub Solid-State (SSD).

Składniki łączności fizycznej

Jak pokazano na poniższym diagramie, ten wzorzec ma następujące składniki sieci fizycznej:

  • W przypadku ruchu przychodzącego na północ/południe klaster usługi Azure Stack HCI jest implementowany przy użyciu jednego przełącznika TOR L2 lub L3.
  • Dwa zespołowe porty sieciowe do obsługi zarządzania i ruchu obliczeniowego podłączonego do przełącznika.
  • Dwie odłączone karty sieciowe RDMA, które są używane tylko w przypadku dodania drugiego serwera do klastra na potrzeby skalowania w poziomie. Oznacza to brak zwiększonych kosztów okablowania ani portów przełącznika fizycznego.
  • (Opcjonalnie) Karta BMC może służyć do zdalnego zarządzania środowiskiem. W celach zabezpieczających niektóre rozwiązania mogą używać konfiguracji bez użycia karty BMC.

Diagram przedstawiający układ łączności fizycznej z jednym serwerem.

W poniższej tabeli wymieniono niektóre wskazówki dotyczące wdrożenia pojedynczego serwera:

Sieć Zarządzanie & obliczeniowe Storage Kontroler zarządzania płytą główną
Szybkość łącza Co najmniej 1 Gb/s, jeśli funkcja RDMA jest wyłączona, zalecane jest użycie 10 Gb/s. Co najmniej 10 Gb/s. Sprawdź producenta sprzętu.
Typ interfejsu RJ45, SFP+lub SFP28 SFP+ lub SFP28 RJ45
Porty i agregacja Dwa porty zespołowe Opcjonalnie, aby zezwolić na dodawanie drugiego serwera; rozłączone porty. Jeden port
Dostęp RDMA Opcjonalny. Zależy od wymagań dotyczących obsługi funkcji RDMA gościa i karty sieciowej. Nie dotyczy NIE DOTYCZY

Intencje usługi ATC sieci

Wzorzec pojedynczego serwera używa tylko jednej intencji sieciowej usługi ATC do zarządzania i ruchu obliczeniowego. Interfejsy sieciowe RDMA są opcjonalne i rozłączone.

Diagram przedstawiający intencje usługi ATC sieci dla wzorca bez przełącznika pojedynczego serwera.

Intencja zarządzania i obliczeń

Intencja zarządzania i obliczeń ma następujące cechy:

  • Typ intencji: Zarządzanie i obliczenia
  • Tryb intencji: tryb klastra
  • Tworzenie zespołu: Tak — pNIC01 i pNIC02 są zespołowe
  • Domyślna sieć VLAN zarządzania: skonfigurowana sieć VLAN dla kart zarządzania jest umodyfikowana
  • Pa VLAN i vNICs: sieć ATC jest przezroczysta dla sieci VNICs i VLAN pa
  • Obliczeniowe sieci VLAN i vNICs: sieć ATC jest niewidoczna dla obliczeń wirtualnych sieci VNIC i sieci VLAN maszyn wirtualnych

Intencja magazynu

Intencja magazynu ma następujące cechy:

  • Typ intencji: Brak
  • Tryb intencji: Brak
  • Tworzenie zespołu: pNIC03 i pNIC04 są rozłączone
  • Domyślne sieci VLAN: Brak
  • Domyślne podsieci: Brak

Wykonaj następujące kroki, aby utworzyć intencję sieci dla tego wzorca referencyjnego:

  1. Uruchom program PowerShell jako administrator.

  2. Uruchom następujące polecenie:

    Add-NetIntent -Name <management_compute> -Management -Compute -ClusterName <HCI01> -AdapterName <pNIC01, pNIC02>
    

Aby uzyskać więcej informacji, zobacz Deploy host networking: Compute and management intent (Wdrażanie sieci hostów: intencja obliczeniowa i zarządzanie).

Składniki sieci logicznej

Jak pokazano na poniższym diagramie, ten wzorzec ma następujące składniki sieci logicznej:

Diagram przedstawiający układ łączności logicznej z jednym serwerem.

Sieci VLAN sieci magazynowania

Opcjonalnie — ten wzorzec nie wymaga sieci magazynu.

Sieć OOB

Sieć poza pasmem (OOB) jest przeznaczona do obsługi interfejsu zarządzania serwerem "lights-out" znanego również jako kontroler zarządzania płytą główną (BMC). Każdy interfejs BMC łączy się z przełącznikiem dostarczonym przez klienta. Kontroler BMC służy do automatyzowania scenariuszy rozruchu środowiska PXE.

Sieć zarządzania wymaga dostępu do interfejsu BMC przy użyciu portu 623 protokołu UDP (Intelligent Platform Management Interface).

Sieć OOB jest odizolowana od obciążeń obliczeniowych i jest opcjonalna dla wdrożeń nienależących do rozwiązań.

Zarządzanie siecią VLAN

Wszystkie fizyczne hosty obliczeniowe wymagają dostępu do sieci logicznej zarządzania. W przypadku planowania adresów IP każdy fizyczny host obliczeniowy musi mieć co najmniej jeden adres IP przypisany z sieci logicznej zarządzania.

Serwer DHCP może automatycznie przypisywać adresy IP dla sieci zarządzania lub ręcznie przypisywać statyczne adresy IP. Jeśli protokół DHCP jest preferowaną metodą przypisywania adresów IP, zalecamy używanie rezerwacji DHCP bez wygaśnięcia.

Sieć zarządzania obsługuje następujące konfiguracje sieci VLAN:

  • Natywna sieć VLAN — nie jest wymagana do dostarczania identyfikatorów sieci VLAN. Jest to wymagane w przypadku instalacji opartych na rozwiązaniu.

  • Oznakowana sieć VLAN — w momencie wdrażania podajesz identyfikatory sieci VLAN. połączenia dzierżawy w każdej bramie i przełącza ruch sieciowy do bramy rezerwowej, jeśli brama ulegnie awarii.

Bramy używają protokołu Border Gateway Protocol do anonsowania punktów końcowych GRE i ustanawiania połączeń punkt-punkt. Wdrożenie SDN tworzy domyślną pulę bramy, która obsługuje wszystkie typy połączeń. W tej puli można określić liczbę bram zarezerwowanych w trybie wstrzymania w przypadku niepowodzenia aktywnej bramy.

Aby uzyskać więcej informacji, zobacz Co to jest brama RAS dla SDN?

Sieć zarządzania obsługuje cały ruch używany do zarządzania klastrem, w tym pulpitu zdalnego, Windows Admin Center i usługi Active Directory.

Aby uzyskać więcej informacji, zobacz Planowanie infrastruktury SDN: zarządzanie i dostawca HNV.

Obliczenia sieci VLAN

W niektórych scenariuszach nie trzeba używać sieci wirtualnych SDN z hermetyzacją wirtualnej sieci LAN (VXLAN). Zamiast tego można użyć tradycyjnych sieci VLAN do izolowania obciążeń dzierżawy. Te sieci VLAN są konfigurowane na porcie przełącznika TOR w trybie magistrali. Podczas łączenia nowych maszyn wirtualnych z tymi sieciami VLAN odpowiedni tag sieci VLAN jest definiowany na wirtualnej karcie sieciowej.

Sieć dostawcy HNV (PA)

Sieć dostawcy wirtualizacji sieci funkcji Hyper-V (HNV) służy jako podstawowa sieć fizyczna dla ruchu dzierżawczego East/West (internal-internal), ruchu dzierżawy North/South (external-internal) i wymiany informacji dotyczących komunikacji równorzędnej BGP z siecią fizyczną. Ta sieć jest wymagana tylko wtedy, gdy istnieje potrzeba wdrożenia sieci wirtualnych przy użyciu hermetyzacji sieci VXLAN dla innej warstwy izolacji i wielodostępności sieci.

Aby uzyskać więcej informacji, zobacz Planowanie infrastruktury SDN: zarządzanie i dostawca HNV.

Opcje izolacji sieciowej

Obsługiwane są następujące opcje izolacji sieciowej:

Sieci VLAN (IEEE 802.1Q)

Sieci VLAN umożliwiają urządzeniom, które muszą być oddzielone, aby współużytkować okablowanie sieci fizycznej, a jednak nie mogły bezpośrednio wchodzić ze sobą w interakcje. Dzięki temu współużytkowanie zarządzane zapewnia prostotę, bezpieczeństwo, zarządzanie ruchem i gospodarkę. Na przykład sieć VLAN może służyć do oddzielania ruchu w firmie na podstawie poszczególnych użytkowników lub grup użytkowników lub ich ról albo na podstawie cech ruchu. Wiele internetowych usług hostingowych używa sieci VLAN do oddzielania stref prywatnych od siebie, umożliwiając grupowanie serwerów każdego klienta w jednym segmencie sieci niezależnie od tego, gdzie poszczególne serwery znajdują się w centrum danych. Niektóre środki ostrożności są potrzebne, aby zapobiec "ucieczki" ruchu z danej sieci VLAN, luki znanej jako przeskoki sieci VLAN.

Aby uzyskać więcej informacji, zobacz Omówienie użycia sieci wirtualnych i sieci VLAN.

Domyślne zasady dostępu do sieci i mikrosegmentacja

Domyślne zasady dostępu do sieci zapewniają, że wszystkie maszyny wirtualne w klastrze rozwiązania Azure Stack HCI są domyślnie zabezpieczone przed zagrożeniami zewnętrznymi. Dzięki tym zasadom domyślnie zablokujemy dostęp przychodzący do maszyny wirtualnej, dając jednocześnie możliwość włączania selektywnych portów przychodzących, a tym samym zabezpieczania maszyn wirtualnych przed atakami zewnętrznymi. To wymuszanie jest dostępne za pośrednictwem narzędzi do zarządzania, takich jak Windows Admin Center.

Mikrosegmentacja obejmuje tworzenie szczegółowych zasad sieciowych między aplikacjami i usługami. Zasadniczo zmniejsza to obwód zabezpieczeń do ogrodzenia wokół każdej aplikacji lub maszyny wirtualnej. To ogrodzenie umożliwia tylko niezbędną komunikację między warstwami aplikacji lub innymi granicami logicznymi, co sprawia, że niezwykle trudne dla cyberzagrożeń rozprzestrzeniania się później z jednego systemu na inny. Mikrosegmentacja bezpiecznie izoluje sieci od siebie i zmniejsza całkowitą powierzchnię ataków związanych ze zdarzeniem zabezpieczeń sieci.

Domyślne zasady dostępu do sieci i mikrosegmentacja są realizowane jako reguły zapory z pięcioma krotkami stanowymi (prefiks adresu źródłowego, port źródłowy, prefiks adresu docelowego, port docelowy i protokół) w klastrach rozwiązania Azure Stack HCI. Reguły zapory są również nazywane sieciowymi grupami zabezpieczeń Grupy( NSG). Te zasady są wymuszane na porcie przełącznika wirtualnego każdej maszyny wirtualnej. Zasady są wypychane przez warstwę zarządzania, a kontroler sieci SDN dystrybuuje je do wszystkich odpowiednich hostów. Te zasady są dostępne dla maszyn wirtualnych w tradycyjnych sieciach sieci VLAN i w sieciach nakładek sieci SDN.

Aby uzyskać więcej informacji, zobacz Co to jest zapora centrum danych?.  

QoS dla kart sieciowych maszyn wirtualnych

Możesz skonfigurować jakość usług (QoS) dla karty sieciowej maszyny wirtualnej, aby ograniczyć przepustowość interfejsu wirtualnego, aby zapobiec zmaganiu się z innym ruchem sieciowym maszyny wirtualnej. Możesz również skonfigurować funkcję QoS, aby zarezerwować określoną przepustowość dla maszyny wirtualnej, aby zapewnić, że maszyna wirtualna będzie mogła wysyłać ruch niezależnie od innego ruchu w sieci. Można to zastosować do maszyn wirtualnych dołączonych do tradycyjnych sieci VLAN, a także maszyn wirtualnych dołączonych do sieci nakładek sieci SDN.

Aby uzyskać więcej informacji, zobacz Konfigurowanie funkcji QoS dla karty sieciowej maszyny wirtualnej.

Sieci wirtualne

Wirtualizacja sieci udostępnia sieci wirtualne maszynom wirtualnym podobne do sposobu, w jaki wirtualizacja serwera (hypervisor) udostępnia maszyny wirtualne do systemu operacyjnego. Wirtualizacja sieci rozdziela sieci wirtualne z infrastruktury sieci fizycznej i usuwa ograniczenia przypisania sieci VLAN i hierarchicznego adresu IP z aprowizacji maszyn wirtualnych. Taka elastyczność ułatwia przechodzenie do chmur IaaS infrastruktury jako usługi i jest wydajne dla hostów i administratorów centrów danych w celu zarządzania infrastrukturą oraz utrzymania niezbędnej izolacji wielodostępnej, wymagań dotyczących zabezpieczeń i nakładających się adresów IP maszyn wirtualnych.

Aby uzyskać więcej informacji, zobacz Wirtualizacja sieci funkcji Hyper-V.

Opcje usług sieciowych L3

Dostępne są następujące opcje usługi sieciowej L3:

Komunikacja równorzędna sieci wirtualnej

Komunikacja równorzędna sieci wirtualnych umożliwia bezproblemowe łączenie dwóch sieci wirtualnych. Po połączeniu za pomocą komunikacji równorzędnej sieci wirtualne są wyświetlane jako jedna. Korzystanie z wirtualnych sieci równorzędnych zapewnia m.in. następujące korzyści:

  • Ruch między maszynami wirtualnymi w równorzędnych sieciach wirtualnych jest kierowany przez infrastrukturę szkieletową tylko za pośrednictwem prywatnych adresów IP. Komunikacja między sieciami wirtualnymi nie wymaga publicznego Internetu ani bram.
  • Połączenie o małych opóźnieniach i dużej przepustowości między zasobami w różnych sieciach wirtualnych.
  • Możliwość komunikacji zasobów w jednej sieci wirtualnej z zasobami w innej sieci wirtualnej.
  • Brak przestojów dla zasobów w żadnej sieci wirtualnej podczas tworzenia komunikacji równorzędnej.

Aby uzyskać więcej informacji, zobacz Komunikacja równorzędna sieci wirtualnych.

Programowy moduł równoważenia obciążenia sieci SDN

Dostawcy usług w chmurze (CSP) i przedsiębiorstwa wdrażające programową sieć zdefiniowaną przez oprogramowanie (SDN) mogą używać oprogramowania Load Balancer (SLB), aby równomiernie dystrybuować ruch sieciowy klienta między zasobami sieci wirtualnej. SLB umożliwia wielu serwerom hostowanie tego samego obciążenia, zapewniając wysoką dostępność i skalowalność. Jest ona również używana do zapewniania przychodzących usług translatora adresów sieciowych (NAT) na potrzeby dostępu przychodzącego do maszyn wirtualnych i wychodzących usług NAT na potrzeby łączności wychodzącej.

Za pomocą usługi SLB można skalować możliwości równoważenia obciążenia przy użyciu maszyn wirtualnych SLB na tych samych serwerach obliczeniowych funkcji Hyper-V, które są używane dla innych obciążeń maszyn wirtualnych. Usługa SLB obsługuje szybkie tworzenie i usuwanie punktów końcowych równoważenia obciążenia zgodnie z wymaganiami dotyczącymi operacji dostawcy CSP. Ponadto SLB obsługuje dziesiątki gigabajtów na klaster, zapewnia prosty model aprowizacji i jest łatwy do skalowania w poziomie i w poziomie. Usługa SLB używa protokołu Border Gateway Protocol do anonsowania wirtualnych adresów IP do sieci fizycznej.

Aby uzyskać więcej informacji, zobacz Co to jest SLB dla SDN?

Bramy sieci VPN sieci SDN

Brama SDN to oparty na oprogramowaniu router obsługujący protokół BGP (Border Gateway Protocol) przeznaczony dla dostawców CSP i przedsiębiorstw hostujących wielodostępne sieci wirtualne przy użyciu wirtualizacji sieci funkcji Hyper-V (HNV). Brama RAS umożliwia kierowanie ruchu sieciowego między siecią wirtualną a inną siecią lokalną lub zdalną.

Brama SDN może służyć do:

  • Twórca zabezpieczyć połączenia IPsec typu lokacja-lokacja między sieciami wirtualnymi SDN i zewnętrznymi sieciami klientów przez Internet.

  • Twórca połączenia gre (Generic Routing Encapsulation) między sieciami wirtualnymi SDN i sieciami zewnętrznymi. Różnica między połączeniami typu lokacja-lokacja i połączeniami GRE polega na tym, że ta ostatnia nie jest szyfrowanym połączeniem.

    Aby uzyskać więcej informacji na temat scenariuszy łączności GRE, zobacz Tunelowanie GRE w systemie Windows Server.

  • Twórca połączenia warstwy 3 (L3) między sieciami wirtualnymi SDN i sieciami zewnętrznymi. W takim przypadku brama SDN działa po prostu jako router między siecią wirtualną a siecią zewnętrzną.

Brama SDN wymaga kontrolera sieci SDN. Kontroler sieci wykonuje wdrożenie pul bramy, konfiguruje

Następne kroki

Dowiedz się więcej o wzorcach dwóch węzłów — wzorce wdrażania sieci usługi Azure Stack HCI.