Udostępnij za pośrednictwem


Jakość usług (QoS) — omówienie

 

Dotyczy: Windows Server 2012

QoS to zestaw technologii związanych z ekonomicznym zarządzaniem ruchem sieciowym w celu ułatwienia użytkownikowi pracy w środowiskach przedsiębiorstw, w małych biurach, a także w domu.

Niniejszy dokument zawiera informacje wprowadzające dotyczące jakości usług (QoS) w systemie Windows Server® 2012.

Funkcje jakości usług (QoS)

Technologie jakości usługi pozwalają spełnić wymagania usługi obciążenia lub aplikacji przez dokonywanie pomiarów przepustowości sieci, wykrywanie zmieniających się warunków sieciowych (takich jak przeciążenie lub dostępność przepustowości) i priorytetyzowanie ruchu sieciowego lub ograniczanie go. Technologii QoS można przykładowo użyć do priorytetyzacji ruchu w aplikacjach wrażliwych na opóźnienia (np. do strumieniowego przesyłania głosu lub wideo) oraz do sterowania wpływem ruchu niewrażliwego na opóźnienia (np. przesyłania zbiorczego danych).

Usługa QoS udostępnia niżej wymienione funkcje.

  • Zarządzanie przepustowością

  • Klasyfikacja i znakowanie

  • Sterowanie przepływem na podstawie priorytetów

  • Jakość usług (QoS) i funkcja Hyper-V oparta na zasadach

Informacje dotyczące tych funkcji zamieszczono w następnych sekcjach.

Uwaga

Usługa QoS została uwzględniona we wszystkich wersjach systemów Windows Server 2012 i Windows® 8 oraz obsługuje wszystkie interfejsy API QoS i funkcje zapewniane przez usługę QoS w systemach Windows Server® 2008 R2 i Windows® 7. Usługa QoS nie jest dostępna w systemie Windows® RT.

Zarządzanie przepustowością

W poprzednich wersjach usługi QoS, takich jak usługa QoS w systemie Windows Server 2012, funkcja przepustowości maksymalnej określa bezwzględną wartość graniczną — ograniczenie przepustowości — dla obciążenia. W systemie Windows Server 2012 wprowadzono pojęcie przepustowości minimalnej.

Przepustowość minimalna określa poziom usługi dla obciążenia w przypadku przeciążenia sieci, podczas gdy większe użycie przepustowości przez to obciążenie jest nadal dozwolone, gdy sieć nie jest przeciążona. Przeciążenie sieci występuje w systemie komputerowym wtedy, gdy wiele obciążeń współzawodniczy o dostęp do sieci zewnętrznej za pośrednictwem jednej karty sieciowej.

Gdy całkowite obciążenie przekracza wydajność karty sieciowej, przepustowość sieci dla poszczególnych obciążeń nie jest gwarantowana. Korzystając z funkcji przepustowości minimalnej, można określić sposób udostępniania przepustowości współzawodniczącym aplikacjom.

Na przykład magazyn, migracja na żywo i klaster mogą współużytkować kartę interfejsu sieciowego 10 GB na komputerze, na którym działa rola serwera funkcji Hyper-V. Jeśli wagi 50, 30 i 20 zostaną przypisane odpowiednio do magazynu, migracji na żywo i klastra, składniki te otrzymają odpowiednie udziały przepustowości w przypadku przeciążenia karty interfejsu sieciowego.

Zarówno przepustowość minimalna, jak i przepustowość maksymalna umożliwiają wymuszanie przewidywalnej przepływności sieci dla poszczególnych obciążeń. Z punktu widzenia administratora podstawowa różnica między nimi polega na sposobie wykorzystania zasobów sieciowych.

Użycie zasobów sieciowych

Gdy przepustowość maksymalna jest ustawiona dla obciążenia, obciążenie nie może przekraczać wartości granicznej, nawet jeśli żadne inne obciążenia w systemie nie korzystają z przepustowości sieci. Po ustawieniu przepustowości minimalnej dla obciążenia obciążenie może bez ograniczeń korzystać z przepustowości sieci do chwili, gdy wystąpi przeciążenie sieci. W poprzednim przykładzie, kiedy nie jest wykonywana migracja na żywo, zarówno magazyn, jak i klaster mogą przekraczać wstępnie zdefiniowane dla nich udziały przepustowości sieci.

Można włączyć funkcję przepustowości maksymalnej i/lub minimalnej — zależnie od wymagań scenariusza. Aby na przykład zapobiec nieoczekiwanemu użyciu całej dostępnej przepustowości połączenia z Internetem przez hostowaną maszynę wirtualną, publiczny dostawca usług hostingowych może skonfigurować ustawienie przepustowości maksymalnej QoS. Z drugiej strony, aby zapewnić maksymalne użycie przepustowości przez dowolny komputer, na którym działa rola serwera funkcji Hyper-V w centrum danych, można skonfigurować ustawienie przepustowości minimalnej dla tego serwera.

Funkcja SMB Direct (Server Message Block Direct) i mostkowanie centrum danych (DCB)

Przepustowość minimalną i maksymalną wymusza harmonogram pakietów QoS. Funkcje te działają prawidłowo w przypadku ruchu przepływającego przez stos sieciowy systemu Windows Server.

Część ruchu omija jednak stos sieciowy. Najlepszym przykładem jest funkcja SMB Direct w systemie Windows Server 2012 korzystająca ze zdalnego bezpośredniego dostępu do pamięci (RDMA). Funkcja SMB Direct umożliwia przekazanie części ruchu związanego z protokołem SMB bezpośrednio do karty interfejsu sieciowego z funkcją RDMA w celu zmniejszenia opóźnienia i liczby cykli procesora przeznaczanych na obsługę sieci. Funkcja SMB Direct współzawodniczy jednak o przepustowość z innym ruchem sieciowym w sprzętowej karcie interfejsu sieciowego, dlatego może niekorzystnie wpływać na ten ruch, a nawet blokować go, jeżeli nie będzie kontrolowana.

Aby rozwiązać ten problem, można użyć mostkowania centrum danych (DCB). Funkcja DCB jest implementowana w kartach sieciowych przez niektórych dostawców kart interfejsów sieciowych. Funkcja DCB działa podobnie do przepustowości minimalnej: do każdej klasy ruchu (odciążonego lub nie) przydzielana jest przepustowość. Jeśli sieć jest przeciążona, każda klasa otrzymuje swój udział. W przeciwnym wypadku każda klasa korzysta z przepustowości bez ograniczeń.

Klasyfikacja i znakowanie

Przed rozpoczęciem zarządzania przepustowością dla obciążenia należy sklasyfikować lub odfiltrować obciążenie, aby umożliwić obsługiwanie go przez harmonogram pakietów QoS lub kartę interfejsu sieciowego z funkcją DCB. W systemie Windows dostępne są zaawansowane opcje klasyfikacji ruchu sieciowego. Klasyfikacja może być oparta na krotce 5-elementowej, typie użytkownika lub identyfikatorze URI. System Windows Server 2012 upraszcza zarządzanie, dlatego można wywoływać filtry wbudowane w program Windows PowerShell w celu klasyfikowania najbardziej typowych obciążeń. Poniższa tabela zawiera listę tych wbudowanych filtrów.

Obciążenie

Wbudowany filtr (parametr) w programie Windows PowerShell

Implementacja filtru

Protokół iSCSI

-iSCSI

Dopasowanie portu 3260 TCP lub UDP

System plików NFS

-NFS

Dopasowanie portu 2049 TCP lub UDP

SMB

-SMB

Dopasowanie portu 445 TCP lub UDP

Migracja na żywo

-LiveMigration

Dopasowanie portu 6600 TCP

SMB Direct

-NetDirect<port>

Dopasowanie określonego portu

Symbol wieloznaczny

-Default

Dowolny niesklasyfikowany ruch

Uwaga

  • Funkcja SMB Direct odciąża ruch związany z protokołem SMB przez kartę interfejsu sieciowego. Gdy w zasadach QoS jest określona instrukcja „-NetDirect < port >”, system Windows wysyła tę instrukcję do dowolnej karty interfejsu sieciowego z funkcją SMB Direct. Następnie zgodne karty interfejsu sieciowego odfiltrowują ruch na podstawie określonego portu.

  • Symbol wieloznaczny umożliwia przechwytywanie dowolnego ruchu, który nie jest odfiltrowywany lub nie został sklasyfikowany. Na przykład można użyć filtru symbolu wieloznacznego w celu utworzenia klasy ruchu związanego z zarządzaniem na komputerze, na którym działa rola serwera funkcji Hyper-V.

Zarządzanie przepustowością nie jest jedyną akcją, którą można określić w zasadach QoS. Na przykład można przypisać priorytet i tag do ruchu sieciowego, tak aby jakość usług (QoS) była wymuszana w całym centrum danych.

Poprzednie wersje systemu Windows obsługują znakowanie priorytetów w nagłówku pakietu sieciowego protokołu IP. Bity priorytetu są określane nazwą DSCP (Differentiation Service Code Point). W systemie Windows Server 2012 dodano obsługę znakowania 802.1p. 802.1p jest 3-bitową wartością priorytetu w ramce Ethernet warstwy 2. W związku z tym standard ten jest stosowany w odniesieniu do pakietów protokołów niezwiązanych z IP, takich jak RDMA przez Ethernet.

Sterowanie przepływem na podstawie priorytetów

Takie obciążenia jak RDMA wymagają bezstratnego transportu. Jeśli protokół RDMA jest oparty bezpośrednio na protokole Ethernet — ROCE (RDMA over Converged Ethernet) — transport Ethernet musi być bezstratny. Tradycyjnym rozwiązaniem jest sterowanie przepływem na poziomie łącza za pomocą ramki Pause protokołu 802.3. Sterowanie przepływem na poziomie łącza powoduje jednak problemy, np. blokowanie nagłówków wierszy.

Problem ten został rozwiązany przez sterowanie przepływem na podstawie priorytetów (PFC, Priority based Flow Control), które jest jednym ze standardów opracowanych przez grupę roboczą DCB organizacji IEEE (Institute of Electrical and Electronics Engineers). System Windows Server 2012 umożliwia włączenie funkcji PFC pod warunkiem, że jest ona obsługiwana przez kartę interfejsu sieciowego. Po włączeniu funkcji PFC dla protokołu ROCE na obu zakończeniach łącza Ethernet bezstratne jest tylko łącze wirtualne przeznaczone dla protokołu ROCE, określone przez wartość priorytetu, a problem z blokowaniem nagłówków wierszy nie występuje w przypadku pozostałych obciążeń tego samego łącza fizycznego.

Jakość usług (QoS) i funkcja Hyper-V oparta na zasadach

Funkcja QoS w systemie Windows Server® 2012 ułatwia administratorom zarządzanie ruchem w sieci fizycznej i wirtualnej. Ustawienia QoS oparte na zasadach umożliwiają zarządzanie ruchem w sieci fizycznej. Korzystając z nowej funkcji Hyper-V QoS, można zarządzać ruchem w sieci wirtualnej.

Ustawienia QoS oparte na zasadach

Ustawienia QoS oparte na zasadach mogą służyć do zarządzania ruchem w sieci fizycznej. Korzystając z ustawień QoS opartych na zasadach, można kontrolować przepustowość na podstawie typu aplikacji, użytkowników i komputerów. Ustawienia QoS oparte na zasadach umożliwiają zarządzanie ruchem w celu kontrolowania kosztów przepustowości, negocjowania poziomów usług z dostawcami przepustowości lub działami biznesowymi i zapewnić lepszą obsługę użytkowników końcowych. Ustawienia QoS oparte na zasadach są wbudowane w zasady grupy i są częścią istniejącej infrastruktury zarządzania, dlatego są ekonomicznym rozwiązaniem, które można wdrożyć.

Zalety ustawień QoS opartych na zasadach:

  • Wymuszanie przepustowości minimalnej dla przepływu ruchu identyfikowanego przez filtr krotki 5-elementowej.

    Uwaga

    Określenie „krotka 5-elementowa” w kontekście sieci komputerowych opisuje zestaw pięciu różnych wartości stanowiących połączenie protokołu TCP/IP (Transmission Control Protocol/Internet Protocol).

  • Konfigurowanie i wyświetlanie zasad QoS oraz wykonywanie zapytań dotyczących zasad QoS, które wymuszają przepustowość minimalną i maksymalną oraz znakowanie 802.1p lub DSCP (Differentiated Services Code Point) w odniesieniu do filtrowanych pakietów za pomocą usługi WMI i programu PowerShell.

    Uwaga

    • DSCP jest polem w nagłówku protokołu IPv4 lub IPv6 w sieciach komputerowych.

    • 802.1p jest specyfikacją organizacji IEEE (Institute of Electrical and Electronics Engineers) umożliwiającą przełącznikom warstwy 2 przypisywanie priorytetów do ruchu sieciowego i dynamiczne filtrowanie multiemisji.

  • Użycie edytorów zasad grupy do konfigurowania zasad eQoS (Extended Quality of Service) do znakowania pakietów wartością 802.1p.

  • Konfigurowanie lokalnych zasad QoS na komputerach, które nie są przyłączone do domeny.

Aby uzyskać więcej informacji, zobacz temat Ustawienia jakości usług (QoS) oparte na zasadach.

Funkcja Hyper-V QoS

Korzystając z funkcji Hyper-V QoS, można zarządzać ruchem w sieci wirtualnej. W systemie Windows Server® 2012 technologie QoS obejmują nowe funkcje zarządzania przepustowością, które umożliwiają dostawcom usług w chmurze i przedsiębiorstwom oferowanie usług dostarczających przewidywalną wydajność sieci maszynom wirtualnym na serwerze, na którym działa rola serwera funkcji Hyper-V. Funkcja Hyper-V QoS obsługuje zarządzanie górnymi i dolnymi limitami przepustowości, zwanymi powszechnie przepustowością maksymalną i przepustowością minimalną.

W środowiskach hostowanych funkcja Hyper-V QoS umożliwia zagwarantowanie określonych poziomów wydajności na podstawie umów dotyczących poziomu usług (umów SLA) zawartych z klientami. Funkcja Hyper-V QoS pomaga w zapobieganiu naruszeniu współużytkowanej infrastruktury klienta (obejmującej zasoby obliczeniowe, magazynowe i sieciowe) lub innemu wpływowi na nią innych klientów.

Ponadto sieci przedsiębiorstwa mogą wymagać podobnych funkcji. Korzystając z funkcji Hyper-V QoS w przedsiębiorstwie, można uruchomić wiele serwerów aplikacji opartych na maszynach wirtualnych na serwerze hosta, na którym działa funkcja Hyper-V, i mieć pewność, że wydajność poszczególnych serwerów aplikacji będzie przewidywalna.

Zalety funkcji Hyper-V QoS:

  • Wymusza minimalną i maksymalną przepustowość dla przepływu danych, który jest identyfikowany przez numer portu przełącznika wirtualnego funkcji Hyper-V.

  • Skonfiguruj minimalną i maksymalną przepustowość dla portu przełącznika wirtualnego funkcji Hyper-V za pomocą poleceń cmdlet programu PowerShell lub Instrumentacji zarządzania Windows (WMI).

  • Skonfiguruj kilka kart sieci wirtualnej w funkcji Hyper-V i określ ustawienia QoS dla każdej wirtualnej karty sieciowej.

Funkcja Hyper-V QoS systemu Windows Server 2012 może również używać sprzętu obsługującego mostkowanie centów danych (DCB) do łączenia ruchu sieciowego różnego typu na jednej karcie sieciowej z gwarantowanym poziomem usługi dla poszczególnych typów ruchu. Korzystając z programu Windows PowerShell, można konfigurować te nowe funkcje ręcznie lub automatycznie zarządzać za pomocą skryptów grupą serwerów, niezależnie od tego, czy są przyłączone do domeny.