Deduplikacja magazynu programu DPM

Ważne

Ta wersja programu Data Protection Manager (DPM) osiągnęła koniec wsparcia technicznego. Zalecamy uaktualnienie do programu DPM 2022.

Program System Center Data Protection Manager (DPM) może używać deduplikacji danych.

Deduplikacja danych (deduplikacja) znajduje i usuwa zduplikowane dane w woluminie przy jednoczesnym zapewnieniu, że dane pozostaną poprawne i kompletne. Przeczytaj więcej na temat planowania deduplikacji.

  • Deduplikacja zmniejsza zużycie magazynu. Chociaż ilość nadmiarowości zestawu danych zależy od obciążenia i typu danych, zazwyczaj dane kopii zapasowej wykazują duże oszczędności podczas deduplikacji.

  • Redundancja danych można być jeszcze bardziej ograniczona za pomocą deduplikacji podczas wspólnego przetwarzania danych kopii zapasowej podobnych typów i obciążeń.

  • Deduplikacja została zaprojektowana tak, aby była instalowana na podstawowych woluminach danych bez dodatkowego dedykowanego sprzętu, dzięki czemu nie ma wpływu na obciążenie podstawowe na serwerze. Ustawienia domyślne są nieintrusywne, ponieważ umożliwiają one starzenie się danych przez pięć dni przed przetworzeniem określonego pliku i mają domyślny minimalny rozmiar pliku wynoszący 32 KB. Implementacja została zaprojektowana z myślą o małym użyciu pamięci i procesora CPU.

  • Deduplikację można zaimplementować dla następujących obciążeń:

    • Ogólne udziały plików: publikowanie i udostępnianie zawartości grupy, foldery macierzyste użytkownika i pliki offline/przekierowanie folderu.

    • Udziały wdrożenia oprogramowania: pliki binarne, obrazy i aktualizacje oprogramowania.

    • Biblioteki wirtualnego dysku twardego: magazyn plików wirtualnego dysku twardego na potrzeby inicjowania obsługi administracyjnej funkcji hypervisor.

    • Wdrożenia infrastruktury VDI (tylko system Windows Server 2012 R2): wdrożenia infrastruktury pulpitu wirtualnego (VDI) korzystające z funkcji Hyper-V.

    • Zwirtualizowane kopie zapasowe: rozwiązania do tworzenia kopii zapasowych (takie jak program DPM uruchomiony na maszynie wirtualnej funkcji Hyper-V), które zapisują dane kopii zapasowej w plikach VHD/VHDX na serwerze plików systemu Windows

Program DPM i deduplikacja

Korzystanie z deduplikacji w programie DPM może ułatwić uzyskiwanie dużych oszczędności. Ilość miejsca oszczędzanego przez funkcję deduplikacji podczas optymalizacji danych kopii zapasowej programu DPM zależy od typu danych uwzględnianych w tworzonej kopii zapasowej. Na przykład tworzenie kopii zapasowej zaszyfrowanego serwera baz danych może spowodować minimalne oszczędności, ponieważ wszystkie zduplikowane dane są ukrywane podczas procesu szyfrowania. Jednak tworzenie kopii zapasowej dużego wdrożenia infrastruktury pulpitów wirtualnych (VDI) może spowodować duże oszczędności w zakresie od 70 do 90%, ponieważ zwykle istnieje duża ilość danych duplikowanych między środowiskami pulpitu wirtualnego. W konfiguracji opisanej w artykule uruchomiliśmy różne obciążenia testowe i zaobserwowaliśmy oszczędności w zakresie od 50% do 90%.

Aby użyć deduplikacji magazynu programu DPM, program DPM powinien być uruchomiony na maszynie wirtualnej funkcji Hyper-V i przechowywać dane kopii zapasowej na dyskach VHD w folderach udostępnionych z włączoną deduplikacji danych.

Aby wdrożyć program DPM jako maszynę wirtualną wykonującą kopię zapasową danych na woluminie dedupl, zalecamy użycie następującej topologii wdrożenia:

  • Program DPM działający na maszynie wirtualnej w klastrze hosta funkcji Hyper-V.

  • Magazyn programu DPM korzystający z plików VHD/VHDX przechowywanych w udziale SMB 3.0 na serwerze plików.

  • W naszym przykładzie testowym skonfigurowaliśmy serwer plików jako skalowany w poziomie serwer plików (SOFS) wdrożony przy użyciu woluminów magazynu skonfigurowanych z pul Miejsca do magazynowania utworzonych przy użyciu bezpośrednio połączonych dysków SAS. To wdrożenie zapewnia wydajność na dużą skalę.

Należy pamiętać, że:

  • To wdrożenie jest obsługiwane w przypadku programu DPM 2012 R2 i nowszych oraz dla wszystkich danych obciążeń, których kopie zapasowe można utworzyć w programie DPM 2012 R2 lub nowszym.

  • Wszystkie węzły serwera plików systemu Windows, na których znajdują się wirtualne dyski twarde programu DPM i na których zostanie włączona deduplikacja, muszą być uruchomione Windows Server 2012 R2 z pakietem zbiorczym aktualizacji w listopadzie 2014 r. lub nowszym.

  • Firma Microsoft udostępni ogólne zalecenia i instrukcje dotyczące wdrażania scenariusza. W każdym przykładzie odwołującym się do określonego sprzętu jako punkt odniesienia używany jest sprzęt wdrożony w systemie Microsoft Cloud Platform System (CPS).

  • W tym przykładzie użyto zdalnych udziałów SMB 3.0 do przechowywania danych kopii zapasowej, więc podstawowe wymagania sprzętowe skupiają się wokół węzłów serwera plików, a nie węzłów funkcji Hyper-V. Następująca konfiguracja sprzętu jest używana w systemie CPS na potrzeby magazynu kopii zapasowej i produkcyjnego. Ogólny sprzęt jest używany zarówno w przypadku magazynu kopii zapasowych, jak i produkcyjnego, ale liczba dysków wymienionych w obudach dysków jest używana tylko do tworzenia kopii zapasowych.

    • Cztery węzły — skalowanie w poziomie klastra serwera plików

    • Konfiguracja każdego węzła

      • 2x Procesor Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 rdzeni, 16 procesorów logicznych

      • Pamięć RDIMM 128 GB 1333 MHz

      • Połączenia magazynu: 2 porty sygnatury dostępu współdzielonego, 1 port 10 GbE iWarp/RDMA

    • Cztery obudowy dysków JBOD

      • 18 dysków w każdym zestawie JBOD — 16 x 4 TB dysków HDD + 2 x 800 GB dysków SSD

      • Podwójna ścieżka do każdego dysku — zasady równoważenia obciążenia we/wy wielościeżkowe ustawione na tryb failover

      • Dyski SSD skonfigurowane do zapisywania w pamięci podręcznej (WBC) i pozostałe dla dedykowanych dysków dziennika

Konfigurowanie woluminów deduplikacji

Zastanówmy się, jak duże powinny być woluminy, aby mogły obsługiwać deduplikowane pliki VHDX zawierające dane programu DPM. W systemie CPS utworzyliśmy woluminy o pojemności 7,2 TB. Optymalny rozmiar woluminu zależy głównie od zakresu i częstotliwości zmian danych w tym woluminie oraz od wielkości przepustowości dostępu do danych w podsystemie magazynu dysku. Należy pamiętać, że jeśli przetwarzanie deduplikacji nie może nadążyć za częstotliwością dziennych zmian danych (współczynnik zmian), stopa oszczędności spadnie do momentu zakończenia przetwarzania. Aby uzyskać bardziej szczegółowe informacje, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych. W przypadku woluminów deduplikacji zalecane są następujące ogólne wytyczne:

  • W celu uzyskania odporności i zwiększonego wykorzystania dysku należy używać miejsc do magazynowania z opcją parzystości i wykrywaniem obudów.

  • Sformatuj system NTFS z jednostkami alokacji 64 KB i dużymi segmentami rekordów plików, aby lepiej pracować z deduplikacjami plików rozrzedzonych.

  • W konfiguracji sprzętu powyżej zalecanego rozmiaru woluminu 7,2 TB woluminy zostaną skonfigurowane w następujący sposób:

    • Podwójna parzystość obudowy 7,2 TB + 1 GB pamięci podręcznej zapisu

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Wydajność parzystości podwójnej przy przeplotu 64 KB jest znacznie niższa niż w domyślnym przeplotu 256 KB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Usługa replikacji dużych plików

      Skonfiguruj nowy wirtualny dysk w określonej puli magazynów w następujący sposób:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Każdy z woluminów należy sformatować jako:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Następnie we wdrożeniu systemu CPS są one konfigurowane jako pliki CSV.

    • W tych woluminach program DPM będzie przechowywać serię plików VHDX do przechowywania danych kopii zapasowej. Włącz deduplikację na woluminie po sformatowaniu go w następujący sposób:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      To polecenie modyfikuje również następujące ustawienia deduplikacji na poziomie woluminu:

      • Ustaw wartość UsageType na HyperV: powoduje to przetwarzanie deduplikacji otwartych plików, które są wymagane, ponieważ pliki VHDX używane do przechowywania kopii zapasowych przez program DPM pozostają otwarte w programie DPM uruchomionym na maszynie wirtualnej.

      • Wyłącz partialFileOptimization: powoduje to deduplikację w celu zoptymalizowania wszystkich sekcji otwartego pliku zamiast skanowania pod kątem zmienionych sekcji o minimalnym wieku.

      • Ustaw parametr MinFileAgeDays na wartość 0: po wyłączeniu funkcji PartialFileOptimization funkcja MinFileAgeDays zmienia jego zachowanie, tak aby deduplikacja uwzględniała tylko pliki, które nie uległy zmianie w ciągu tej liczby dni. Ponieważ chcemy, aby podczas deduplikacji przetwarzanie danych kopii zapasowej wszystkich plików VHDX programu DPM rozpoczęło się bez opóźnień, musimy ustawić parametr MinFileAgeDays na wartość 0.

Aby uzyskać więcej informacji na temat konfigurowania deduplikacji, zobacz Instalowanie i konfigurowanie duplikowania danych.

Konfigurowanie magazynu programu DPM

Aby uniknąć problemów z fragmentacją i utrzymać wydajność, magazyn programu DPM jest przydzielany przy użyciu plików VHDX znajdujących się na deduplikowanym woluminie. Dziesięć dynamicznych plików VHDX o rozmiarze 1 TB każdych jest tworzonych na każdym woluminie i dołączonych do programu DPM. Ponadto 3 TB nadmiernej aprowizacji magazynu odbywa się w celu skorzystania z oszczędności magazynu generowanych przez deduplikację. W miarę jak deduplikacja generuje dodatkowe oszczędności magazynu, nowe pliki VHDX można tworzyć na tych woluminach, aby korzystać z zapisanego miejsca. Przetestowaliśmy serwer PROGRAMU DPM z dołączonymi do niego maksymalnie 30 plikami VHDX.

  1. Uruchom następujące polecenie, aby utworzyć wirtualne dyski twarde, które zostaną później dodane do serwera programu DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Następnie dodaj utworzone wirtualne dyski twarde do serwera programu DPM w następujący sposób:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Ten krok umożliwia skonfigurowanie puli magazynów jako dysku lub dysków, na których program DPM przechowuje repliki i punkty odzyskiwania dla chronionych danych. Ta pula jest częścią konfiguracji programu DPM i jest inna niż pula miejsc do magazynowania służąca do tworzenia woluminów danych opisanych w poprzedniej sekcji. Aby uzyskać więcej informacji na temat pul magazynów programu DPM, zobacz Konfigurowanie magazynu dysków i pul magazynów.

Konfigurowanie klastra serwera plików systemu Windows

Deduplikacja wymaga specjalnego zestawu opcji konfiguracji, który umożliwi obsługę zwirtualizowanego magazynu programu DPM z uwzględnieniem skali danych i rozmiaru poszczególnych plików. Są to opcje globalne względem klastra lub węzła klastra. W każdym węźle klastra należy włączyć deduplikację i indywidualnie skonfigurować ustawienia klastra.

  1. Włącz deduplikację w magazynie systemu Windows File Server — rola deduplikacji musi być zainstalowana na wszystkich węzłach klastra serwera plików systemu Windows. W tym celu uruchom następujące polecenie programu PowerShell w każdym węźle klastra:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Dostrajanie przetwarzania deduplikacji dla plików danych kopii zapasowej — uruchom następujące polecenie programu PowerShell, aby ustawić opcję uruchamiania optymalizacji bez opóźnień, a nie optymalizowanie częściowych zapisów plików. Domyślnie zadania odzyskiwania pamięci (GC) są zaplanowane co tydzień, a co czwarty tydzień zadanie GC jest uruchamiane w trybie "głębokiego odzyskiwania pamięci", aby uzyskać bardziej wyczerpujące i czasochłonne wyszukiwanie danych do usunięcia. W przypadku obciążenia programu DPM ten tryb "głębokiego odzyskiwania pamięci" nie powoduje żadnych recytacyjnych zysków i skraca czas, w którym deduplikacja może zoptymalizować dane. Dlatego tryb głębokiego odzyskiwania pamięci jest wyłączany.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Dostrajanie wydajności operacji na dużą skalę — uruchom następujący skrypt programu PowerShell, aby:

    • wyłączenia dodatkowego przetwarzania i operacji we-wy po uruchomieniu trybu głębokiego odzyskiwania pamięci,

    • zarezerwowania dodatkowej pamięci na potrzeby przetwarzania skrótów,

    • włączenia optymalizacji w celu umożliwienia natychmiastowej defragmentacji dużych plików.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Te ustawienia służą do modyfikowania następujących elementów:

    • HashIndexFullKeyReservationPercent: ta wartość steruje ilością pamięci zadania optymalizacji dla istniejących skrótów fragmentów w porównaniu z nowymi skrótami fragmentów. Na dużą skalę ustawienie 70% powoduje skuteczniejszą optymalizację przepływności niż domyślne ustawienie 50%.

    • EnablePriorityOptimization: w przypadku plików zbliżających się do 1 TB fragmentacja pojedynczego pliku może zgromadzić wystarczającą ilość fragmentów, aby zbliżyć się do limitu dla pliku. Przetwarzanie optymalizacji powoduje skonsolidowanie tych fragmentów i uniemożliwia osiągnięcie tego limitu. Dzięki ustawieniu tego klucza rejestru deduplikacja spowoduje dodanie dodatkowego procesu obsługującego bardzo pofragmentowane, deduplikowane pliki o wysokim priorytecie.

Konfigurowanie programu DPM i planowanie deduplikacji

Tworzenie kopii zapasowej i deduplikacja to procesy wymagające wielu operacji we-wy. Ich uruchomienie w tym samym czasie i wynikające z tego dodatkowe obciążenie podczas przełączania się między operacjami mogłoby być drogie i spowodować codzienne tworzenie kopii zapasowej bądź deduplikowanie mniejszej ilości danych. Zalecamy skonfigurowanie dedykowanych osobnych okien na potrzeby deduplikacji i tworzenia kopii zapasowej. Dzięki temu ruch we-wy dla każdej z tych operacji będzie efektywnie dystrybuowany podczas codziennego działania systemu. Podczas harmonogramowania zalecamy skorzystanie z następujących wskazówek:

  • Podziel dni na nienakładające się okna tworzenia kopii zapasowej i deduplikacji.

  • Skonfiguruj niestandardowe harmonogramy tworzenia kopii zapasowej.

  • Skonfiguruj niestandardowe harmonogramy deduplikacji.

  • Zaplanuj optymalizację w ramach okna codziennej deduplikacji.

  • Skonfiguruj oddzielne weekendowe harmonogramy deduplikacji, aby wykorzystać czas w celu wykonania zadań odzyskiwania pamięci i czyszczenia danych.

Harmonogramy programu DPM można skonfigurować przy użyciu następującego polecenia programu PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

W tej konfiguracji program DPM jest konfigurowany tak, aby kopia zapasowa maszyn wirtualnych była tworzona między 22:00 i 6:00. Deduplikacja jest zaplanowania na pozostałe 16 godzin dnia. Rzeczywisty skonfigurowany czas deduplikacji będzie zależeć od rozmiaru woluminu. Aby uzyskać więcej informacji, zobacz Ustalanie rozmiaru woluminów dla deduplikacji danych. 16-godzinne okno deduplikacji rozpoczynające się od 6:00 po zakończeniu okna tworzenia kopii zapasowej zostanie skonfigurowane w następujący sposób z dowolnego pojedynczego węzła klastra:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Za każdym razem, gdy okno kopii zapasowej zostanie zmodyfikowane, ważne jest, aby okno deduplikacji było modyfikowane wraz z nim, aby nie nakładały się na siebie. Deduplikacja i okno tworzenia kopii zapasowej nie muszą wypełniać pełnych 24 godzin dnia; jednak zdecydowanie zaleca się, aby umożliwić zmianę czasu przetwarzania ze względu na oczekiwane dzienne zmiany obciążeń i zmian danych.

Wpływ na wydajność tworzenia kopii zapasowej

Po deduplikacji zestawu plików podczas uzyskiwania dostępu do plików może wystąpić niewielki koszt wydajności. Wynika on z dodatkowych operacji przetwarzania wymaganych do uzyskiwania dostępu do używanego formatu deduplikowanych plików. W tym scenariuszu pliki są zestawem plików VHDX z ciągłym wykorzystaniem w programie DPM podczas tworzenia kopii zapasowych. Efekt deduplikacji tych plików oznacza, że operacje tworzenia kopii zapasowych i odzyskiwania mogą być nieco wolniejsze niż bez deduplikacji. Podobnie jak w przypadku każdego produktu do tworzenia kopii zapasowej program DPM stanowi obciążenie intensywnie wykorzystujące operacje zapisu, a operacje odczytu są najważniejsze podczas procesów odzyskiwania danych. Poniżej podano zalecenia dotyczące wpływu procesu deduplikacji na wydajność tworzenia kopii zapasowej.

  • Operacje odczytu/przywracania: Efekty operacji odczytu są zwykle niewielkie i nie wymagają żadnych specjalnych zagadnień, ponieważ deduplikacja funkcji buforuje deduplikowane fragmenty.

  • Operacje zapisu/tworzenia kopii zapasowej: zaplanuj zwiększenie czasu tworzenia kopii zapasowej o 5–10% podczas definiowania okna kopii zapasowej. (wzrost porównany z oczekiwanym czasem tworzenia kopii zapasowej podczas zapisywania na woluminach niededuplikowanych).

Monitorowanie

Program DPM i deduplikację danych można monitorować w celu zapewnienia, że:

  • Ilość miejsca na dysku, dla której zainicjowano obsługę administracyjną, jest wystarczająca do przechowywania danych kopii zapasowej.

  • Zadania tworzenia kopii zapasowej programu DPM są kończone w zwykły sposób.

  • Na woluminach kopii zapasowej włączono deduplikację.

  • Harmonogramy deduplikacji zostały prawidłowo ustawione.

  • Przetwarzanie deduplikacji jest codziennie wykonywane w zwykły sposób.

  • Wielkość oszczędności wynikających z deduplikacji odpowiada założeniom dla konfiguracji systemu.

Powodzenie deduplikacji zależy od ogólnych możliwości sprzętu systemu (w tym od szybkości przetwarzania procesora CPU, przepustowości operacji we/wy, pojemności magazynu), prawidłowej konfiguracji systemu, średniego obciążenia systemu i codziennej ilości modyfikowanych danych.

Program DPM można monitorować przy użyciu centralnej konsoli programu DPM. Zobacz Instalowanie konsoli centralnej.

Możesz monitorować deduplikację, aby sprawdzić stan deduplikacji, szybkość zapisywania i stan harmonogramu przy użyciu następujących poleceń programu PowerShell:

Uzyskaj informacje na temat stanu:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Uzyskaj informacje na temat oszczędności:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Aby uzyskać informacje na temat stanu harmonogramu, użyj polecenia cmdlet Get-DedupSchedule.

Monitorowanie zdarzeń

Monitorowanie dziennika zdarzeń może pomóc w zrozumieniu deduplikacji zdarzeń i stanu.

  • Aby przejrzeć zdarzenia deduplikacji, w Eksploratorze plikówprzejdź kolejno do pozycji Dzienniki aplikacji i usług>Microsoft>Windows>Deduplikacja.

  • Jeśli wartość LastOptimizationResult = 0x00000000 pojawia się w wynikach Get-DedupStatus |fl Windows PowerShell, cały zestaw danych został przetworzony przez poprzednie zadanie optymalizacji. W przeciwnym razie system nie mógł ukończyć przetwarzania deduplikacji — należy sprawdzić ustawienia konfiguracji, na przykład rozmiar woluminu.

Aby zapoznać się z bardziej szczegółowymi przykładami poleceń cmdlet, zobacz Monitorowanie deduplikacji danych i tworzenie powiązanych raportów.

Monitorowanie magazynu kopii zapasowych

W naszym przykładzie konfiguracji woluminy 7,2 TB są wypełnione 10 TB "logicznych" danych (rozmiar danych, gdy nie jest deduplikowany) przechowywanych w 10 x 1 TB dynamicznych plików VHDX. Ze względu na to, że dodatkowe dane kopii zapasowej będą gromadzone w tych plikach, pojemność woluminu będzie powoli wypełniana. Jeśli wartość procentowa oszczędności wynikająca z deduplikacji jest wystarczająca, wszystkie 10 plików będzie mogło osiągnąć maksymalny rozmiar logiczny i nadal mieści się w woluminie 7,2 TB (potencjalnie może być nawet dodatkowe miejsce do przydzielenia dodatkowych plików VHDX dla serwerów programu DPM do użycia). Ale jeśli oszczędności rozmiaru z deduplikacji nie są wystarczające, miejsce na woluminie może zabraknąć, zanim pliki VHDX osiągną pełny rozmiar logiczny i wolumin będzie pełny. Aby zapobiec zapełnieniu woluminów, zalecamy wykonanie następujących czynności:

  • Zastosowanie ostrożnego podejścia do wymagań dotyczących rozmiaru woluminów oraz zezwolenie na nadmiarowe inicjowanie obsługi administracyjnej magazynu. Zaleca się umożliwienie buforu co najmniej 10% podczas planowania użycia magazynu kopii zapasowych w celu umożliwienia oczekiwanych zmian w oszczędnościach deduplikacji i współczynniku zmian danych.

  • Monitorowanie woluminów używanych na potrzeby magazynu kopii zapasowej w celu zapewnienia wykorzystania miejsca i wielkości oszczędności wynikających z deduplikacji na oczekiwanym poziomie.

Jeśli wolumin stanie się pełny, następujący wynik objawów:

  • Maszyna wirtualna programu DPM będzie mieć krytyczny stan wstrzymania i nie będzie wydawać żadnych dodatkowych zadań tworzenia kopii zapasowej.

  • Wszystkie zadania kopii zapasowej, które korzystają z plików VHDX na pełnym woluminie, zakończą się niepowodzeniem.

Aby odzyskać sprawność po tym stanie i przywrócić system do normalnego działania, można aprowizować dodatkowy magazyn, a migracja magazynu maszyny wirtualnej programu DPM lub jego dysku VHDX można wykonać w celu zwolnienia miejsca:

  1. Zatrzymaj serwer programu DPM, który jest właścicielem plików VHDX w pełnym udziale kopii zapasowej.

  2. Utwórz dodatkowy udział woluminu i kopii zapasowej przy użyciu konfiguracji i ustawień używanych już do istniejących udziałów, takich jak ustawienia systemu plików NTFS i deduplikacji.

  3. Przeprowadź migrację magazynu dla maszyny wirtualnej programu DPM Server i zmigruj co najmniej jeden plik VHDX z pełnego udziału kopii zapasowej do nowego udziału kopii zapasowej utworzonego w kroku 2.

  4. Uruchom zadanie odzyskiwania pamięci deduplikacji danych w źródłowym udziale kopii zapasowej, który jest pełny. To zadanie odzyskiwania pamięci powinno zakończyć się pomyślnie i spowodować odzyskanie wolnego miejsca.

  5. Uruchom ponownie maszynę wirtualną serwera programu DPM.

  6. Zadanie sprawdzania spójności programu DPM zostanie wyzwolone podczas następnego okna tworzenia kopii zapasowej dla wszystkich źródeł danych, które wcześniej zakończyły się niepowodzeniem.

  7. Wszystkie zadania tworzenia kopii zapasowej powinny teraz zakończyć się pomyślnie.

Podsumowanie

Połączenie deduplikacji z programem DPM umożliwia uzyskiwanie znacznych oszczędności miejsca. Dzięki temu można przechowywać większe ilości danych, częściej tworzyć kopie zapasowe i obniżać całkowity koszt posiadania powiązany z wdrożeniem programu DPM. Wskazówki i zalecenia przedstawione w tym dokumencie powinny udostępnić narzędzia i wiedzę umożliwiające skonfigurowanie deduplikacji dla magazynu programu DPM oraz uzyskiwanie korzyści we własnych wdrożeniach.

Często zadawane pytania

P: Pliki VHDX programu DPM muszą mieć rozmiar 1 TB. Czy oznacza to, że program DPM nie może utworzyć kopii zapasowej maszyny wirtualnej, programu SharePoint, bazy danych SQL lub woluminu pliku o rozmiarze > 1 TB?

A: Nr. Program DPM agreguje wiele woluminów na potrzeby przechowywania kopii zapasowych. Dlatego rozmiar pliku o rozmiarze 1 TB nie ma żadnych konsekwencji dla rozmiarów źródeł danych, które program DPM może utworzyć kopię zapasową.

Pyt.: Wygląda na to, że pliki VHDX magazynu programu DPM muszą być wdrażane tylko w zdalnych udziałach plików SMB. Co się stanie, jeśli będę przechowywać pliki VHDX na woluminach z włączoną deduplikacją w tym samym systemie, w którym działa maszyna wirtualna programu DPM?

A: Jak wspomniano powyżej, program DPM, funkcja Hyper-V i deduplikacja to operacje intensywnie korzystające z magazynu i obliczeń. Połączenie wszystkich trzech z nich w jednym systemie może prowadzić do operacji we/wy i operacji intensywnie korzystających z procesów, które mogą głodować funkcję Hyper-V i jej maszyny wirtualne. Jeśli zdecydujesz się na eksperymentowanie z konfigurowaniem programu DPM na maszynie wirtualnej z woluminami magazynu kopii zapasowych na tej samej maszynie, należy uważnie monitorować wydajność, aby zapewnić wystarczającą przepustowość operacji we/wy i pojemność obliczeniową, aby zachować wszystkie trzy operacje na tej samej maszynie.

Pyt.: Zalecane jest użycie dedykowanych osobnych okien na potrzeby deduplikacji i tworzenia kopii zapasowej. Dlaczego nie mogę włączyć deduplikacji podczas tworzenia kopii zapasowej programu DPM? Muszę utworzyć kopię zapasową bazy danych SQL DB co 15 minut.

A: Deduplikacja i program DPM to operacje intensywnie korzystające z magazynu i jednoczesne uruchamianie obu tych operacji może być nieefektywne i prowadzić do głodu we/wy. W związku z tym, aby chronić obciążenia więcej niż raz dziennie (na przykład SQL Server co 15 minut) i włączyć deduplikację w tym samym czasie, upewnij się, że istnieje wystarczająca przepustowość we/wy i pojemność komputera, aby uniknąć głodu zasobów.

Pyt.: W opisanej konfiguracji program DPM należy uruchomić na maszynie wirtualnej. Dlaczego nie mogę włączyć deduplikacji bezpośrednio na woluminie repliki i woluminach kopii w tle zamiast na plikach VHDX?

Odp.: Deduplikacja jest przeprowadzana na poszczególnych woluminach działających w powiązaniu z pojedynczymi plikami. Ponieważ deduplikacja jest zoptymalizowana na poziomie pliku, nie jest przeznaczona do obsługi technologii VolSnap używanej przez program DPM do przechowywania danych kopii zapasowych. Po uruchomieniu programu DPM na maszynie wirtualnej funkcja Hyper-V mapuje operacje woluminu programu DPM do poziomu pliku VHDX. Pozwala to funkcji deduplikacji na optymalizowanie danych kopii zapasowych i zapewnianie większych oszczędności pojemności magazynu.

P: Powyższa przykładowa konfiguracja utworzyła tylko woluminy o rozmiarze 7,2 TB. Czy mogę tworzyć woluminy większe lub mniejsze?

Odp.: Funkcja deduplikacji uruchamia jeden wątek na każdym woluminie. Wzrost rozmiaru woluminu spowoduje, że deduplikacja będzie wymagać dłuższego czasu, aby ukończyć jego optymalizację. Z drugiej strony w przypadku małych woluminów jest mniej danych, w których można znaleźć zduplikowane fragmenty, co może spowodować zmniejszenie oszczędności. Dlatego zaleca się dostosowanie rozmiaru woluminu w oparciu o łączną liczbę zmian i możliwości sprzętu systemu w celu uzyskania optymalnych oszczędności. Więcej szczegółowych informacji na temat określania rozmiarów woluminów używanych podczas deduplikacji można znaleźć w części Ustalanie rozmiarów woluminów na potrzeby deduplikacji w systemie Windows Server. Aby uzyskać bardziej szczegółowe informacje na temat określania rozmiarów woluminów używanych z deduplikacją, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych.