Udostępnij za pośrednictwem


Deduplikacja magazynu programu DPM

Program System Center Data Protection Manager (DPM) może używać deduplikacji danych.

Deduplikacja danych (deduplikacja) znajduje i usuwa zduplikowane dane w woluminie, zapewniając jednocześnie, że dane pozostają poprawne i kompletne. Dowiedz się więcej o planowaniu deduplikacji.

  • Deduplikacja zmniejsza zużycie magazynu. Chociaż ilość nadmiarowości dla zestawu danych zależy od obciążenia i typu danych, zazwyczaj dane kopii zapasowej pokazują duże oszczędności w przypadku użycia deduplikacji.

  • Nadmiarowość danych można dodatkowo zmniejszyć dzięki deduplikacji podczas tworzenia kopii zapasowej danych podobnych typów i przetwarzania obciążeń razem.

  • Deduplikacja została zaprojektowana tak, aby była instalowana na woluminach danych podstawowych bez dodatkowego dedykowanego sprzętu, dzięki czemu nie ma wpływu na obciążenie podstawowe na serwerze. Ustawienia domyślne są nieintrusywne, ponieważ umożliwiają one starzenie się danych przez pięć dni przed przetworzeniem określonego pliku i mają domyślny minimalny rozmiar pliku wynoszący 32 KB. Implementacja została zaprojektowana z myślą o małym użyciu pamięci i procesora CPU.

  • Deduplikację można zaimplementować w następujących obciążeniach:

    • Ogólne udziały plików: publikowanie i udostępnianie zawartości grupy, foldery macierzyste użytkownika i pliki offline/przekierowanie folderu.

    • Udziały wdrożenia oprogramowania: pliki binarne, obrazy i aktualizacje oprogramowania.

    • Biblioteki wirtualnego dysku twardego: magazyn plików wirtualnego dysku twardego na potrzeby inicjowania obsługi administracyjnej funkcji hypervisor.

    • Wdrożenia infrastruktury VDI (tylko system Windows Server 2012 R2): wdrożenia infrastruktury pulpitu wirtualnego (VDI) korzystające z funkcji Hyper-V.

    • Zwirtualizowane kopie zapasowe: rozwiązania do tworzenia kopii zapasowych (takie jak program DPM uruchomiony na maszynie wirtualnej funkcji Hyper-V), które zapisują dane kopii zapasowej w plikach VHD/VHDX na serwerze plików systemu Windows

Program DPM i deduplikacja

Użycie deduplikacji z programem DPM może spowodować duże oszczędności. Ilość miejsca oszczędzanego przez deduplikację podczas optymalizowania danych kopii zapasowej programu DPM różni się w zależności od typu kopii zapasowej danych. Na przykład tworzenie kopii zapasowej zaszyfrowanego serwera baz danych może spowodować minimalne oszczędności, ponieważ wszystkie zduplikowane dane są ukrywane podczas procesu szyfrowania. Jednak tworzenie kopii zapasowej dużego wdrożenia infrastruktury pulpitu wirtualnego (VDI) może spowodować duże oszczędności w zakresie od 70 do 90%, ponieważ zazwyczaj istnieje duża ilość duplikacji danych między środowiskami pulpitu wirtualnego. W konfiguracji opisanej w artykule przeprowadziliśmy różne obciążenia testowe i zaobserwowaliśmy oszczędności w zakresie od 50% do 90%.

Aby użyć deduplikacji dla magazynu programu DPM, program DPM powinien być uruchomiony na maszynie wirtualnej funkcji Hyper-V i przechowywać dane kopii zapasowej na dyskach VHD w folderach udostępnionych z włączoną deduplikacji danych.

Aby wdrożyć program DPM jako maszynę wirtualną wykonującą kopię zapasową danych na woluminie dedupl, zalecamy następujące topologie wdrożenia:

  • Program DPM działający na maszynie wirtualnej w klastrze hosta funkcji Hyper-V.

  • Magazyn programu DPM korzystający z plików VHD/VHDX przechowywanych w udziale SMB 3.0 na serwerze plików.

  • W naszym przykładzie testowym skonfigurowaliśmy serwer plików jako skalowany w poziomie serwer plików (SOFS) wdrożony przy użyciu woluminów magazynu skonfigurowanych z pul Miejsca do magazynowania utworzonych przy użyciu bezpośrednio połączonych dysków SAS. To wdrożenie zapewnia wydajność na dużą skalę.

Należy pamiętać, że:

  • To wdrożenie jest obsługiwane w programie DPM 2012 R2 i nowszym oraz dla wszystkich danych obciążeń, których kopię zapasową można utworzyć w programie DPM 2012 R2 lub nowszym.

  • Wszystkie węzły serwera plików systemu Windows, na których znajdują się wirtualne dyski twarde programu DPM i na których będzie włączona deduplikacja, musi być uruchomiony system Windows Server 2012 R2 z pakietem zbiorczym aktualizacji z listopada 2014 r. lub nowszym.

  • Przedstawimy ogólne zalecenia i instrukcje dotyczące wdrażania scenariusza. W każdym przykładzie odwołującym się do określonego sprzętu jako punkt odniesienia używany jest sprzęt wdrożony w systemie Microsoft Cloud Platform System (CPS).

  • W tym przykładzie użyto zdalnych udziałów SMB 3.0 do przechowywania danych kopii zapasowej, więc podstawowe wymagania sprzętowe centrum wokół węzłów serwera plików, a nie węzłów funkcji Hyper-V. Poniższa konfiguracja sprzętu jest używana w usłudze CPS do tworzenia kopii zapasowych i magazynu produkcyjnego. Ogólny sprzęt jest używany zarówno w przypadku magazynu kopii zapasowych, jak i produkcyjnego, ale liczba dysków wymienionych w obudach dysków jest używana tylko do tworzenia kopii zapasowych.

    • Cztery węzły — skalowanie w poziomie klastra serwera plików

    • Konfiguracja każdego węzła

      • 2x Procesor Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 rdzeni, 16 procesorów logicznych

      • Pamięć RDIMM 128 GB 1333 MHz

      • Połączenia magazynu: 2 porty sygnatury dostępu współdzielonego, 1 port 10 GbE iWarp/RDMA

    • Cztery obudowy dysków JBOD

      • 18 dysków w każdym dysku JBOD — 16 x 4 TB dysków HDD + 2 x 800 GB dysków SSD

      • Podwójna ścieżka do każdego dysku — wielościeżkowe zasady równoważenia obciążenia we/wy ustawione na tryb failover

      • Dyski SSD skonfigurowane na potrzeby pamięci podręcznej zapisu zwrotnego (WBC) i pozostałe dla dedykowanych dysków dziennika

Konfigurowanie woluminów deduplikacji

Rozważmy, jak duże woluminy powinny obsługiwać deduplikowane pliki VHDX zawierające dane programu DPM. W usłudze CPS utworzyliśmy woluminy o pojemności 7,2 TB. Optymalny rozmiar woluminu zależy głównie od zakresu i częstotliwości zmian danych w tym woluminie oraz od wielkości przepustowości dostępu do danych w podsystemie magazynu dysku. Należy pamiętać, że jeśli przetwarzanie deduplikacji nie może nadążyć za zmianami dziennych danych (współczynnik zmian), stopa oszczędności spadnie do momentu zakończenia przetwarzania. Aby uzyskać bardziej szczegółowe informacje, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych. W przypadku woluminów deduplikacji zalecane są następujące ogólne wskazówki:

  • W celu uzyskania odporności i zwiększonego wykorzystania dysku należy używać miejsc do magazynowania z opcją parzystości i wykrywaniem obudów.

  • Sformatuj system NTFS z jednostkami alokacji 64 KB i dużymi segmentami rekordów plików, aby lepiej pracować z deduplikacjami plików rozrzedzonych.

  • W konfiguracji sprzętu powyżej zalecanego rozmiaru woluminu 7,2 TB woluminy zostaną skonfigurowane w następujący sposób:

    • Podwójna parzystość z obsługą obudowy 7,2 TB + 1 GB pamięci podręcznej zapisu zwrotnego

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Wydajność parzystości podwójnej przy 64 KB interleave jest znacznie niższa niż w domyślnym 256 KB przeplatanie)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Usługa replikacji dużych plików

      Skonfiguruj nowy wirtualny dysk w określonej puli magazynów w następujący sposób:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Każdy z woluminów należy sformatować jako:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Następnie we wdrożeniu systemu CPS są one konfigurowane jako pliki CSV.

    • W tych woluminach program DPM będzie przechowywać serię plików VHDX do przechowywania danych kopii zapasowej. Włącz deduplikację na woluminie po sformatowaniu go w następujący sposób:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      To polecenie modyfikuje również następujące ustawienia deduplikacji na poziomie woluminu:

      • Ustaw wartość UsageType na HyperV: powoduje to przetwarzanie deduplikacji otwartych plików, które są wymagane, ponieważ pliki VHDX używane do przechowywania kopii zapasowych przez program DPM pozostają otwarte w programie DPM uruchomionym na swojej maszynie wirtualnej.

      • Wyłącz element PartialFileOptimization: powoduje to deduplikację optymalizacji wszystkich sekcji otwartego pliku zamiast skanowania pod kątem zmienionych sekcji z minimalnym wiekiem.

      • Ustaw parametr MinFileAgeDays na 0: przy wyłączonym parametrze PartialFileOptimization funkcja MinFileAgeDays zmienia jego zachowanie, tak aby deduplikacja uwzględniała tylko pliki, które nie zostały zmienione w ciągu tych wielu dni. Ponieważ chcemy, aby podczas deduplikacji przetwarzanie danych kopii zapasowej wszystkich plików VHDX programu DPM rozpoczęło się bez opóźnień, musimy ustawić parametr MinFileAgeDays na wartość 0.

Aby uzyskać więcej informacji na temat konfigurowania deduplikacji, zobacz Instalowanie i konfigurowanie duplikowania danych.

Konfigurowanie magazynu programu DPM

Aby uniknąć problemów z fragmentacją i utrzymać wydajność, magazyn programu DPM jest przydzielany przy użyciu plików VHDX znajdujących się na deduplikowanym woluminie. Dziesięć dynamicznych plików VHDX o rozmiarze 1 TB każdy jest tworzonych na każdym woluminie i dołączonych do programu DPM. Ponadto 3 TB nadmiernej aprowizacji magazynu odbywa się w celu wykorzystania oszczędności magazynu generowanych przez deduplikację. W miarę jak deduplikacja generuje dodatkowe oszczędności magazynu, nowe pliki VHDX można tworzyć na tych woluminach, aby korzystać z zapisanego miejsca. Przetestowaliśmy serwer PROGRAMU DPM z dołączonymi do niego maksymalnie 30 plikami VHDX.

  1. Uruchom następujące polecenie, aby utworzyć wirtualne dyski twarde, które zostaną później dodane do serwera programu DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Następnie dodaj utworzone wirtualne dyski twarde do serwera programu DPM w następujący sposób:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Ten krok umożliwia skonfigurowanie puli magazynów jako dysku lub dysków, na których program DPM przechowuje repliki i punkty odzyskiwania dla chronionych danych. Ta pula jest częścią konfiguracji programu DPM i jest inna niż pula miejsc do magazynowania służąca do tworzenia woluminów danych opisanych w poprzedniej sekcji. Aby uzyskać więcej informacji na temat pul magazynów programu DPM, zobacz Konfigurowanie magazynu dysków i pul magazynów.

Konfigurowanie klastra serwera plików systemu Windows

Deduplikacja wymaga specjalnego zestawu opcji konfiguracji, który umożliwi obsługę zwirtualizowanego magazynu programu DPM z uwzględnieniem skali danych i rozmiaru poszczególnych plików. Są to opcje globalne względem klastra lub węzła klastra. W każdym węźle klastra należy włączyć deduplikację i indywidualnie skonfigurować ustawienia klastra.

  1. Włącz deduplikację w magazynie systemu Windows File Server — rola deduplikacji musi być zainstalowana na wszystkich węzłach klastra systemu Windows File Server. W tym celu uruchom następujące polecenie programu PowerShell w każdym węźle klastra:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Dostrajanie przetwarzania deduplikacji dla plików danych kopii zapasowej — uruchom następujące polecenie programu PowerShell, aby ustawić opcję uruchamiania optymalizacji bez opóźnień i nie optymalizowanie częściowych zapisów plików. Domyślnie zadania odzyskiwania pamięci są zaplanowane co tydzień, a co czwarty tydzień zadanie GC jest uruchamiane w trybie "głębokiego odzyskiwania pamięci" w celu bardziej wyczerpującego i czasochłonnego wyszukiwania danych do usunięcia. W przypadku obciążenia programu DPM ten tryb "głębokiego odzyskiwania pamięci" nie powoduje żadnych doceniających zysków i skraca czas, w którym deduplikacja może zoptymalizować dane. Dlatego tryb głębokiego odzyskiwania pamięci jest wyłączany.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Dostrajanie wydajności dla operacji na dużą skalę — uruchom następujący skrypt programu PowerShell, aby:

    • wyłączenia dodatkowego przetwarzania i operacji we-wy po uruchomieniu trybu głębokiego odzyskiwania pamięci,

    • zarezerwowania dodatkowej pamięci na potrzeby przetwarzania skrótów,

    • włączenia optymalizacji w celu umożliwienia natychmiastowej defragmentacji dużych plików.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Te ustawienia służą do modyfikowania następujących elementów:

    • HashIndexFullKeyReservationPercent: Ta wartość określa, ile pamięci zadania optymalizacji jest używane dla istniejących skrótów fragmentów, a w przypadku nowych skrótów fragmentów. Na dużą skalę ustawienie 70% powoduje skuteczniejszą optymalizację przepływności niż domyślne ustawienie 50%.

    • EnablePriorityOptimization: w przypadku plików zbliżających się do 1 TB fragmentacja pojedynczego pliku może zgromadzić wystarczającą ilość fragmentów, aby zbliżyć się do limitu dla pliku. Przetwarzanie optymalizacji powoduje skonsolidowanie tych fragmentów i uniemożliwia osiągnięcie tego limitu. Dzięki ustawieniu tego klucza rejestru deduplikacja spowoduje dodanie dodatkowego procesu obsługującego bardzo pofragmentowane, deduplikowane pliki o wysokim priorytecie.

Konfigurowanie programu DPM i planowania deduplikacji

Tworzenie kopii zapasowej i deduplikacja to procesy wymagające wielu operacji we-wy. Ich uruchomienie w tym samym czasie i wynikające z tego dodatkowe obciążenie podczas przełączania się między operacjami mogłoby być drogie i spowodować codzienne tworzenie kopii zapasowej bądź deduplikowanie mniejszej ilości danych. Zalecamy skonfigurowanie dedykowanych osobnych okien na potrzeby deduplikacji i tworzenia kopii zapasowej. Dzięki temu ruch we-wy dla każdej z tych operacji będzie efektywnie dystrybuowany podczas codziennego działania systemu. Podczas harmonogramowania zalecamy skorzystanie z następujących wskazówek:

  • Podziel dni na nienakładające się okna tworzenia kopii zapasowej i deduplikacji.

  • Skonfiguruj niestandardowe harmonogramy tworzenia kopii zapasowej.

  • Skonfiguruj niestandardowe harmonogramy deduplikacji.

  • Zaplanuj optymalizację w ramach okna codziennej deduplikacji.

  • Skonfiguruj oddzielne weekendowe harmonogramy deduplikacji, aby wykorzystać czas w celu wykonania zadań odzyskiwania pamięci i czyszczenia danych.

Harmonogramy programu DPM można skonfigurować przy użyciu następującego polecenia programu PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

W tej konfiguracji program DPM jest konfigurowany tak, aby kopia zapasowa maszyn wirtualnych była tworzona między 22:00 i 6:00. Deduplikacja jest zaplanowania na pozostałe 16 godzin dnia. Rzeczywisty skonfigurowany czas deduplikacji zależy od rozmiaru woluminu. Aby uzyskać więcej informacji, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych. 16-godzinne okno deduplikacji rozpoczynające się o 6:00 po zakończeniu okna tworzenia kopii zapasowej zostanie skonfigurowane w następujący sposób z dowolnego węzła klastra:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Za każdym razem, gdy okno kopii zapasowej zostanie zmodyfikowane, należy zmodyfikować okno deduplikacji wraz z nim, aby nie nakładało się na siebie. Deduplikacja i okno tworzenia kopii zapasowej nie muszą wypełniać pełnych 24 godzin dnia; jednak zdecydowanie zaleca się, aby umożliwić zmianę czasu przetwarzania ze względu na oczekiwane dzienne zmiany obciążeń i zmian danych.

Wpływ na wydajność tworzenia kopii zapasowej

Po deduplikacji zestawu plików może wystąpić niewielki koszt wydajności podczas uzyskiwania dostępu do plików. Wynika on z dodatkowych operacji przetwarzania wymaganych do uzyskiwania dostępu do używanego formatu deduplikowanych plików. W tym scenariuszu pliki są zestawem plików VHDX z ciągłym wykorzystaniem w programie DPM podczas tworzenia kopii zapasowych. Efekt deduplikacji tych plików oznacza, że operacje tworzenia kopii zapasowych i odzyskiwania mogą być nieco wolniejsze niż bez deduplikacji. Podobnie jak w przypadku każdego produktu do tworzenia kopii zapasowej program DPM stanowi obciążenie intensywnie wykorzystujące operacje zapisu, a operacje odczytu są najważniejsze podczas procesów odzyskiwania danych. Poniżej podano zalecenia dotyczące wpływu procesu deduplikacji na wydajność tworzenia kopii zapasowej.

  • Operacje odczytu/przywracania: Efekty operacji odczytu są zwykle niewielkie i nie wymagają żadnych specjalnych zagadnień, ponieważ deduplikacja funkcji buforuje deduplikowane fragmenty.

  • Operacje zapisu/tworzenia kopii zapasowej: zaplanuj wzrost czasu tworzenia kopii zapasowej o 5–10% podczas definiowania okna tworzenia kopii zapasowej. (wzrost porównany z oczekiwanym czasem tworzenia kopii zapasowej podczas zapisywania na woluminach niededuplikowanych).

Monitorowanie

Program DPM i deduplikację danych można monitorować w celu zapewnienia, że:

  • Ilość miejsca na dysku, dla której zainicjowano obsługę administracyjną, jest wystarczająca do przechowywania danych kopii zapasowej.

  • Zadania tworzenia kopii zapasowej programu DPM są kończone w zwykły sposób.

  • Na woluminach kopii zapasowej włączono deduplikację.

  • Harmonogramy deduplikacji zostały prawidłowo ustawione.

  • Przetwarzanie deduplikacji jest codziennie wykonywane w zwykły sposób.

  • Wielkość oszczędności wynikających z deduplikacji odpowiada założeniom dla konfiguracji systemu.

Powodzenie deduplikacji zależy od ogólnych możliwości sprzętu systemu (w tym od szybkości przetwarzania procesora CPU, przepustowości operacji we/wy, pojemności magazynu), prawidłowej konfiguracji systemu, średniego obciążenia systemu i codziennej ilości modyfikowanych danych.

Program DPM można monitorować przy użyciu centralnej konsoli programu DPM. Zobacz Instalowanie konsoli centralnej.

Deduplikację można monitorować w celu sprawdzenia stanu deduplikacji, oszczędności i stanu harmonogramu przy użyciu następujących poleceń programu PowerShell:

Uzyskaj informacje na temat stanu:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Uzyskaj informacje na temat oszczędności:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Aby uzyskać informacje na temat stanu harmonogramu, użyj polecenia cmdlet Get-DedupSchedule.

Monitorowanie zdarzeń

Monitorowanie dziennika zdarzeń może pomóc w zrozumieniu deduplikacji zdarzeń i stanu.

  • Aby przejrzeć zdarzenia deduplikacji, w Eksploratorze plikówprzejdź kolejno do pozycji Dzienniki aplikacji i usług>Microsoft>Windows>Deduplikacja.

  • Jeśli wartość LastOptimizationResult = 0x00000000 pojawi się w wynikach Get-DedupStatus |fl środowiska Windows PowerShell, cały zestaw danych został przetworzony przez poprzednie zadanie optymalizacji. W przeciwnym razie system nie mógł ukończyć przetwarzania deduplikacji — należy sprawdzić ustawienia konfiguracji, na przykład rozmiar woluminu.

Aby zapoznać się z bardziej szczegółowymi przykładami poleceń cmdlet, zobacz Monitorowanie deduplikacji danych i tworzenie powiązanych raportów.

Monitorowanie magazynu kopii zapasowych

W naszym przykładzie konfiguracji woluminy 7,2 TB są wypełnione 10 TB "logicznych" danych (rozmiar danych, gdy nie są deduplikowane) przechowywanych w 10 x 1 TB dynamicznych plików VHDX. W miarę gromadzenia dodatkowych danych kopii zapasowych te pliki powoli wypełniają wolumin. Jeśli procent oszczędności wynikający z deduplikacji jest wystarczająco wysoki, wszystkie 10 plików będzie mogło osiągnąć maksymalny rozmiar logiczny i nadal mieścić się w woluminie 7,2 TB (potencjalnie może być nawet dodatkowe miejsce na przydzielenie dodatkowych plików VHDX dla serwerów programu DPM do użycia). Ale jeśli oszczędności rozmiaru z deduplikacji nie są wystarczające, miejsce na woluminie może zabraknąć, zanim pliki VHDX osiągną pełny rozmiar logiczny i wolumin będzie pełny. Aby zapobiec zapełnieniu woluminów, zalecamy wykonanie następujących czynności:

  • Zastosowanie ostrożnego podejścia do wymagań dotyczących rozmiaru woluminów oraz zezwolenie na nadmiarowe inicjowanie obsługi administracyjnej magazynu. Zaleca się umożliwienie buforu co najmniej 10% podczas planowania użycia magazynu kopii zapasowych w celu umożliwienia oczekiwanych zmian w oszczędnościach deduplikacji i współczynniku zmian danych.

  • Monitorowanie woluminów używanych na potrzeby magazynu kopii zapasowej w celu zapewnienia wykorzystania miejsca i wielkości oszczędności wynikających z deduplikacji na oczekiwanym poziomie.

Jeśli wolumin stanie się pełny, wynik następujących objawów:

  • Maszyna wirtualna programu DPM będzie mieć krytyczny stan wstrzymania i nie będzie wydawać żadnych dodatkowych zadań tworzenia kopii zapasowej.

  • Wszystkie zadania kopii zapasowej, które korzystają z plików VHDX na pełnym woluminie, zakończą się niepowodzeniem.

Aby odzyskać sprawność po tym stanie i przywrócić system do normalnego działania, można aprowizować dodatkowy magazyn, a migracja magazynu maszyny wirtualnej programu DPM lub jego dysku VHDX można wykonać w celu zwolnienia miejsca:

  1. Zatrzymaj serwer programu DPM, który jest właścicielem plików VHDX w pełnym udziale kopii zapasowej.

  2. Utwórz dodatkowy udział woluminu i kopii zapasowej przy użyciu konfiguracji i ustawień używanych już do istniejących udziałów, takich jak ustawienia systemu plików NTFS i deduplikacji.

  3. Przeprowadź migrację magazynu dla maszyny wirtualnej serwera DPM i zmigruj co najmniej jeden plik VHDX z pełnego udziału kopii zapasowej do nowego udziału kopii zapasowej utworzonego w kroku 2.

  4. Uruchom zadanie odzyskiwania pamięci deduplikacji danych w źródłowym udziale kopii zapasowej, który jest pełny. To zadanie odzyskiwania pamięci powinno zakończyć się pomyślnie i spowodować odzyskanie wolnego miejsca.

  5. Uruchom ponownie maszynę wirtualną serwera programu DPM.

  6. Zadanie sprawdzania spójności programu DPM zostanie wyzwolone podczas następnego okna tworzenia kopii zapasowej dla wszystkich źródeł danych, które wcześniej zakończyły się niepowodzeniem.

  7. Wszystkie zadania tworzenia kopii zapasowej powinny teraz zakończyć się pomyślnie.

Podsumowanie

Połączenie deduplikacji z programem DPM umożliwia uzyskiwanie znacznych oszczędności miejsca. Dzięki temu można przechowywać większe ilości danych, częściej tworzyć kopie zapasowe i obniżać całkowity koszt posiadania powiązany z wdrożeniem programu DPM. Wskazówki i zalecenia przedstawione w tym dokumencie powinny udostępnić narzędzia i wiedzę umożliwiające skonfigurowanie deduplikacji dla magazynu programu DPM oraz uzyskiwanie korzyści we własnych wdrożeniach.

Często zadawane pytania

.: Pliki VHDX programu DPM muszą mieć rozmiar 1 TB. Czy oznacza to, że program DPM nie może utworzyć kopii zapasowej maszyny wirtualnej, programu SharePoint, bazy danych SQL lub woluminu pliku o rozmiarze > 1 TB?

Odpowiedź: Nie. Program DPM agreguje wiele woluminów na potrzeby przechowywania kopii zapasowych. Dlatego rozmiar pliku o rozmiarze 1 TB nie ma żadnych skutków dla rozmiarów źródeł danych, które program DPM może utworzyć kopię zapasową.

Pyt.: Wygląda na to, że pliki VHDX magazynu programu DPM muszą być wdrażane tylko w zdalnych udziałach plików SMB. Co się stanie, jeśli będę przechowywać pliki VHDX na woluminach z włączoną deduplikacją w tym samym systemie, w którym działa maszyna wirtualna programu DPM?

1: Zgodnie z powyższym opisem program DPM, funkcja Hyper-V i deduplikacja są operacjami intensywnie korzystającymi z magazynu i obliczeń. Połączenie wszystkich trzech z nich w jednym systemie może prowadzić do operacji we/wy i operacji intensywnie korzystających z procesów, które mogą głodować funkcję Hyper-V i jej maszyny wirtualne. Jeśli zdecydujesz się eksperymentować z konfigurowaniem programu DPM na maszynie wirtualnej przy użyciu woluminów magazynu kopii zapasowych na tym samym komputerze, należy uważnie monitorować wydajność, aby upewnić się, że istnieje wystarczająca przepustowość operacji we/wy i pojemność obliczeniowa, aby zachować wszystkie trzy operacje na tej samej maszynie.

Pyt.: Zalecane jest użycie dedykowanych osobnych okien na potrzeby deduplikacji i tworzenia kopii zapasowej. Dlaczego nie mogę włączyć deduplikacji, gdy program DPM wykonuje kopię zapasową? Muszę utworzyć kopię zapasową bazy danych SQL co 15 minut.

O: Deduplikacja i program DPM to operacje intensywnie korzystające z magazynu, a ich działanie w tym samym czasie może być nieefektywne i prowadzić do głodu we/wy. W związku z tym, aby chronić obciążenia więcej niż raz dziennie (na przykład program SQL Server co 15 minut) i włączyć deduplikację w tym samym czasie, upewnij się, że istnieje wystarczająca przepustowość we/wy i pojemność komputera, aby uniknąć głodu zasobów.

Pyt.: W opisanej konfiguracji program DPM należy uruchomić na maszynie wirtualnej. Dlaczego nie mogę włączyć deduplikacji na woluminie repliki i woluminach kopii w tle bezpośrednio, a nie w plikach VHDX?

Odp.: Deduplikacja jest przeprowadzana na poszczególnych woluminach działających w powiązaniu z pojedynczymi plikami. Ponieważ deduplikacja optymalizuje się na poziomie pliku, nie jest przeznaczona do obsługi technologii VolSnap używanej przez program DPM do przechowywania danych kopii zapasowych. Po uruchomieniu programu DPM na maszynie wirtualnej funkcja Hyper-V mapuje operacje woluminu programu DPM do poziomu pliku VHDX. Pozwala to funkcji deduplikacji na optymalizowanie danych kopii zapasowych i zapewnianie większych oszczędności pojemności magazynu.

.: Powyższa przykładowa konfiguracja utworzyła tylko woluminy o rozmiarze 7,2 TB. Czy mogę tworzyć woluminy większe lub mniejsze?

Odp.: Funkcja deduplikacji uruchamia jeden wątek na każdym woluminie. Wzrost rozmiaru woluminu spowoduje, że deduplikacja będzie wymagać dłuższego czasu, aby ukończyć jego optymalizację. Z drugiej strony w przypadku małych woluminów jest mniej danych, w których można znaleźć zduplikowane fragmenty, co może spowodować zmniejszenie oszczędności. Dlatego zaleca się dostosowanie rozmiaru woluminu na podstawie całkowitej liczby zmian i możliwości sprzętu systemu w celu uzyskania optymalnych oszczędności. Więcej szczegółowych informacji na temat określania rozmiarów woluminów używanych podczas deduplikacji można znaleźć w części Ustalanie rozmiarów woluminów na potrzeby deduplikacji w systemie Windows Server. Aby uzyskać bardziej szczegółowe informacje na temat określania rozmiarów woluminów używanych z deduplikacją, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych.