Odstranění duplicit dat v úložišti DPM

Důležité

Tato verze Aplikace Data Protection Manager (DPM) dosáhla konce podpory. Doporučujeme upgradovat na DPM 2022.

Nástroj System Center Data Protection Manager (DPM) může používat odstranění duplicitních dat.

Odstranění duplicitních dat (odstranění duplicitních dat) najde a odebere duplicitní data ve svazku a současně zajistí, aby data zůstala správná a úplná. Zde najdete další informace o plánování odstranění duplicitních dat.

  • Odstranění duplicitních dat snižuje spotřebu úložiště. I když množství redundance sady dat bude záviset na úloze a datovém typu, zálohovaná data obvykle při použití odstranění duplicitních dat ukazují výrazné úspory.

  • Redundanci dat je možné pomocí funkce Odstranění duplicit dále snížit, když se zálohovaná data a úlohy podobného typu zpracovávají společně.

  • Odstranění duplicitních dat je navržené tak, aby se nainstalovalo na primární datové svazky bez dalšího vyhrazeného hardwaru, aby to nemělo vliv na primární úlohy na serveru. Výchozí nastavení nejsou neintrusivní, protože umožňují, aby data před zpracováním určitého souboru stárla po dobu pěti dnů a mají výchozí minimální velikost souboru 32 kB. Implementace je navržena pro nízké využití paměti a procesoru.

  • Odstranění duplicitních dat může být implementováno pro následující úlohy:

    • Obecné sdílené složky: Publikování a sdílení obsahu skupiny, domovské složky uživatele a Přesměrování složky/Offline soubory

    • Sdílené složky nasazení softwaru: Binární soubory, image a aktualizace softwaru

    • Knihovny VHD: Úložiště souborů virtuálního pevného disku (VHD) pro zřizování na hypervisory

    • Nasazení VDI (jenom Windows Server 2012 R2): Nasazení infrastruktury virtuálních klientských počítačů (VDI) pomocí technologie Hyper-V

    • Virtualizované zálohování: Řešení zálohování (například DPM běžící na virtuálním počítači Hyper-V), která ukládají zálohovaná data do souborů VHD/VHDX na souborovém serveru Windows

Aplikace DPM a odstranění duplicitních dat

Používání procesu odstranění duplicitních dat s aplikací DPM může přinést velké úspory. Velikost místa ušetřeného odstraněním duplicitních dat při optimalizaci dat zálohování aplikace DPM se liší v závislosti na typu zálohovaných dat. Například zálohování šifrovaného databázového serveru může přinést jen minimální úspory, protože všechna duplicitní data jsou skryta procesem šifrování. Zálohování velkého nasazení Infrastruktura virtuálních klientských počítačů (VDI) ale může vést k velkým úsporám v rozsahu od 70 do 90 %, protože mezi prostředími virtuálních desktopů obvykle dochází k velkému množství duplicitních dat. V konfiguraci popsané v článku jsme spustili různé testovací úlohy a zjistili jsme úspory v rozsahu od 50 % do 90 %.

Pokud chcete pro úložiště DPM použít odstranění duplicitních dat, musí být aplikace DPM spuštěná na virtuálním počítači Hyper-V a ukládat zálohovaná data na virtuální pevné disky ve sdílených složkách s povoleným odstraněním dat.

Pokud chcete nasadit DPM jako virtuální počítač, který zálohuje data na svazek pro odstranění duplicitních dat, doporučujeme použít následující topologii nasazení:

  • Aplikace DPM běžící ve virtuálním počítači v hostitelském clusteru technologie Hyper-V

  • Úložiště DPM využívající soubory VHD/VHDX uložené ve sdílené složce protokolu SMB 3.0 na souborovém serveru

  • V našem testovacím příkladu jsme souborový server nakonfigurovali jako souborový server se škálováním na více systémů nasazený pomocí svazků úložiště nakonfigurovaných z Prostory úložiště fondů vytvořených pomocí přímo připojených jednotek SAS. Toto nasazení zajišťuje výkon ve velkém měřítku.

Poznámky:

  • Toto nasazení se podporuje pro DPM 2012 R2 a novější a pro všechna data úloh, která je možné zálohovat pomocí DPM 2012 R2 a novějších.

  • Všechny uzly souborového serveru Windows, na kterých se nacházejí virtuální pevné disky DPM a na kterých bude povoleno odstranění duplicitních dat, musí běžet Windows Server 2012 R2 s kumulativní aktualizací z listopadu 2014 nebo novější.

  • Poskytneme obecná doporučení a pokyny pro nasazení scénáře. Vždy, když jsou uvedeny příklady specifické pro určitý hardware, se pro referenci používá hardware nasazený v systému Microsoft Cloud Platform System (CPS).

  • V tomto příkladu se k ukládání zálohovaných dat používají vzdálené sdílené složky SMB 3.0, takže primární požadavky na hardware se soustředí na uzly souborového serveru, nikoli na uzly Hyper-V. V systému CPS se pro úložiště zálohování a provozu používá následující hardwarová konfigurace. Celkový hardware se používá jak pro zálohování, tak pro produkční úložiště, ale počet jednotek uvedených ve skříních jednotek je pouze těch, které se používají k zálohování.

    • Cluster souborového serveru se škálováním na více než čtyři uzly

    • Konfigurace uzlů

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 jader, 16 logických procesorů

      • Paměť RDIMM 128 GB 1333 MHz

      • Připojení k úložišti: 2 porty SAS, 1 port 10 GbE iWarp/RDMA

    • Čtyři skříní jednotek JBOD

      • 18 disků v každém JBOD – 16 x 4 TB HDD + 2 x 800 GB SSD

      • Duální cesta ke každé jednotce – Zásada vyrovnávání zatížení multipath vstupně-výstupních operací nastavená tak, aby převzala pouze převzetí služeb při selhání

      • Disky SSD nakonfigurované pro mezipaměť zpětného zápisu (WBC) a zbytek pro vyhrazené jednotky deníku

Nastavení svazků pro odstranění duplicit

Pojďme se podívat na to, jak velké by svazky měly být, aby podporovaly soubory VHDX zbavené duplicitních dat obsahující DPM data. V CPS jsme vytvořili svazky o objemu 7,2 TB. Optimální velikost svazku závisí především na tom, do jaké míry a jak často se data na svazku mění, a na propustnostech subsystému úložiště disku z hlediska přístupu k datům. Je důležité si uvědomit, že pokud zpracování odstranění duplicitních dat nedokáže držet krok s denními změnami dat (četnosti změn), míra úspory klesne, dokud se zpracování nedokončí. Podrobnější informace najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat. Pro objemy odstranění dudupu se doporučují následující obecné pokyny:

  • Používejte paritní prostory úložiště s podporou rozpoznávání skříní pro zajištění odolnosti a vyššího využití disku.

  • Naformátování systému souborů NTFS s alokačními jednotkami o velikosti 64 kB a velkými segmenty záznamů souborů vám umožní lépe pracovat s odstraňováním duplicitních souborů.

  • V konfiguraci hardwaru nad doporučenou velikost svazku 7,2 TB se svazky nakonfigurují takto:

    • Duální parita 7,2 TB + 1 GB mezipaměti se zpětným zápisem s podporou skříně

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Prokládání == 256 kB (výkon duální parity při prokládání 64 kB je mnohem nižší než při výchozích 256 kB prokládání)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • –UseLargeFRS

      Nový virtuální disk v zadaném fondu úložiště nastavte takto:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Každý z těchto svazků musí být následně naformátován takto:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      V nasazení CPS jsou pak tyto svazky nakonfigurovány jako sdílené svazky clusteru (CSV).

    • V rámci těchto svazků bude aplikace DPM ukládat řadu souborů VHDX pro uložení zálohovaných dat. Po naformátování svazku povolte odstranění duplicitních dat následujícím způsobem:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Tento příkaz také upraví následující nastavení odstranění duplicitních dat na úrovni svazku:

      • Nastavte UsageType na HyperV: Výsledkem je zpracování otevřených souborů odstranění duplicitních dat, které je potřeba, protože soubory VHDX používané pro úložiště zálohování aplikací DPM zůstanou otevřené a dpm běží na svém virtuálním počítači.

      • Zakázat PartialFileOptimization: To způsobí, že odstranění duplicitních dat optimalizuje všechny oddíly otevřeného souboru a nehledejte změněné oddíly s minimálním stářím.

      • Nastavte parametr MinFileAgeDays na hodnotu 0: Při zakázaném parametru PartialFileOptimization změní MinFileAgeDays své chování tak, aby odstranění duplicitních dat bral v úvahu jenom soubory, které se nezměnily za tento počet dnů. Vzhledem k tomu, že chceme, aby se při odstraňování duplicit začala zpracovat data záloh ve všech VHDX souborech aplikace DPM bez jakéhokoli zpoždění, musíme parametr MinFileAgeDays nastavit na hodnotu 0.

Další informace o nastavení odstranění duplicitních dat najdete v tématu Instalace a konfigurace duplicit dat.

Nastavení úložiště DPM

Aby nedocházelo k problémům s fragmentací a zachovala se efektivita, je úložiště DPM přidělováno pomocí VHDX souborů nacházejících se na svazcích, na kterých byla odstraněna duplicitní data. Na každém svazku se vytvoří deset dynamických souborů VHDX o velikosti 1 TB a připojí se k DPM. Také se provádí 3 TB nadměrného zřízení úložiště, aby se využily úspory úložiště způsobené odstraněním duplicitních dat. Odstranění duplicitních dat vede k dalším úsporám úložiště, a proto je možné na těchto svazcích vytvořit nové soubory VHDX, které spotřebují ušetřené místo. Server DPM jsme otestovali s připojenými až 30 soubory VHDX.

  1. Spuštěním následujícího příkazu vytvoříte virtuální pevné disky, které budou později přidány na DPM server:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Potom takto přidejte vytvořené virtuální pevné disky na DPM server:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Tento krok nakonfiguruje fond úložiště jako disk nebo disky, na které dpm ukládá repliky a body obnovení pro chráněná data. Tento fond je součástí konfigurace aplikace DPM a oddělený od fondu prostorů úložiště použitého k vytvoření datových svazků, jak je popsáno v předchozí části. Další informace o fondech úložišť DPM najdete v tématu Konfigurace diskových úložišť a fondů úložiště.

Nastavení clusteru souborových serverů systému Windows

Odstranění duplicitních dat vyžaduje speciální sadu možností konfigurace za účelem podpory virtualizovaného DPM úložiště z důvodu škálování dat a velikosti jednotlivých souborů. Tyto možnosti jsou pro cluster nebo uzel clusteru globální. Musí být povoleno odstraňování duplicitních dat a na každém uzlu clusteru musí být samostatně nakonfigurováno nastavení clusteru.

  1. Povolte odstraňování duplicitních dat v úložišti souborového serveru systému Windows. – Na všech uzlech clusteru souborových serverů systému Windows musí být nainstalována role odstraňování duplicitních dat. Uděláte to tak, že na každém uzlu clusteru spustíte následující příkaz PowerShellu:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ladění zpracování odstranění duplicitních dat pro záložní datové soubory – Spuštěním následujícího příkazu PowerShellu nastavte, aby se optimalizace spustila okamžitě a neoptimalizovala částečné zápisy souborů. Ve výchozím nastavení se úlohy uvolňování paměti (GC) plánují každý týden a každý čtvrtý týden se úloha uvolňování paměti spouští v režimu hlubokého uvolňování paměti, aby se data, která je potřeba odebrat, hledala vyčerpávající a časově náročnější. U úloh DPM tento režim hlubokého uvolňování paměti nemá za následek žádné přínosné výhody a zkracuje dobu, po kterou může odstranění duplicitních dat optimalizovat data. Proto tento hloubkový režim zakážeme.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Ladění výkonu pro operace ve velkém měřítku – Spuštěním následujícího skriptu PowerShellu:

    • Zakažte další zpracování a vstupně-výstupní operace při spuštění hloubkového režimu uvolňování paměti.

    • Vyhraďte další paměť pro zpracování algoritmu hash.

    • Povolte optimalizaci priority, aby byla povolena okamžitá defragmentace velkých souborů.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Tato nastavení upraví následující:

    • HashIndexFullKeyReservationPercent: Tato hodnota určuje, kolik paměti úlohy optimalizace se používá pro existující hodnoty hash bloků dat a nové hodnoty hash bloků dat. Při vysoké míře škálování je výsledkem použití hodnoty 70 % vyšší propustnost optimalizace než při výchozích 50 %.

    • EnablePriorityOptimization: U souborů blížících se velikosti 1 TB může fragmentace jednoho souboru nashromáždit dostatek fragmentů, aby se přiblíží limitu počtu souborů. Zpracování optimalizace tyto fragmenty konsoliduje a zabrání dosažení tohoto limitu. Pokud je nastaven tento klíč registru, přidá se při zpracování odstraňování duplicitních dat další proces pro zpracování vysoce fragmentovaných souborů s vysokou prioritou, které jsou zbaveny duplicitních dat.

Nastavení aplikace DPM a plánování odstranění duplicit

Jak operace zálohování, tak i operace odstranění duplicitních dat jsou náročné na vstupně-výstupní zpracování. Pokud by byly spuštěny současně, dodatečná režie pro přepínání mezi operacemi by mohla být nákladná a mohla by mít za následek menší objem každodenně zazálohovaných dat nebo dat každodenně zbavených duplicitních dat. Doporučujeme pro odstraňování duplicitních dat a vytváření záloh nakonfigurovat vyhrazené a samostatné intervaly. Díky tomu je možné zajistit, aby byl vstupně-výstupní přenos dat pro každou z těchto operací během každodenního provozu systému efektivně distribuován. Doporučené pokyny pro plánování:

  • Rozdělte dny na nepřekrývající se intervaly zálohování a odstraňování duplicit.

  • Nastavte si vlastní plány zálohování.

  • Nastavte si vlastní plány odstraňování duplicitních dat.

  • V každodenním intervalu odstraňování duplicitních dat naplánujte optimalizaci.

  • Samostatně nastavte plány pro víkendové odstraňování duplicitních dat a tuto dobu využijte pro úlohy uvolnění paměti a čištění.

Plány aplikace DPM můžete nastavit pomocí následujícího příkazu prostředí PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

V této konfiguraci je aplikace DPM nakonfigurována tak, aby zálohovala virtuální počítače od 22:00 do 6:00. Odstranění duplicitních dat je naplánováno na zbývajících 16 hodin dne. Skutečná doba odstranění duplicitních dat, kterou nakonfigurujete, bude záviset na velikosti svazku. Další informace najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat. 16hodinové okno odstranění duplicitních dat, které začíná v 6:00 po skončení okna zálohování, by se na každém jednotlivém uzlu clusteru nakonfigurovalo následujícím způsobem:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Při každé změně okna zálohování je důležité, aby se spolu s ním upravilo i okno odstranění duplicitních dat, aby se nepřekrývaly. Okno odstranění duplicitních dat a zálohování nemusí zaplnit celých 24 hodin dne. Důrazně se ale doporučuje, aby umožňovaly odchylky v době zpracování kvůli očekávaným denním změnám úloh a změn dat.

Dopady na výkon z hlediska zálohování

Po odstranění duplicitních dat ze sady souborů můžou být při přístupu k souborům mírné náklady na výkon. To je způsobeno dalším zpracováním, které je nutné pro přístup k formátu souborů využívaném soubory, které byly zbaveny duplicit. V tomto scénáři je těmito soubory sada VHDX souborů, které se průběžné využívají aplikací DPM v daném intervalu zálohování. Odstranění duplicitních dat znamená, že operace zálohování a obnovení můžou být o něco pomalejší než bez odstranění duplicitních dat. Jako v případě každého produktu pro zálohování jde i v případě aplikace DPM o úlohy náročné na zápis, kde operace čtení jsou nejdůležitější při operacích obnovování. Doporučení pro zmírnění dopadů na výkon zálohování z důvodu odstranění duplicitních dat:

  • Operace čtení a obnovení: Účinky na operace čtení jsou obvykle zanedbatelné a nevyžadují žádné zvláštní aspekty, protože funkce odstranění duplicitních dat ukládá do mezipaměti bloky s odstraněním duplicitních dat.

  • Operace zápisu/zálohování: Při definování okna zálohování naplánujte prodloužení doby zálohování o 5–10 %. (Jde o nárůst v porovnání s očekávanou dobou zálohování při zápisu do svazků nezbavených duplicitních dat.)

Monitorování

Aplikaci DPM a odstraňování duplicitních dat je možné monitorovat, aby bylo zajištěno následující:

  • Dostupnost dostatečného místa na disku pro ukládání dat záloh

  • Dokončování úloh zálohování DPM obvyklým způsobem

  • Povolení odstraňování duplicitních dat ve svazcích záloh

  • Správné nastavení plánů odstranění duplicitních dat

  • Každodenní dokončování úlohy odstraňování duplicitních dat obvyklým způsobem

  • Míra úspory díky odstranění duplicitních dat odpovídá předpokladům pro konfiguraci systému.

Úspěch odstranění duplicitních dat závisí celkově na výkonu hardwaru (včetně rychlosti procesoru, vstupně-výstupní šířky pásma a kapacity úložiště), správné konfiguraci systému, průměrném zatížení systému a každodenním objemu změněných dat.

Aplikaci DPM můžete monitorovat pomocí nástroje Central Console aplikace DPM. Další informace najdete v tématu Instalace nástroje Central Console.

Odstranění duplicitních dat můžete monitorovat a zkontrolovat stav odstranění duplicitních dat, rychlost úspory a stav plánu pomocí následujících příkazů PowerShellu:

Získání informací o stavu:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Získáte informací o úspoře:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Informace o stavu plánování získáte pomocí rutiny Get-DedupSchedule.

Monitorování událostí

Díky monitorování protokolu událostí budete mít přehled o stavu a událostech odstraňování duplicitních dat.

  • Pokud chcete zobrazit události odstraňování duplicitních dat, přejděte v Průzkumníkovi souborů na Protokoly aplikací a služeb>Microsoft>Windows>Odstranění duplicitních dat.

  • Pokud se ve výsledcích Get-DedupStatus |fl Windows PowerShell zobrazí hodnota LastOptimizationResult = 0x00000000, předchozí úloha optimalizace zpracovala celou datovou sadu. Pokud ne, nebyl systém schopen zpracování odstranění duplicitních dat dokončit. V takovém případě doporučujeme zkontrolovat nastavení konfigurace, například velikost svazku.

Podrobnější případy rutin najdete v tématu Monitorování a generování sestav pro odstraňování duplicitních dat.

Monitorování úložiště záloh

V našem příkladu konfigurace jsou svazky o velikosti 7,2 TB vyplněné 10 TB "logických" dat (velikost dat bez odstranění duplicitních dat) uloženými v dynamických souborech VHDX o velikosti 10 x 1 TB. Protože tyto soubory akumulují další data záloh, pomalu svazek zaplní. Pokud je procento úspory způsobené odstraněním duplicitních dat dostatečně vysoké, všech 10 souborů bude moci dosáhnout maximální logické velikosti a přesto se vejde do svazku o velikosti 7,2 TB (potenciálně může dokonce existovat další místo pro přidělení dalších souborů VHDX pro servery DPM). Pokud ale úspora velikosti při odstranění duplicitních dat nestačí, může dojít místo na svazku dříve, než soubory VHDX dosáhnou plné logické velikosti a svazek bude plný. Pokud chcete zabránit zaplnění svazků, doporučujeme následující:

  • Buďte konzervativní z hlediska požadavků na velikost svazku a umožněte zřizování úložiště s určitou rezervou velikosti. Při plánování využití úložiště zálohování se doporučuje povolit vyrovnávací paměť minimálně 10 %, aby bylo možné očekávat odchylky v úsporách odstranění duplicitních dat a četnosti změn dat.

  • Monitorujte svazky používané pro úložiště záloh, aby bylo zajištěno, že je míra využití místa a míra úspory díky odstranění duplicitních dat na očekávané úrovni.

Pokud se svazek zaplní, výsledkem jsou následující příznaky:

  • Virtuální počítač DPM bude přepnut do kritického stavu pozastavení a nebude již moci iniciovat žádné další úlohy zálohování.

  • Všechny úlohy zálohování, které používají VHDX soubory na zaplněném svazku, selžou.

Pokud se chcete z této podmínky zotavit a obnovit systém do normálního provozu, můžete zřídit další úložiště a provést migraci úložiště virtuálního počítače DPM nebo jeho VHDX, aby se uvolnilo místo:

  1. Zastavte DPM server, který vlastní VHDX soubory v zaplněné sdílené složce záloh.

  2. Vytvořte další svazek a sdílenou složku záloh pomocí stejné konfigurace a nastavení, jaké se používají pro existující sdílené složky, včetně nastavení pro systém souborů NTFS a odstraňování duplicitních dat.

  3. Migrujte úložiště pro virtuální počítač DPM Serveru a alespoň jeden soubor VHDX z úplné sdílené složky zálohování do nové sdílené složky zálohování vytvořené v kroku 2.

  4. Spusťte uvolnění paměti pro odstraňování duplicitních dat pro zdrojovou složku záloh, která byla zaplněna. Tato úloha uvolnění paměti by měla být úspěšně dokončena a měla by uvolnit potřebné místo.

  5. Restartujte virtuální počítač DPM serveru.

  6. Úloha kontroly konzistence dpm se aktivuje během dalšího okna zálohování pro všechny zdroje dat, které dříve selhaly.

  7. Všechny úlohy zálohování by nyní měly být úspěšné.

Souhrn

Kombinace procesu odstraňování duplicitních dat a aplikace DPM přináší výraznou úsporu místa. To umožňuje dosahovat vyšší míry uchovávání dat, provádět častější zálohy a dosahovat celkově nižších nákladů na vlastnictví pro nasazení aplikace DPM. Pokyny a doporučení v tomto dokumentu by vám měly poskytnout nástroje a informace, které potřebujete, abyste mohli nakonfigurovat odstraňování duplicitních dat pro úložiště DPM a využívat jeho výhody ve vlastním nasazení.

Časté dotazy

Q: Soubory DPM VHDX musí mít velikost 1 TB. Znamená to, že APLIKACE DPM nemůže zálohovat virtuální počítač, SharePoint nebo databázi SQL nebo svazek souborů o velikosti > 1 TB?

A: Ne. Aplikace DPM za účelem ukládání záloh agreguje více svazků do jednoho. Velikost souboru o velikosti 1 TB tedy nemá žádný vliv na velikosti zdrojů dat, které může aplikace DPM zálohovat.

Otázka: Zdá se, že VHDX soubory úložiště DPM musí být nasazené výhradně ve vzdálených sdílených složkách protokolu SMB. Co se stane, pokud uložím VHDX soubory záloh na svazky s podporou odstraňování duplicitních dat ve stejném systému, ve kterém běží virtuální počítač DPM?

A: Jak je popsáno výše, DPM, Hyper-V a odstranění duplicitních dat jsou operace náročné na úložiště a výpočetní prostředky. Kombinace všech tří z nich v jednom systému může vést k operacím náročným na vstupně-výstupní operace a procesy, které můžou hyper-V a jeho virtuální počítače vyhladovět. Pokud se rozhodnete experimentovat s konfigurací DPM na virtuálním počítači se svazky úložiště zálohování na stejném počítači, měli byste výkon pečlivě monitorovat, abyste měli jistotu, že je k dispozici dostatečná šířka pásma vstupně-výstupních operací a výpočetní kapacita pro zachování všech tří operací na stejném počítači.

Otázka: Doporučujete samostatné a vyhrazené intervaly odstraňování duplicitních dat a zálohování. Proč nemohu povolit odstraňování duplicitních dat v době zálohování aplikace DPM? Potřebuji zálohovat databázi SQL každých 15 minut.

A: Odstranění duplicitních dat a DPM jsou operace náročné na úložiště a jejich spuštění ve stejnou dobu může být neefektivní a vést k vyčerpání vstupně-výstupních operací. Proto pokud chcete chránit úlohy více než jednou denně (například SQL Server každých 15 minut) a současně povolit odstranění duplicitních dat, ujistěte se, že máte dostatečnou šířku pásma vstupně-výstupních operací a dostatečnou kapacitu počítače, abyste se vyhnuli vyčerpání prostředků.

Otázka: Na základě popsané konfigurace musí DPM běžet ve virtuálním počítači. Proč není možné povolit odstraňování duplicitních dat přímo pro svazek repliky a svazky stínové kopie místo pro VHDX soubory?

Odpověď: Operace odstraňování duplicitních dat probíhají na jednotlivých svazcích pro jednotlivé soubory. Odstranění duplicitních dat se optimalizuje na úrovni souboru, a proto není navržený tak, aby podporoval technologii VolSnap, kterou aplikace DPM používá k ukládání zálohovaných dat. Spuštěním aplikace DPM ve virtuálním počítači mapuje technologie Hyper-V operace svazku DPM na úroveň VHDX souborů, čímž umožňuje při odstraňování duplicitních dat optimalizovat data záloh a zajišťovat větší úsporu místa v úložišti.

Q: Výše uvedená ukázková konfigurace vytvořila pouze svazky o kapacitě 7,2 TB. Je možné vytvořit větší nebo menší svazky?

Odpověď: Při odstraňování duplicitních dat je spuštěné jedno vlákno na jeden svazek. Se zvětšující se velikostí svazku vyžaduje proces odstraňování duplicitních dat více času k dokončení optimalizace. Na druhou stranu u malých svazků je k nalezení duplicitních bloků dat méně, což může vést k nižším úsporám. Proto je vhodné vyladit velikost svazku na základě celkové četnosti změn dat a možností hardwaru systému, abyste mohli dosáhnout optimálních úspor. Podrobnější informace o určení velikosti svazků používaných pro odstraňování duplicitních dat naleznete v tématu Nastavení velikosti svazků pro odstranění duplicitních dat v systému Windows Server. Podrobnější informace o určení velikostí svazků používaných k odstranění duplicitních dat najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat.