Sdílet prostřednictvím


Odstranění duplicitních dat v úložišti DPM

Nástroj System Center Data Protection Manager (DPM) může používat odstranění duplicitních dat.

Odstranění duplicitních dat (odstranění duplicitních dat) najde a odebere duplicitní data ve svazku a zároveň zajistí, aby data zůstala správná a úplná. Přečtěte si další informace o plánování odstranění duplicitních dat.

  • Odstranění duplicitních dat snižuje spotřebu úložiště. I když množství redundance pro sadu dat bude záviset na úloze a datovém typu, data zálohování obvykle při použití odstranění duplicitních dat ukazují silné úspory.

  • Redundanci dat je možné dále snížit díky odstranění duplicitních dat při zálohování dat podobných typů a úloh společně.

  • Odstranění duplicitních dat je navržené tak, aby se nainstalovalo na primární datové svazky bez dalšího vyhrazeného hardwaru, aby to nemělo vliv na primární úlohu na serveru. Výchozí nastavení jsou neintrusivní, protože umožňují, aby data před zpracováním určitého souboru zvětšovaly pět dnů a mají výchozí minimální velikost souboru 32 kB. Implementace je navržená pro nízké využití paměti a procesoru.

  • Odstranění duplicitních dat je možné implementovat v následujících úlohách:

    • Obecné sdílené složky: Publikování a sdílení obsahu skupiny, domovské složky uživatelů a přesměrování složky / Offline soubory

    • Sdílené složky nasazení softwaru: Binární soubory, image a aktualizace softwaru

    • Knihovny VHD: Úložiště souborů virtuálního pevného disku (VHD) pro zřizování pro hypervisory

    • Nasazení VDI (jenom Windows Server 2012 R2): nasazení Infrastruktura virtuálních klientských počítačů (VDI) pomocí Technologie Hyper-V

    • Virtualizované zálohování: Řešení zálohování (například DPM spuštěná na virtuálním počítači Hyper-V), která ukládají zálohovaná data do souborů VHD/VHDX na souborovém serveru Windows

DPM a odstranění duplicitních dat

Odstranění duplicitních dat v aplikaci DPM může vést k velkým úsporám. Velikost místa uloženého odstraněním duplicitních dat při optimalizaci zálohovaných dat DPM se liší v závislosti na typu zálohovaných dat. Například zálohování šifrovaného databázového serveru může vést k minimálním úsporám, protože proces šifrování skryje duplicitní data. Zálohování velkého nasazení Infrastruktura virtuálních klientských počítačů (VDI) ale může vést k velkým úsporám v rozsahu 70–90+%, protože mezi prostředími virtuálních klientských počítačů je obvykle velké množství duplicitních dat. V konfiguraci popsané v článku jsme spustili různé testovací úlohy a viděli jsme úspory v rozsahu od 50 do 90 %.

Pokud chcete používat odstraňování duplicitních dat pro úložiště DPM, musí aplikace DPM běžet na virtuálním počítači Hyper-V a ukládat zálohovaná data do virtuálních pevných disků ve sdílených složkách s povoleným odstraněním dat.

Pokud chcete nasadit DPM jako virtuální počítač, který zálohuje data na svazek odstranění duplicitních dat, doporučujeme následující topologii nasazení:

  • APLIKACE DPM spuštěná na virtuálním počítači v hostitelském clusteru Hyper-V

  • Úložiště DPM využívající soubory VHD/VHDX uložené ve sdílené složce SMB 3.0 na souborovém serveru.

  • V našem testovacím příkladu jsme souborový server nakonfigurovali jako souborový server se škálováním na více systémů (SOFS) nasazený pomocí svazků úložiště nakonfigurovaných z fondů Prostory úložiště vytvořených pomocí přímo připojených jednotek SAS. Toto nasazení zajišťuje výkon ve velkém měřítku.

Poznámky:

  • Toto nasazení je podporováno pro DPM 2012 R2 a novější a pro všechna data úloh, která je možné zálohovat pomocí DPM 2012 R2 a novějších.

  • Všechny uzly souborového serveru Windows, na kterých se nacházejí virtuální pevné disky DPM a na kterých bude povoleno odstraňování duplicitních dat, musí používat Windows Server 2012 R2 s kumulativní aktualizací z listopadu 2014 nebo novější.

  • Poskytneme obecná doporučení a pokyny pro nasazení scénáře. Kdykoli se zobrazí příklady specifické pro hardware, použije se pro referenci hardware nasazený v systému MICROSOFT Cloud Platform System (CPS).

  • Tento příklad používá vzdálené sdílené složky SMB 3.0 k ukládání zálohovaných dat, takže primární hardwarové požadavky jsou zaměřené na uzly souborového serveru místo uzlů Hyper-V. Následující konfigurace hardwaru se používá v CPS pro zálohování a produkční úložiště. Celkový hardware se používá jak pro zálohování, tak pro produkční úložiště, ale počet jednotek uvedených v skříních jednotek se používají jenom pro zálohování.

    • Cluster souborového serveru se škálováním na více uzlů na čtyři uzly

    • Konfigurace pro jednotlivé uzly

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 jader, 16 logických procesorů

      • Paměť RDIMM 128 GB 1333 MHz

      • Připojení úložiště: 2 porty SAS, 1 port 10 GbE iWarp/RDMA

    • Čtyři skříně jednotek JBOD

      • 18 disků v každém JBOD - 16 × 4 TB HDD + 2 x 800 GB SSD

      • Duální cesta ke každé jednotce – zásada vyrovnávání zatížení multipath I/O nastavená tak, aby převzala služby při selhání pouze

      • Disky SSD nakonfigurované pro mezipaměť pro zpětný zápis (WBC) a zbytek pro vyhrazené jednotky deníku

Nastavení svazků pro odstranění duplicitních dat

Pojďme se podívat, jak velké svazky by měly podporovat soubory VHDX s odstraněným duplicitními daty. V CPS jsme vytvořili svazky o 7,2 TB. Optimální velikost svazku závisí především na tom, kolik a jak často se data na svazku mění, a na rychlostech propustnosti přístupu k datům subsystému diskového úložiště. Je důležité si uvědomit, že pokud zpracování odstranění duplicitních dat nedokáže držet krok s denními změnami dat (četnost změn), míra úspory se sníží, dokud se zpracování nedokončí. Podrobnější informace najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat. Pro svazky s odstraněním duplicitních dat se doporučují následující obecné pokyny:

  • Používejte paritu Prostory úložiště s povědomím o skříni pro zajištění odolnosti a zvýšeného využití disků.

  • Naformátujte ntfs s 64kB přidělením jednotek a velkými segmenty záznamů souborů, aby lépe fungovaly s odstraňováním duplicitních souborů.

  • V konfiguraci hardwaru nad doporučenou velikostí svazku 7,2 TB se svazky nakonfigurují takto:

    • Duální parita s podporou skříní 7,2 TB + 1 GB mezipaměti pro zpětný zápis

      • ResiliencySettingName == Parita

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Prokládání == 256 kB (výkon duální parity při 64 kB prokládání je mnohem nižší než ve výchozím 256 kB prokládání).

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Velká FRS

      V zadaném fondu úložiště nastavte nový virtuální disk následujícím způsobem:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Každý z těchto svazků pak musí být formátován takto:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      V nasazení CPS se pak nakonfigurují jako sdílené svazky clusteru.

    • V rámci těchto svazků uloží APLIKACE DPM řadu souborů VHDX pro uložení zálohovaných dat. Po naformátování na svazku povolte odstranění duplicitních dat následujícím způsobem:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Tento příkaz také upraví následující nastavení odstranění na úrovni svazku:

      • Nastavit typ usageType na HyperV: Výsledkem je zpracování otevřených souborů, které jsou potřeba, protože soubory VHDX používané pro úložiště záloh dpm zůstávají otevřené s DPM spuštěným na svém virtuálním počítači.

      • Zakázat PartialFileOptimization: Odstranění duplicitních dat způsobí optimalizaci všech oddílů otevřeného souboru místo vyhledávání změněných oddílů s minimálním stářím.

      • Nastavte parametr MinFileAgeDays na hodnotu 0: U parametru PartialFileOptimization se minFileAgeDays změní jeho chování tak, aby odstranění duplicitních dat považuje pouze soubory, které se v daném počtu dnů nezměnily. Vzhledem k tomu, že chceme, aby odstranění duplicitních dat začalo zpracovávat zálohovaná data ve všech souborech VHDX DPM bez jakéhokoli zpoždění, musíme nastavit MinFileAgeDays na hodnotu 0.

Další informace o nastavení odstranění duplicitních dat najdete v tématu Instalace a konfigurace duplicit dat.

Nastavení úložiště DPM

Aby nedocházelo k problémům s fragmentací a zachovala efektivitu, přiděluje se úložiště DPM pomocí souborů VHDX umístěných na svazcích s odstraněným duplicitními daty. Na každém svazku se vytvoří deset dynamických souborů VHDX o velikosti 1 TB a připojí se k DPM. Navíc se provádí 3 TB nadměrného zřízení úložiště, aby se využily úspory úložiště vytvořené odstraněním duplicitních dat. Vzhledem k tomu, že odstranění duplicitních dat vytváří další úspory úložiště, je možné na těchto svazcích vytvořit nové soubory VHDX, aby spotřebovaly uložený prostor. Server DPM jsme otestovali s až 30 připojenými soubory VHDX.

  1. Spuštěním následujícího příkazu vytvořte virtuální pevné disky, které se později přidají na server DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Potom jste do serveru DPM přidali vytvořené virtuální pevné disky následujícím způsobem:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Tento krok nakonfiguruje fond úložiště jako disk nebo disky, na kterých DPM ukládá repliky a body obnovení pro chráněná data. Tento fond je součástí konfigurace APLIKACE DPM a je oddělený od fondu Prostory úložiště, který slouží k vytvoření datových svazků popsaných v předchozí části. Další informace o fondech úložiště DPM najdete v tématu Konfigurace diskových úložišť a fondů úložiště.

Nastavení clusteru souborového serveru Windows

Odstranění duplicitních dat vyžaduje speciální sadu možností konfigurace pro podporu virtualizovaného úložiště DPM kvůli škálování dat a velikosti jednotlivých souborů. Tyto možnosti jsou globální pro cluster nebo uzel clusteru. Odstranění duplicitních dat musí být povolené a nastavení clusteru musí být nakonfigurované jednotlivě na každém uzlu clusteru.

  1. Povolit odstranění duplicitních dat v úložišti souborového serveru Systému Windows – Role Odstranění duplicitních dat musí být nainstalovaná na všech uzlech clusteru souborového serveru Windows. Uděláte to tak, že na každém uzlu clusteru spustíte následující příkaz PowerShellu:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ladění zpracování odstranění duplicitních dat pro záložní datové soubory – Spuštěním následujícího příkazu PowerShellu nastavte, aby se spustila optimalizace bez zpoždění, a ne optimalizace částečných zápisů souborů. Ve výchozím nastavení jsou úlohy uvolňování paměti (GC) naplánované každý týden a každý čtvrtý týden se úloha uvolňování paměti spustí v režimu hloubkového uvolňování paměti, aby bylo hledání dat, které se mají odebrat, vyčerpávající a časově náročné. Pro úlohu DPM tento režim hlubokého GC nemá za následek žádné zhodnocené zisky a zkracuje dobu, po kterou může odstranění duplicitních dat optimalizovat data. Proto tento přímý režim zakážeme.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Vylaďte výkon pro velké operace– Spusťte následující skript PowerShellu pro:

    • Zakázání dalšího zpracování a vstupně-výstupních operací při spuštění hloubkového uvolňování paměti

    • Zarezervujte si další paměť pro zpracování hash.

    • Povolení optimalizace priority, která umožňuje okamžitou defragmentaci velkých souborů

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Tato nastavení upravují následující:

    • HashIndexFullKeyReservationPercent: Tato hodnota určuje, kolik paměti úlohy optimalizace se používá pro existující hodnoty hash bloků dat a nové hodnoty hash bloků dat. Ve velkém měřítku vede 70 % k lepší optimalizaci propustnosti než výchozí 50 %.

    • EnablePriorityOptimization: U souborů, které se blíží 1 TB, může fragmentace jednoho souboru nahromadět dostatek fragmentů pro přístup k limitu jednotlivých souborů. Zpracování optimalizace tyto fragmenty konsoliduje a brání dosažení tohoto limitu. Nastavením tohoto klíče registru přidá odstranění duplicitních dat další proces pro zpracování vysoce fragmentovaných souborů s vysokou prioritou.

Nastavení plánování dpm a odstranění duplicitních dat

Operace zálohování i odstranění duplicitních dat jsou náročné na vstupně-výstupní operace. Pokud by běžely současně, mohly by být další režijní náklady na přepínání mezi operacemi nákladné a výsledkem denního zálohování nebo odstranění duplicitních dat. Doporučujeme nakonfigurovat vyhrazená a samostatná okna odstranění duplicitních dat a oken zálohování. To pomáhá zajistit efektivní distribuci vstupně-výstupních přenosů pro každou z těchto operací během každodenního provozu systému. Doporučené pokyny pro plánování jsou:

  • Rozdělte dny do nepřekrývajících se oken zálohování a odstraňování duplicitních dat.

  • Nastavte vlastní plány zálohování.

  • Nastavte vlastní plány odstraňování duplicitních dat.

  • Plánování optimalizace v denním intervalu odstraňování duplicitních dat

  • Nastavte plány odstraňování duplicitních dat o víkendech samostatně pomocí této doby pro úlohy uvolňování paměti a scrubbingu.

Plány DPM můžete nastavit pomocí následujícího příkazu PowerShellu:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

V této konfiguraci je APLIKACE DPM nakonfigurovaná tak, aby zálohovala virtuální počítače od 10:00 do 6:00. Odstranění duplicitních dat je naplánované na zbývajících 16 hodin dne. Skutečný čas odstranění duplicitních dat, který nakonfigurujete, bude záviset na velikosti svazku. Další informace najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat. 16hodinové okno odstranění duplicitních dat začínající na 6:00 po skončení okna zálohování by se nakonfigurovalo následujícím způsobem z libovolného uzlu clusteru:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Kdykoli se okno zálohování upraví, je důležité, aby se okno odstranění duplicitních dat upravilo společně s ním, aby se nepřekrývaly. Odstranění duplicitních dat a okno zálohování nemusí vyplnit celých 24 hodin dne; Důrazně se ale doporučuje, aby umožňovaly variace doby zpracování kvůli očekávaným denním změnám úloh a četnosti změn dat.

Důsledky pro výkon zálohování

Po odstranění duplicitních dat sady souborů může být při přístupu k souborům mírné náklady na výkon. Důvodem je další zpracování potřebné pro přístup k formátu souboru používanému soubory s odstraněnými duplicitními daty. V tomto scénáři jsou soubory sadou souborů VHDX, které vidí průběžné používání dpm během okna zálohování. Účinek odstranění duplicitních dat těchto souborů znamená, že operace zálohování a obnovení mohou být mírně pomalejší než bez odstranění duplicitních dat. Stejně jako u jakéhokoli zálohovacího produktu je DPM úlohou náročné na zápis a operace čtení je při operacích obnovení nejdůležitější. Doporučení pro řešení dopadů na výkon zálohování z důvodu odstranění duplicitních dat jsou:

  • Operace čtení a obnovení: Účinky na operace čtení jsou obvykle zanedbatelné a nevyžadují žádné zvláštní aspekty, protože funkce odstranění duplicitních dat ukládá do mezipaměti bloky dat odstraněných duplicitních dat.

  • Operace zápisu a zálohování: Při definování okna zálohování naplánujte zvýšení doby zálohování o 5 až 10 %. (Jedná se o zvýšení v porovnání s očekávanou dobou zálohování při zápisu na svazky bez odstranění duplicitních dat.)

Sledování

Odstranění duplicitních dat a DPM je možné monitorovat, aby se zajistilo, že:

  • Pro uložení zálohovaných dat je zřízeno dostatek místa na disku.

  • Úlohy zálohování DPM se obvykle dokončí

  • Odstranění duplicitních dat je na záložních svazcích povolené.

  • Plány odstranění duplicitních dat jsou správně nastavené.

  • Zpracování odstranění duplicitních dat se obvykle provádí každý den

  • Míra úspory odstranění duplicitních dat odpovídá předpokladům pro konfiguraci systému.

Úspěch odstranění duplicitních dat závisí na celkových hardwarových možnostech systému (včetně rychlosti zpracování procesoru, šířky pásma vstupně-výstupních operací, kapacity úložiště), správné konfigurace systému, průměrného zatížení systému a denního množství upravených dat.

DPM můžete monitorovat pomocí centrální konzoly DPM. Viz Instalace centrální konzoly.

Odstranění duplicitních dat můžete monitorovat a kontrolovat stav odstraňování duplicitních dat, úsporu a stav plánu pomocí následujících příkazů PowerShellu:

Získání stavu:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Získejte úspory:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Pomocí rutiny Get-DedupSchedule získejte stav plánu.

Monitorování událostí

Monitorování protokolu událostí vám může pomoct pochopit události a stav odstranění duplicitních dat.

  • Pokud chcete zobrazit události odstranění duplicitních dat, přejděte v Průzkumník souborů na Protokoly>aplikací a služeb microsoft>Windows>Odstranění duplicitních dat.

  • Pokud se hodnota LastOptimizationResult = 0x00000000 zobrazí ve výsledcích Get-DedupStatus |fl Windows PowerShellu, byla celá datová sada zpracována předchozí úlohou optimalizace. Pokud ne, systém nemohl dokončit zpracování odstranění duplicitních dat a možná budete chtít zkontrolovat nastavení konfigurace, například velikost svazku.

Podrobnější příklady rutin najdete v tématu Monitorování a sestava pro odstranění duplicitních dat.

Monitorování úložiště zálohování

V našem příkladu konfigurace jsou svazky o velikosti 7,2 TB vyplněné 10 TB "logických" dat (velikost dat v případě, že nejsou odstraněna duplicita) uložené v 10 x 1TB dynamických souborech VHDX. S tím, jak tyto soubory hromadí další zálohovaná data, pomalu zaplní svazek. Pokud je procento úspory způsobené odstraněním duplicitních dat dostatečně vysoké, bude mít všech 10 souborů možnost dosáhnout maximální logické velikosti a stále se vejde do svazku 7,2 TB (může se stát, že bude ještě více místa pro přidělení dalších souborů VHDX pro servery DPM, které budou používat). Pokud ale úspora velikosti z odstranění duplicitních dat nestačí, může dojít k vyčerpání místa na svazku, než soubory VHDX dosáhnou své plné logické velikosti a svazek bude plný. Pokud chcete zabránit zaplnění svazků, doporučujeme následující:

  • Buďte konzervativní v požadavcích na velikost svazku a povolte určité nadměrné zřízení úložiště. Při plánování využití úložiště zálohování se doporučuje povolit vyrovnávací paměť alespoň 10 % a umožnit tak očekávané odchylky v úsporách odstranění duplicitních dat a četnosti změn dat.

  • Monitorujte svazky používané pro úložiště záloh, abyste zajistili, že využití místa a míra úspory odstranění duplicitních dat jsou na očekávaných úrovních.

Pokud se svazek zaplní, výsledek následujících příznaků:

  • Virtuální počítač DPM se umístí do kritického stavu pozastavení a tento virtuální počítač nebude moct vydat žádné další úlohy zálohování.

  • Všechny úlohy zálohování, které používají soubory VHDX na celém svazku, selžou.

Pokud se chcete z této podmínky zotavit a obnovit systém do normálního provozu, je možné zřídit další úložiště a provést migraci úložiště virtuálního počítače DPM nebo jeho VHDX, aby se uvolnilo místo:

  1. Zastavte server DPM, který vlastní soubory VHDX ve sdílené složce úplného zálohování.

  2. Vytvořte další svazek a sdílenou složku zálohování pomocí stejné konfigurace a nastavení jako pro existující sdílené složky, včetně nastavení systému souborů NTFS a odstranění duplicitních dat.

  3. Migrujte úložiště pro virtuální počítač DPM Serveru a migrujte alespoň jeden soubor VHDX ze sdílené složky úplného zálohování do nové sdílené složky zálohování vytvořené v kroku 2.

  4. Spusťte úlohu uvolňování paměti odstranění duplicitních dat (GC) ve zdrojové sdílené složce zálohování, která byla plná. Úloha GC by měla být úspěšná a uvolnit volné místo.

  5. Restartujte virtuální počítač serveru DPM.

  6. Úloha kontroly konzistence DPM se aktivuje během dalšího okna zálohování pro všechny zdroje dat, které dříve selhaly.

  7. Všechny úlohy zálohování by teď měly být úspěšné.

Shrnutí

Kombinace odstranění duplicitních dat a DPM poskytuje značné úspory místa. To umožňuje vyšší míru uchovávání, častější zálohování a lepší celkových nákladů na vlastnictví pro nasazení DPM. Pokyny a doporučení v tomto dokumentu by vám měly poskytnout nástroje a znalosti ke konfiguraci odstranění duplicitních dat pro úložiště DPM a vidět výhody pro vás ve vlastním nasazení.

Časté dotazy

Otázka: Soubory VHDX DPM musí mít velikost 1 TB. Znamená to, že DPM nemůže zálohovat virtuální počítač, sharepointovou databázi nebo databázi SQL nebo svazek souboru o velikosti > 1 TB?

Odpověď: Ne. APLIKACE DPM agreguje několik svazků do jednoho pro ukládání záloh. Velikost souboru o velikosti 1 TB tedy nemá žádný vliv na velikosti zdrojů dat, které dpm dokáže zálohovat.

Otázka: Zdá se, že soubory VHDX úložiště DPM musí být nasazeny pouze ve vzdálených sdílených složkách SMB. Co se stane, když uložím záložní soubory VHDX na svazky s podporou odstranění duplicitních dat ve stejném systému, na kterém je spuštěný virtuální počítač DPM?

A: Jak je popsáno výše, DPM, Hyper-V a odstraňování duplicitních dat jsou operace náročné na úložiště a výpočetní výkon. Kombinace všech tří z nich v jednom systému může vést k operacím náročným na vstupně-výstupní operace a procesy, které mohou hladovět Hyper-V a jeho virtuální počítače. Pokud se rozhodnete experimentovat s konfigurací DPM na virtuálním počítači se svazky úložiště zálohování na stejném počítači, měli byste pečlivě monitorovat výkon, abyste měli jistotu, že je dostatek šířky pásma vstupně-výstupních operací a výpočetní kapacity pro údržbu všech tří operací na stejném počítači.

Otázka: Doporučujeme vyhrazená samostatná okna odstranění duplicitních dat a zálohování. Proč nemůžu povolit odstranění duplicitních dat, když dpm zálohuje? Potřebuji zálohovat databázi SQL každých 15 minut.

A: Odstranění duplicitních dat a DPM jsou operace náročné na úložiště a obě operace mohou být současně neefektivní a vést k vyčerpání vstupně-výstupních operací. Proto chcete chránit úlohy více než jednou denně (například SQL Server každých 15 minut) a zároveň povolit odstraňování duplicitních dat, ujistěte se, že je dostatek šířky pásma vstupně-výstupních operací a kapacity počítače, aby nedošlo k vyčerpání prostředků.

Otázka: Na základě popsané konfigurace musí aplikace DPM běžet na virtuálním počítači. Proč nejde povolit odstraňování duplicitních dat u svazku repliky a svazků stínové kopie přímo než u souborů VHDX?

A: Odstranění duplicitních dat dělá odstranění duplicitních dat na svazek, který pracuje s jednotlivými soubory. Vzhledem k tomu, že odstranění duplicitních dat se optimalizuje na úrovni souborů, není navržené tak, aby podporovalo technologii VolSnap, kterou DPM používá k ukládání zálohovaných dat. Spuštěním dpm na virtuálním počítači hyper-V mapuje operace svazku DPM na úroveň souborů VHDX, což umožňuje odstranění duplicitních dat optimalizovat zálohovaná data a zajistit větší úspory úložiště.

Otázka: Výše uvedená ukázková konfigurace vytvořila pouze 7,2 TB svazků. Můžu vytvořit větší nebo menší svazky?

A: Odstranění duplicitních dat spouští jedno vlákno na svazek. S tím, jak se velikost svazku zvětší, vyžaduje odstranění duplicitních dat více času k dokončení optimalizace. Na druhou stranu s malými objemy je méně dat, ve kterých se dají najít duplicitní bloky dat, což může vést ke snížení úspor. Proto je vhodné vyladit velikost svazku na základě celkových změn a hardwarových možností systému, aby bylo možné dosáhnout optimálních úspor. Podrobnější informace o určování velikostí svazků používaných s odstraněním duplicitních dat najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat ve Windows Serveru. Podrobnější informace o určování velikostí svazků používaných s odstraněním duplicitních dat najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat.