Dela via


Deduplicera DPM-lagring

System Center Data Protection Manager (DPM) kan använda datadeduplicering.

Datadeduplicering (dedup) hittar och eliminerar dubblerade datamängder i en volym och ser till att uppgifterna förblir korrekta och kompletta. Läs mer om planering för deduplicering.

  • Deduplicering minskar lagringsförbrukningen. Även om mängden redundans för en uppsättning data beror på arbetsbelastningen och datatypen, visar säkerhetskopieringsdata vanligtvis stora besparingar när deduplicering används.

  • Dataredundans kan minskas ytterligare med deduplicering när säkerhetskopierade data av liknande typer och arbetsbelastningar bearbetas tillsammans.

  • Dedup är utformad för att installeras på primära datavolymer utan ytterligare dedikerad maskinvara, så att den inte påverkar den primära arbetsbelastningen på servern. Standardinställningarna är icke-intrusiva eftersom de tillåter att data åldras i fem dagar innan en viss fil bearbetas och har en standardstorlek på 32 KB. Implementeringen är utformad för låg minnes- och CPU-användning.

  • Deduplicering kan implementeras på följande arbetsbelastning:

    • Allmänna filresurser: Innehållspublicering och delning, användares hemmappar, mappomdirigering och offlinefiler

    • Programdistributionsresurser: Binärfiler, avbildningar och uppdateringar för programvara

    • VHD-bibliotek: Lagring av virtuella hårddiskfiler (VHD) för tilldelning till hypervisorer

    • VDI-distributioner (endast Windows Server 2012 R2): VDI-distributioner (Virtual Desktop Infrastructure) med hjälp av Hyper-V

    • Virtualiserad säkerhetskopiering: Säkerhetskopieringslösningar (till exempel DPM som körs i en Hyper-V virtuell dator) som sparar säkerhetskopierade data till VHD/VHDX-filer på en Windows-filserver

DPM och deduplicering

Om du använder deduplicering med DPM kan det leda till stora besparingar. Mängden utrymme som sparas genom deduplicering vid optimering av DPM-säkerhetskopieringsdata varierar beroende på vilken typ av data som säkerhetskopieras. En säkerhetskopia av en krypterad databasserver kan till exempel resultera i minimala besparingar eftersom dubbletter av data döljs av krypteringsprocessen. Säkerhetskopiering av en stor VDI-distribution (Virtual Desktop Infrastructure) kan dock leda till stora besparingar i intervallet 70–90 +%, eftersom det vanligtvis finns en stor mängd dataduplicering mellan de virtuella skrivbordsmiljöerna. I konfigurationen som beskrivs i artikeln körde vi olika testarbetsbelastningar och såg besparingar på mellan 50% och 90%.

Om du vill använda dedup för DPM-lagring bör DPM köras på en Hyper-V virtuell dator och lagra säkerhetskopieringsdata på VHD:er i delade mappar med datadeduplicering aktiverat.

För att distribuera DPM som en virtuell dator som säkerhetskopierar data till en dedupl-volym rekommenderar vi följande distributionstopologi:

  • DPM körs på en virtuell dator i ett Hyper-V värdkluster.

  • DPM-lagring med VHD/VHDX-filer som lagras på en SMB 3.0-resurs på en filserver.

  • I vårt testexempel konfigurerade vi filservern som en utskalad filserver (SOFS) som distribuerats med hjälp av lagringsvolymer som konfigurerats från lagringspooler som skapats med direkt anslutna SAS-enheter. Den här distributionen säkerställer prestanda i stor skala.

Observera att:

  • Den här distributionen stöds för DPM 2012 R2 och senare och för alla arbetsbelastningsdata som kan säkerhetskopieras av DPM 2012 R2 och senare.

  • Alla Windows File Server-noder där DPM virtuella hårddiskar finns och där deduplicering ska aktiveras måste köra Windows Server 2012 R2 med Samlad uppdatering november 2014 eller senare.

  • Vi tillhandahåller allmänna rekommendationer och instruktioner för scenarioimplementeringen. När maskinvaruspecifika exempel ges används maskinvaran som distribueras i Microsoft Cloud Platform System (CPS) som referens.

  • I det här exemplet används SMB 3.0-fjärrresurser för att lagra säkerhetskopierade data, så primära maskinvarukrav centreras runt filservernoderna i stället för Hyper-V noder. Följande maskinvarukonfiguration används i CPS för säkerhetskopiering och produktionslagring. Den övergripande maskinvaran används för både säkerhetskopiering och produktionslagring, men antalet enheter som anges i enhetshöljena är endast de som används för säkerhetskopiering.

    • Skalbar filserverkluster med fyra noder

    • Konfiguration per nod

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 kärnor, 16 logiska processorer

      • 128 GB 1333 MHz RDIMM-minne

      • Lagringsanslutningar: 2 portar i SAS, 1 port på 10 GbE iWarp/RDMA

    • Fyra JBOD-drivbänkar

      • 18 diskar i varje JBOD – 16 x 4 TB hårddiskar + 2 x 800 GB SSD

      • Dubbel sökväg till varje enhet – Multipath I/O-belastningsutjämningsprincip inställd på endast redundansväxling

      • SSD:er som konfigurerats för återskrivningscache (WBC) och resten för dedikerade journalenheter

Konfigurera deduplicerade volymer

Låt oss överväga hur stora volymer som ska vara för att stödja de deduplicerade VHDX-filer som innehåller DPM-data. I CPS har vi skapat volymer på 7,2 TB vardera. Den optimala volymstorleken beror främst på hur mycket och hur ofta data på volymen ändras och på dataåtkomstens dataflödeshastigheter för disklagringsundersystemet. Det är viktigt att observera att om dedupliceringsbearbetningen inte kan hänga med i förändringstakten av de dagliga dataförändringarna (churn) sjunker besparingsgraden tills bearbetningen kan slutföras. För mer detaljerad information, se Dimensionering av volymer för datadeduplicering. Följande allmänna riktlinjer rekommenderas för dedupliceringsvolymer:

  • Använd paritetslagringsutrymmen med medvetenhet om kapslingar för motståndskraft och ökad diskanvändning.

  • Formatera NTFS med 64 KB-allokeringsenheter och stora filpostsegment för att fungera bättre med deduplicering av glesa filer.

  • I maskinvarukonfigurationen ovanför den rekommenderade volymstorleken på 7,2 TB kommer volymer att konfigureras på följande sätt:

    • Inneslutningskänslig dubbel paritet 7,2 TB + 1 GB skriv-cache

      • ResiliencySettingName == Paritet

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Prestanda för dubbel paritet vid 64 KB interleave är mycket lägre än som standard 256 KB interleave)

      • IsEnclosureAware == $true

      • Allokeringsenhetsstorlek=64 kB

      • Stora FRS

      Konfigurera en ny virtuell disk i den angivna lagringspoolen enligt följande:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Var och en av dessa volymer måste sedan formateras som:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      I CPS-distributionen konfigureras dessa sedan som CSV:er.

    • Inom dessa volymer lagrar DPM en serie VHDX-filer för att lagra säkerhetskopierade data. Aktivera deduplicering på volymen efter formatering på följande sätt:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Det här kommandot ändrar även följande inställningar för deduplicering på volymnivå:

      • Ställ in UsageType till HyperV: Detta leder till att deduplicering bearbetar öppna filer. Detta är nödvändigt eftersom VHDX-filerna som används för säkerhetskopiornas lagring av DPM förblir öppna medan DPM körs i dess virtuella maskin.

      • Inaktivera PartialFileOptimization: Detta gör att deduplicering optimerar alla delar av en öppen fil i stället för att söka efter ändrade avsnitt med en minimiålder.

      • Ange Parametern MinFileAgeDays till 0: Med PartialFileOptimization inaktiverat ändrar MinFileAgeDays sitt beteende så att deduplicering endast tar hänsyn till filer som inte har ändrats under så många dagar. Eftersom vi vill att deduplicering ska börja bearbeta säkerhetskopieringsdata i alla DPM VHDX-filer utan fördröjning måste vi ange MinFileAgeDays till 0.

Mer information om hur du konfigurerar deduplicering finns i Installera och konfigurera dataduplicering.

Konfigurera DPM-lagring

För att undvika fragmenteringsproblem och upprätthålla effektiviteten allokeras DPM-lagring med hjälp av VHDX-filer som finns på de deduplicerade volymerna. Tio dynamiska VHDX-filer på 1 TB vardera skapas på varje volym och kopplas till DPM. Dessutom görs 3 TB av överprovisionering av lagring för att dra nytta av de lagringsbesparingar som genereras av deduplicering. Eftersom deduplicering ger ytterligare lagringsbesparingar kan nya VHDX-filer skapas på dessa volymer för att förbruka det sparade utrymmet. Vi testade DPM-servern med upp till 30 VHDX-filer kopplade till den.

  1. Kör följande kommando för att skapa virtuella hårddiskar som ska läggas till senare på DPM-servern:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Sedan lade de skapade virtuella hårddiskarna till DPM-servern enligt följande:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Det här steget konfigurerar en lagringspool som den disk eller de diskar där DPM lagrar repliker och återställningspunkter för skyddade data. Den här poolen är en del av DPM-konfigurationen och är separat från den lagringspool som används för att skapa de datavolymer som beskrivs i föregående avsnitt. Mer information om DPM-lagringspooler finns i Konfigurera disklagring och lagringspooler.

Konfigurera Windows File Server-klustret

Deduplicering kräver en särskild uppsättning konfigurationsinställningar för att stödja virtualiserad DPM-lagring på grund av datamängdens omfattning och storleken på enskilda filer. De här alternativen är globala för klustret eller klusternoden. Deduplicering måste vara aktiverat och klusterinställningarna måste konfigureras individuellt på varje nod i klustret.

  1. Aktivera deduplicering på Windows File Server-lagring– Dedupliceringsrollen måste vara installerad på alla noder i Windows File Server-klustret. Det gör du genom att köra följande PowerShell-kommando på varje nod i klustret:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Justera dedupliceringsbearbetning för säkerhetskopierade datafiler– Kör följande PowerShell-kommando för att ställa in för att starta optimering utan fördröjning och inte för att optimera partiella filskrivningar. Som standard schemaläggs GC-jobb (Skräpinsamling) varje vecka, och var fjärde vecka körs GC-jobbet i "djupt GC"-läge för en mer fullständig och tidsintensiv sökning efter data som ska tas bort. För DPM-arbetsbelastningen resulterar detta "djupa GC"-läge inte i några påtagliga vinster och minskar tiden då deduplicering kan optimera data. Därför inaktiverar vi detta djupläge.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Finjustera prestanda för storskaliga åtgärder– Kör följande PowerShell-skript för att:

    • Inaktivera extra bearbetning och I/O när fördjupad skräpinsamling körs

    • Reservera ytterligare minne för hashbearbetning

    • Aktivera prioritetsoptimering för att möjliggöra omedelbar defragmentering av stora filer

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    De här inställningarna ändrar följande:

    • HashIndexFullKeyReservationPercent: Det här värdet styr hur mycket av optimeringsjobbets minne som används för befintliga chunk-hashar jämfört med nya chunk-hashar. I hög skala resulterar 70% i bättre optimeringsgenomflöde än standardvärdet på 50%.

    • EnablePriorityOptimization: Med filer som närmar sig 1 TB kan fragmentering av en enda fil ackumulera tillräckligt med fragment för att närma sig gränsen per fil. Optimeringsbearbetning konsoliderar dessa fragment och förhindrar att den här gränsen nås. Genom att ange den här registernyckeln lägger deduplicering till ytterligare en process för att hantera mycket fragmenterade deduplicerade filer med hög prioritet.

Konfigurera DPM och dedupliceringsschemaläggning

Både säkerhetskopierings- och dedupliceringsåtgärder är I/O-intensiva. Om de skulle köras samtidigt kan ytterligare omkostnader för att växla mellan åtgärderna bli kostsamma och leda till att mindre data säkerhetskopieras eller dedupliceras dagligen. Vi rekommenderar att du konfigurerar dedikerade och separata deduplicerings- och säkerhetskopieringsfönster. Detta säkerställer att I/O-trafiken för var och en av dessa åtgärder distribueras effektivt under den dagliga systemåtgärden. De rekommenderade riktlinjerna för schemaläggning är:

  • Dela upp dagar i icke-överlappande säkerhetskopierings- och dedupliceringsfönster.

  • Konfigurera anpassade säkerhetskopieringsscheman.

  • Konfigurera anpassade dedupliceringsscheman.

  • Schemalägg optimering i det dagliga dedupliceringsfönstret.

  • Konfigurera helgdedupliceringsscheman separat och använd den tiden för sopinsamling och underhållsuppgifter.

Du kan konfigurera DPM-scheman med följande PowerShell-kommando:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

I den här konfigurationen är DPM konfigurerat för att säkerhetskopiera virtuella datorer mellan 22:00 och 06:00. Dedupliceringen schemaläggs för de återstående 16 timmarna på dagen. Den faktiska dedupliceringstiden du konfigurerar beror på volymens storlek. Mer information finns i Justering av volymer för datadeduplicering. Ett 16-timmars dedupliceringsfönster som börjar kl. 06.00 efter säkerhetskopieringsfönstrets slut konfigureras på följande sätt från en enskild klusternod:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

När säkerhetskopieringsfönstret ändras är det viktigt att dedupliceringsfönstret ändras tillsammans med det så att de inte överlappar varandra. Deduplicerings- och säkerhetskopieringsfönstret behöver inte fylla hela 24 timmar på dagen. Det rekommenderas dock starkt att de tillåter variationer i bearbetningstiden på grund av förväntade dagliga ändringar i arbetsbelastningar och dataomsättning.

Konsekvenser för säkerhetskopieringsprestanda

När en uppsättning filer har deduplicerats kan det uppstå en liten prestandakostnad vid åtkomst till filerna. Detta beror på den ytterligare bearbetning som krävs för att få åtkomst till det filformat som används av deduplicerade filer. I det här scenariot är filerna en uppsättning VHDX-filer som ser kontinuerlig användning av DPM under säkerhetskopieringsfönstret. Effekten av att dessa filer dedupliceras innebär att säkerhetskopierings- och återställningsåtgärderna kan vara något långsammare än utan deduplicering. När det gäller alla säkerhetskopieringsprodukter är DPM en skrivintensiv arbetsbelastning med läsåtgärder som är viktigast under återställningsåtgärder. Rekommendationerna för att hantera konsekvenserna för säkerhetskopieringsprestanda på grund av deduplicering är:

  • Läs-/återställningsåtgärder: Effekterna på läsåtgärder är vanligtvis försumbara och kräver inga särskilda överväganden eftersom dedupliceringsfunktionen cachelagrar deduplicerade segment.

  • Skriv-/säkerhetskopieringsåtgärder: Planera för en ökning av säkerhetskopieringstiden på 5–10% när du definierar säkerhetskopieringsfönstret. (Det här är en ökning jämfört med den förväntade säkerhetskopieringstiden när du skriver till icke-deduplicerade volymer.)

Övervakning

DPM och datadeduplicering kan övervakas för att säkerställa att:

  • Tillräckligt med diskutrymme har etablerats för att lagra säkerhetskopierade data

  • DPM-säkerhetskopieringsjobb slutförs normalt

  • Deduplicering är aktiverat på säkerhetskopieringsvolymerna

  • Inställningarna för dedupliceringsscheman är korrekta

  • Dedupliceringsbearbetningen slutförs normalt varje dag.

  • Besparingstakten för deduplicering matchar antaganden som gjorts för systemkonfiguration

Om dedupliceringen lyckas beror på systemets övergripande maskinvarufunktioner (inklusive processorbearbetningshastighet, I/O-bandbredd, lagringskapacitet), korrekt systemkonfiguration, genomsnittlig systembelastning och den dagliga mängden ändrade data.

Du kan övervaka DPM med DPM Central Console. Se Installera Central Konsol.

Du kan övervaka deduplicering för att kontrollera dedupliceringsstatus, sparandefrekvens och schemastatus med hjälp av följande PowerShell-kommandon:

Hämta status:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Få besparingar:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Hämta schemastatusen med hjälp av cmdleten Get-DedupSchedule.

Övervaka händelser

Övervakning av händelseloggen kan hjälpa dig att förstå dedupliceringshändelser och status.

  • För att visa dedupliceringshändelser i Utforskaren, navigera till Program- och tjänstloggar>Microsoft>Windows>Deduplicering.

  • Om värdet LastOptimizationResult = 0x00000000 visas i Get-DedupStatus |fl Windows PowerShell-resultat bearbetades hela datamängden av det tidigare optimeringsjobbet. Om inte så kunde systemet inte slutföra dedupliceringsbearbetningen och du kanske vill kontrollera konfigurationsinställningarna, till exempel volymstorlek.

Mer detaljerade cmdlet-exempel finns i Övervaka och rapportera för datadeduplicering.

Övervaka lagring av säkerhetskopior

I vårt konfigurationsexempel fylls volymerna på 7,2 TB med 10 TB "logiska" data (storleken på data när de inte dedupliceras) som lagras i dynamiska VHDX-filer på 10 x 1 TB. När dessa filer ackumulerar ytterligare säkerhetskopieringsdata fyller de långsamt upp volymen. Om besparingsprocenten till följd av deduplicering är tillräckligt hög kan alla 10 filer nå sin maximala logiska storlek och fortfarande få plats i volymen på 7,2 TB (eventuellt kan det till och med finnas ytterligare utrymme för att allokera ytterligare VHDX-filer för DPM-servrar att använda). Men om storleksbesparingarna från dedupliceringen inte räcker kan utrymmet på volymen ta slut innan VHDX-filerna når sin fulla logiska storlek och volymen blir full. För att förhindra att volymerna blir fulla rekommenderar vi följande:

  • Var försiktig när det gäller volymstorlekskrav och tillåt viss överetablering av lagring. Vi rekommenderar att du tillåter en buffert på minst 10% när du planerar för användning av lagring av säkerhetskopior för att tillåta förväntade variationer i dedupliceringsbesparingar och dataomsättning.

  • Övervaka de volymer som används för lagring av säkerhetskopior för att säkerställa att utrymmesanvändningen och dedupliceringsbesparingarna är på förväntade nivåer.

Om volymen blir full resulterar följande symtom:

  • Den virtuella DPM-datorn sätts i ett pauskritiskt tillstånd och inga fler säkerhetskopieringar kan utföras av den.

  • Alla säkerhetskopieringsjobb som använder VHDX-filerna på den fullständiga volymen misslyckas.

För att återställa från det här villkoret och återställa systemet till normal drift kan ytterligare lagring etableras och en lagringsmigrering av den virtuella DPM-datorn eller dess VHDX kan utföras för att frigöra utrymme:

  1. Stoppa den DPM-server som äger VHDX-filerna på den fullständiga säkerhetskopieringsresursen.

  2. Skapa ytterligare en volym- och säkerhetskopieringsresurs med samma konfiguration och inställningar som används för befintliga resurser, inklusive inställningar för NTFS och deduplicering.

  3. Migrera lagring för den virtuella DPM Server-datorn och migrera minst en VHDX-fil från den fullständiga säkerhetskopieringsresursen till den nya säkerhetskopieringsresursen som skapades i steg 2.

  4. Kör ett GC-jobb (Data Deduplication Garbage Collection) på källsäkerhetskopieresursen som var full. GC-jobbet ska lyckas och frigöra ledigt utrymme.

  5. Starta om den virtuella DPM Server-datorn.

  6. Ett DPM-konsekvenskontrolljobb utlöses under nästa säkerhetskopieringsfönster för alla datakällor som misslyckades tidigare.

  7. Alla säkerhetskopieringsjobb bör nu lyckas.

Sammanfattning

Kombinationen av deduplicering och DPM ger betydande utrymmesbesparingar. Detta ger högre kvarhållningshastigheter, oftare säkerhetskopieringar och bättre TCO för DPM-distributionen. Vägledningen och rekommendationerna i det här dokumentet bör ge dig verktyg och kunskaper för att konfigurera deduplicering för DPM-lagring och se fördelarna för dig själv i din egen distribution.

Vanliga frågor

Q: DPM VHDX-filer måste vara 1 TB stora. Innebär det att DPM inte kan säkerhetskopiera en virtuell dator eller SharePoint eller SQL DB eller filvolym med storlek > 1 TB?

A: Nej. DPM aggregerar flera volymer i en för att lagra säkerhetskopior. Filstorleken på 1 TB har därför inga konsekvenser för datakällans storlekar som DPM kan säkerhetskopiera.

Q: Det verkar som om VHDX-filer för DPM-lagring endast måste distribueras på fjärranslutna SMB-filresurser. Vad händer om jag lagrar VHDX-säkerhetskopieringsfilerna på dedupliceringsaktiverade volymer i samma system där den virtuella DPM-datorn körs?

A: Enligt beskrivningen ovan är DPM, Hyper-V och deduplicering lagrings- och beräkningsintensiva åtgärder. Att kombinera alla tre i ett enda system kan leda till I/O- och processintensiva åtgärder som kan svälta Hyper-V och dess virtuella datorer. Om du bestämmer dig för att experimentera med att konfigurera DPM på en virtuell dator med lagringsvolymerna för säkerhetskopiering på samma dator bör du övervaka prestanda noggrant för att säkerställa att det finns tillräckligt med I/O-bandbredd och beräkningskapacitet för att underhålla alla tre åtgärderna på samma dator.

Q: Du rekommenderar dedikerade, separata deduplicerings- och säkerhetskopieringsfönster. Varför kan jag inte aktivera deduplicering medan DPM säkerhetskopierar? Jag måste säkerhetskopiera min SQL DB var 15:e minut.

A: Deduplicering och DPM är lagringsintensiva åtgärder och när båda körs samtidigt kan det vara ineffektivt och leda till I/O-svält. För att skydda arbetsbelastningar mer än en gång om dagen (till exempel SQL Server var 15:e minut) och för att aktivera deduplicering samtidigt bör du se till att det finns tillräckligt med I/O-bandbredd och datorkapacitet för att undvika resurssvält.

Q: Baserat på den konfiguration som beskrivs måste DPM köras på en virtuell dator. Varför kan jag inte aktivera deduplicering på replikvolym- och skuggkopievolymer direkt i stället för på VHDX-filer?

A: Dedup utför deduplicering per volym på enskilda filer. Eftersom deduplicering optimeras på filnivå är den inte utformad för att stödja VolSnap-tekniken som DPM använder för att lagra sina säkerhetskopierade data. Genom att köra DPM på en virtuell dator mappar Hyper-V DPM-volymåtgärderna till VHDX-filnivån, vilket gör att deduplicering kan optimera säkerhetskopieringsdata och ge större lagringsbesparingar.

Q: Ovanstående exempelkonfiguration har bara skapat 7,2 TB volymer. Kan jag skapa större eller mindre volymer?

A: Dedup kör en tråd per volym. När volymstorleken blir större kräver deduplicering mer tid för att slutföra optimeringen. Å andra sidan, med små volymer, är det mindre data att söka efter dubbletter i, vilket kan leda till lägre besparingar. Därför rekommenderar vi att du finjusterar volymstorleken baserat på total omsättning och systemmaskinvara för optimala besparingar. Mer detaljerad information om hur du bestämmer volymstorlekar som används med deduplicering finns i Storleksvolymer för Deduplicering i Windows Server. Mer detaljerad information om hur du bestämmer volymstorlekar som används med deduplicering finns i Storleksvolymer för datadeduplicering.