Deduplicera DPM-lagring
Viktigt
Den här versionen av Data Protection Manager (DPM) har nått slutet av supporten. Vi rekommenderar att du uppgraderar till DPM 2022.
System Center Data Protection Manager (DPM) kan använda datadeduplicering.
Datadeduplicering (deduplicering) hittar och tar bort duplicerade data i en volym samtidigt som data förblir korrekta och fullständiga. Läs mer om hur du planerar datadeduplicering.
Deduplicering minskar lagringsförbrukningen. Även om mängden redundans för en uppsättning data beror på arbetsbelastningen och datatypen, visar säkerhetskopieringsdata vanligtvis stora besparingar när deduplicering används.
Dataredundans kan minskas ytterligare med deduplicering när säkerhetskopierade data av liknande typer och arbetsbelastningar bearbetas tillsammans.
Deduplicering är utformat för att installeras på primära datavolymer utan ytterligare dedikerad maskinvara så att den inte påverkar den primära arbetsbelastningen på servern. Standardinställningarna är icke-intrusiva eftersom de tillåter att data åldras i fem dagar innan de bearbetar en viss fil och har en standardstorlek på 32 kB. Implementeringen har utformats för låg minnes- och processoranvändning.
Deduplicering kan implementeras för följande arbetsbelastningar:
Allmänna filresurser: Publicering och delning av gruppinnehåll, arbetsmappar för användare och mappomdirigering/offlinefiler
Resurser för programvarudistribution: binära filer, avbildningar och uppdateringar för programvara
VHD-bibliotek: Fillagring för virtuella hårddiskar (VHD) för etablering till hypervisorer
VDI-distributioner (endast Windows Server 2012 R2): VDI-distributioner (Virtual Desktop Infrastructure) med Hyper-V
Virtualiserad säkerhetskopiering: Säkerhetskopieringslösningar (till exempel DPM som körs på en virtuell Hyper-V-dator) som sparar säkerhetskopieringsdata till VHD-/VHDX-filer på en Windows-filserver
DPM och deduplicering
Du kan spara mycket lagringsutrymme genom att använda deduplicering med DPM. Hur mycket utrymme du sparar med datadeduplicering när du optimerar säkerhetskopierade data med DPM beror på vilken typ av data du säkerhetskopierar. En säkerhetskopia av en krypterad databasserver kan exempelvis resultera i minimala utrymmesbesparingar eftersom eventuella dubblettdata döljs i och med krypteringsprocessen. Säkerhetskopiering av en stor VDI-distribution (Virtual Desktop Infrastructure) kan dock resultera i stora besparingar i intervallet 70–90 +%, eftersom det vanligtvis finns en stor mängd dataduplicering mellan de virtuella skrivbordsmiljöerna. I konfigurationen som beskrivs i artikeln körde vi olika testarbetsbelastningar och såg besparingar på mellan 50 % och 90 %.
Om du vill använda deduplicering för DPM-lagring bör DPM köras på en virtuell Hyper-V-dator och lagra säkerhetskopierade data på virtuella hårddiskar i delade mappar med dataduplicering aktiverat.
Rekommenderad distribution
För att distribuera DPM som en virtuell dator som säkerhetskopierar data till en dedupl-volym rekommenderar vi följande distributionstopologi:
DPM som körs på en virtuell dator i ett Hyper-V-värdkluster.
DPM-lagring med hjälp av VHD-/VHDX-filer som lagras på en SMB 3.0-resurs på en filserver.
I vårt testexempel konfigurerade vi filservern som en utskalad filserver (SOFS) som distribuerats med hjälp av lagringsvolymer som konfigurerats från Lagringsutrymmen pooler som skapats med direkt anslutna SAS-enheter. Den här distributionen garanterar prestanda i stor skala.
Tänk på följande:
Den här distributionen stöds för DPM 2012 R2 och senare och för alla arbetsbelastningsdata som kan säkerhetskopieras av DPM 2012 R2 och senare.
Alla Windows-filservernoder där DPM-virtuella hårddiskar finns och där deduplicering ska aktiveras måste köra Windows Server 2012 R2 med samlad uppdatering november 2014 eller senare.
Vi ger allmänna rekommendationer och instruktioner för distributionen av scenariot. I maskinvaruspecifika exempel används maskinvaran som distribuerats i Microsoft Cloud Platform System (CPS) som referens.
I det här exemplet används SMB 3.0-fjärrresurser för att lagra säkerhetskopieringsdata, så primära maskinvarukrav centreras kring filservernoderna i stället för Hyper-V-noderna. Följande maskinvarukonfiguration används i CPS för säkerhetskopierings- och produktionslagring. Den övergripande maskinvaran används för både säkerhetskopiering och produktionslagring, men antalet enheter som anges i enhetshöljena är bara de som används för säkerhetskopiering.
Skalbar filserverkluster med fyra noder
Per nodkonfiguration
2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 kärnor, 16 logiska processorer
128 GB 1333 MHz RDIMM-minne
Lagringsanslutningar: 2 portar i SAS, 1 port på 10 GbE iWarp/RDMA
Fyra JBOD-enhetskabinett
18 diskar i varje JBOD – 16 x 4 TB HÅRDDISKar + 2 x 800 GB SSD
Dubbel sökväg till varje enhet – Multipath I/O-belastningsutjämningsprincip inställd på redundansväxling endast
SSD:er som konfigurerats för återskrivningscache (WBC) och resten för dedikerade journalenheter
Konfigurera dedupliceringsvolymer
Nu ska vi titta på hur stora volymerna bör vara för att kunna hantera de deduplicerade VHDX-filerna med DPM-data. I CPS har vi skapat volymer på 7,2 TB vardera. Den optimala volymstorleken beror huvudsakligen på hur mycket och hur ofta data på volymen ändras, och på dataåtkomsthastigheten i diskens underlagringssystem. Det är viktigt att observera att om dedupliceringsbearbetningen inte kan hålla jämna led med dagliga dataändringar (omsättningen) sjunker besparingstakten tills bearbetningen kan slutföras. Mer detaljerad information finns i Storleksanpassa volymer för datadeduplicering. Följande allmänna riktlinjer rekommenderas för dedupliceringsvolymer:
Använd paritetsbaserade lagringsutrymmen med kabinettmedvetenhet för flexibilitet och ökad diskanvändning.
Formatera NTFS med 64 KB-allokeringsenheter och stora filpostsegment för att fungera bättre med deduplicering av glesa filer.
I maskinvarukonfigurationen ovanför den rekommenderade volymstorleken på 7,2 TB volymer konfigureras volymerna på följande sätt:
Kabinettsmedveten dubbel paritet 7,2 TB + 1 GB tillbakaskrivningscache
ResiliencySettingName == Parity
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256 KB (Prestanda för dubbel paritet vid 64 KB interleave är mycket lägre än vid standardavvikelsen på 256 KB)
IsEnclosureAware == $true
AllocationUnitSize=64 KB
Stor FRS
Skapa en ny virtuell disk i den angivna lagringspoolen enligt följande:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Var och en av dessa volymer måste sedan formateras som:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
I CPS-distributionen konfigureras dessa sedan som CSV:er.
Inom dessa volymer lagrar DPM en serie VHDX-filer för att lagra säkerhetskopierade data. Aktivera deduplicering på volymen efter formatering på följande sätt:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Det här kommandot ändrar även följande inställningar för deduplicering på volymnivå:
Ange UsageType till HyperV: Detta resulterar i deduplicering av öppna filer, vilket krävs eftersom VHDX-filerna som används för lagring av säkerhetskopior av DPM förblir öppna med DPM som körs på den virtuella datorn.
Inaktivera PartialFileOptimization: Detta gör att deduplicering optimerar alla avsnitt i en öppen fil i stället för att söka efter ändrade avsnitt med en lägsta ålder.
Ange parametern MinFileAgeDays till 0: Med PartialFileOptimization inaktiverat ändrar MinFileAgeDays sitt beteende så att deduplicering endast tar hänsyn till filer som inte har ändrats under så många dagar. Eftersom vi vill att dedupliceringen ska börja bearbeta säkerhetskopierade data i alla DPM VHDX-filer utan fördröjning måste vi tilldela MinFileAgeDays värdet 0.
Mer information om hur du konfigurerar deduplicering finns i Installera och konfigurera dataduplicering.
Konfigurera DPM-lagring
För att undvika fragmenteringsproblem och bibehålla effektiviteten allokeras DPM-lagringen med hjälp av VHDX-filer som finns på de deduplicerade volymerna. Tio dynamiska VHDX-filer på 1 TB vardera skapas på varje volym och kopplas till DPM. Dessutom görs 3 TB överetablering av lagring för att dra nytta av de lagringsbesparingar som genereras av deduplicering. Eftersom deduplicering ger ytterligare lagringsbesparingar kan nya VHDX-filer skapas på dessa volymer för att förbruka det sparade utrymmet. Vi testade DPM-servern med upp till 30 VHDX-filer kopplade till den.
Kör följande kommando för att skapa virtuella hårddiskar som du senare lägger till på DPM-servern:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
Lägg sedan till de virtuella hårddiskar du skapat till DPM-servern enligt följande:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
Det här steget konfigurerar en lagringspool som den disk eller de diskar där DPM lagrar repliker och återställningspunkter för skyddade data. Den här poolen är en del av DPM-konfigurationen och är separat från poolen för lagringsutrymmen som används för att skapa datavolymerna som beskrivs i föregående avsnitt. Mer information om DPM-lagringspooler finns i Konfigurera disklagring och lagringspooler.
Konfigurera Windows-filserverklustret
På grund av dataomfattningen och storleken på enskilda filer kräver dedupliceringen en särskild uppsättning konfigurationsalternativ för att kunna hantera virtualiserad DPM-lagring. Dessa alternativ är globala för klustret eller klusternoden. Deduplicering måste vara aktiverat och klusterinställningarna måste vara individuellt konfigurerade på varje nod i klustret.
Aktivera deduplicering för Windows-filserverlagring – Dedupliceringsrollen måste vara installerad på alla noder i Windows-filserverklustret. Det gör du genom att köra följande PowerShell-kommando på varje nod i klustret:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Finjustera dedupliceringsbearbetningen för säkerhetskopieringsdatafiler – Kör följande PowerShell-kommando för att ställa in för att starta optimeringen utan fördröjning och inte optimera partiella filskrivningar. Som standard schemaläggs skräpinsamlingsjobb (GC) varje vecka, och var fjärde vecka körs GC-jobbet i "djupt GC"-läge för en mer fullständig och tidsintensiv sökning efter data att ta bort. För DPM-arbetsbelastningen resulterar detta "djupa GC"-läge inte i några märkbara vinster och minskar den tid då deduplicering kan optimera data. Därför väljer vi att inaktivera detta djupa läge.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Justera prestanda för storskaliga åtgärder – Kör följande PowerShell-skript för att:
Inaktivera ytterligare bearbetning och I/O när djupgående skräpinsamling körs
Reservera ytterligare minne för hashbearbetning
Aktivera prioritetsoptimering så att stora filer kan defragmenteras direkt
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Dessa inställningar ändrar följande:
HashIndexFullKeyReservationPercent: Det här värdet styr hur mycket av optimeringsjobbets minne som används för befintliga segment-hashvärden jämfört med nya segmenthashvärden. Vid stora volymer resulterar 70 % i bättre optimeringsgenomflöde än standardvärdet på 50 %.
EnablePriorityOptimization: Med filer som närmar sig 1 TB kan fragmentering av en enda fil ackumulera tillräckligt med fragment för att närma sig gränsen per fil. Optimeringsbearbetningen konsoliderar dessa fragment och förhindrar att den här gränsen nås. Genom att ange den här registernyckeln lägger dedupliceringen till en till process för att hantera kraftigt fragmenterade deduplicerade filer med hög prioritet.
Konfigurera DPM- och dedupliceringsschemaläggning
Både säkerhetskopierings- och dedupliceringsåtgärder är I/O-krävande. Om de körs samtidigt kan den ytterligare belastningen för att växla mellan åtgärderna bli kostsam och resultera i att mindre data säkerhetskopieras eller dedupliceras per dag. Vi rekommenderar att du konfigurerar dedikerade och separata deduplicerings- och säkerhetskopieringsscheman. På så sätt försäkrar du dig om att I/O-trafiken för respektive åtgärd fördelas effektivt under den dagliga systemdriften. Följande riktlinjer rekommenderas för schemaläggning:
Dela upp dagarna i säkerhets- och dedupliceringsintervall som inte överlappar varandra.
Skapa anpassade säkerhetskopieringsscheman.
Skapa anpassade dedupliceringsscheman.
Schemalägg optimering i det dagliga dedupliceringsintervallet.
Skapa dedupliceringsscheman för helger separat, och använd den tiden för skräpinsamlings- och datarensningsjobb.
Du kan skapa DPM-scheman med följande PowerShell-kommando:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
I den här konfigurationen konfigureras DPM att säkerhetskopiera virtuella datorer mellan 22:00 och 06:00. Dedupliceringen schemaläggs för dagens resterande 16 timmar. Den faktiska dedupliceringstiden som du konfigurerar beror på volymstorleken. Mer information finns i Storleksanpassa volymer för datadeduplicering. Ett 16-timmars dedupliceringsfönster som börjar kl. 06.00 när säkerhetskopieringsfönstret är slut konfigureras på följande sätt från alla enskilda klusternoder:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
När säkerhetskopieringsfönstret ändras är det viktigt att dedupliceringsfönstret ändras tillsammans med det så att de inte överlappar varandra. Deduplicerings- och säkerhetskopieringsfönstret behöver inte fyllas i hela dygnets 24 timmar. Vi rekommenderar dock starkt att de gör det för att tillåta variationer i bearbetningstiden på grund av förväntade dagliga ändringar i arbetsbelastningar och dataomsättning.
Konsekvenser för säkerhetskopieringsprestanda
När en uppsättning filer har deduplicerats kan det uppstå en liten prestandakostnad vid åtkomst till filerna. Detta beror på den ytterligare bearbetning som krävs för att komma åt filformatet som används av deduplicerade filer. I det här scenariot är filerna en uppsättning VHDX-filer som används kontinuerligt av DPM under säkerhetskopieringsintervallet. Effekten av att de här filerna dedupliceras innebär att säkerhetskopierings- och återställningsåtgärderna kan vara något långsammare än utan deduplicering. Precis som andra säkerhetskopieringsprodukter är DPM en skrivintensiv arbetsbelastning där läsåtgärder är viktigast i samband med återställningsaktiviteter. Vi rekommenderar följande för att hantera dedupliceringens effekt på säkerhetskopieringens prestanda:
Läs-/återställningsåtgärder: Effekterna på läsåtgärder är vanligtvis försumbara och kräver inga särskilda överväganden eftersom dedupliceringsfunktionen cachelagrar deduplicerade segment.
Skriv/säkerhetskopieringsåtgärder: Planera för en ökning av säkerhetskopieringstiden på 5–10 % när du definierar säkerhetskopieringsfönstret. (Det här är en ökning jämfört med den förväntade säkerhetskopieringstiden när du skriver till volymer som inte dedupliceras.)
Övervakning
Du kan övervaka DPM och datadedupliceringen för att försäkra att:
Tillräckligt diskutrymme etableras för att lagra säkerhetskopieringsdata
DPM-säkerhetskopieringsjobben slutförs som de ska
Dedupliceringen är aktiverad på säkerhetskopieringsvolymerna
Dedupliceringscheman är korrekt angivna
Dedupliceringsbearbetningen slutförs som den ska på en daglig basis
Takten på dedupliceringsbesparingarna motsvarar de antaganden som gjordes under systemkonfigurationen
Dedupliceringsresultatet beror på systemets maskinvarufunktioner (inklusive processorhastighet, I/O-bandbredd, lagringskapacitet), rätt systemkonfiguration, genomsnittlig systembelastning och den dagliga mängden modifierade data.
Du kan övervaka DPM med DPM Central Console. Se Installera den centrala konsolen.
Du kan övervaka deduplicering för att kontrollera dedupliceringsstatus, sparandefrekvens och schemastatus med hjälp av följande PowerShell-kommandon:
Hämta status:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Hämta besparing:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Hämta schemastatus med hjälp av Get-DedupSchedule-cmdleten.
Övervaka händelser
Genom att övervaka händelseloggen kan du få en bättre inblick i dedupliceringshändelser och dedupliceringsstatusen.
Du kan visa dedupliceringshändelser genom att öppna Utforskaren och gå till Program- och tjänstloggar>Microsoft>Windows>Deduplicering.
Om värdet LastOptimizationResult = 0x00000000 visas i Get-DedupStatus |fl Windows PowerShell resultat bearbetades hela datauppsättningen av det tidigare optimeringsjobbet. Om inte kunde systemet inte slutföra dedupliceringen och du kan behöva kontrollera konfigurationsinställningarna, t.ex. volymstorleken.
Mer detaljerade cmdlet-exempel finns i Övervaka och rapportera för datadeduplicering.
Övervaka lagringen av säkerhetskopierade data
I vårt konfigurationsexempel fylls volymerna på 7,2 TB med 10 TB "logiska" data (storleken på data när de inte dedupliceras) som lagras i dynamiska VHDX-filer på 10 x 1 TB. I takt med att dessa filer ackumulerar ytterligare säkerhetskopierade data börjar de långsamt fylla volymen. Om besparingsprocenten till följd av dedupliceringen är tillräckligt hög kan alla 10 filer nå sin maximala logiska storlek och fortfarande passa in i volymen på 7,2 TB (potentiellt kan det till och med finnas ytterligare utrymme för att allokera ytterligare VHDX-filer för DPM-servrar att använda). Men om storleksbesparingarna från dedupliceringen inte är tillräckliga kan utrymmet på volymen ta slut innan VHDX-filerna når sin fulla logiska storlek och volymen blir full. För att förhindra att volymerna blir fulla rekommenderar vi följande:
Var konservativ när det gäller kraven på volymstorlek och lämna utrymme för viss överetablering av lagringsutrymme. Vi rekommenderar att du tillåter en buffert på minst 10 % när du planerar för lagring av säkerhetskopior för att tillåta förväntade variationer i dedupliceringsbesparingar och dataomsättning.
Övervaka volymerna som används för att lagra säkerhetskopierade data för att försäkra dig om att utrymmesanvändningen och dedupliceringsbesparingstakten ligger på förväntade nivåer.
Om volymen blir full resulterar följande symtom:
Den virtuella DPM-datorn försätts i ett pauskritiskt tillstånd och inga fler jobb kan skickas av den virtuella datorn.
Alla säkerhetskopieringsjobb som använder VHDX-filerna på den fulla volymen misslyckas.
För att återställa från det här villkoret och återställa systemet till normal drift kan ytterligare lagring etableras och en lagringsmigrering av den virtuella DPM-datorn eller dess VHDX kan utföras för att frigöra utrymme:
Stoppa DPM-servern som äger VHDX-filerna på den fulla säkerhetskopieringsresursen.
Skapa en ytterligare volym och säkerhetskopieringsresurs med samma konfiguration och inställningar som används för de befintliga resurserna, inklusive inställningar för NTFS och deduplicering.
Migrera Lagring för den virtuella DPM Server-datorn och migrera minst en VHDX-fil från den fullständiga säkerhetskopieringsresursen till den nya säkerhetskopieringsresursen som skapades i steg 2.
Kör ett skräpinsamlingsjobb (GC) för datadeduplicering på källsäkerhetskopieringsresursen som var full. GC-jobbet bör lyckas och återvinna det lediga utrymmet.
Starta om den virtuella DPM-serverdatorn.
Ett DPM-konsekvenskontrolljobb utlöses under nästa säkerhetskopieringsfönster för alla datakällor som misslyckades tidigare.
Alla säkerhetskopieringsjobb bör lyckas.
Sammanfattning
Kombinationen av deduplicering och DPM ger stora utrymmesbesparingar. Detta innebär högre kvarhållningsgrad, mer frekventa säkerhetskopieringar och bättre total ägandekostnad för DPM-distributionen. Riktlinjerna och rekommendationerna i det här dokumentet ger dig de verktyg och den kunskap du behöver för att konfigurera deduplicering för DPM-lagring och hjälper dig att själv se fördelarna i din egen distribution.
Vanliga frågor
F: DPM VHDX-filer måste vara 1 TB stora. Innebär det att DPM inte kan säkerhetskopiera en virtuell dator eller SharePoint eller SQL DB eller filvolym med storlek > 1 TB?
A: Nej. DPM aggregerar flera volymer i en för att lagra säkerhetskopior. Filstorleken på 1 TB har därför inga konsekvenser för datakällans storlekar som DPM kan säkerhetskopiera.
F: Det verkar som VHDX-filer för DPM-lagring måste distribueras på fjärranslutna SMB-filresurser. Vad händer om jag lagrar de säkerhetskopierade VHDX-filerna på dedupliceringsaktiverade volymer i samma system där den virtuella DPM-datorn körs?
A: Som beskrivs ovan är DPM, Hyper-V och deduplicering lagrings- och beräkningsintensiva åtgärder. Att kombinera alla tre i ett enda system kan leda till I/O- och processintensiva åtgärder som kan svälta Hyper-V och dess virtuella datorer. Om du bestämmer dig för att experimentera med att konfigurera DPM på en virtuell dator med lagringsvolymerna för säkerhetskopiering på samma dator bör du övervaka prestanda noggrant för att säkerställa att det finns tillräckligt med I/O-bandbredd och beräkningskapacitet för att underhålla alla tre åtgärderna på samma dator.
F: Ni rekommenderar dedikerad, separat deduplicering och säkerhetskopieringsintervaller. Varför kan jag inte aktivera deduplicering medan DPM säkerhetskopierar? Jag måste säkerhetskopiera min SQL DB var 15:e minut.
A: Deduplicering och DPM är lagringsintensiva åtgärder och att båda körs samtidigt kan vara ineffektivt och leda till I/O-svält. För att skydda arbetsbelastningar mer än en gång om dagen (till exempel SQL Server var 15:e minut) och aktivera deduplicering samtidigt bör du därför se till att det finns tillräckligt med I/O-bandbredd och datorkapacitet för att undvika resurssvält.
F: Baserat på konfigurationen som beskrivs här måste DPM köras på en virtuell dator. Varför kan jag inte aktivera deduplicering på replik- och skuggkopievolymer direkt i stället för på VHDX-filer?
S: Dedupliceringen deduplicerar per volym och körs på enskilda filer. Eftersom deduplicering optimeras på filnivå är den inte utformad för att stödja den VolSnap teknik som DPM använder för att lagra sina säkerhetskopierade data. När DPM körs på en virtuell dator mappar Hyper-V DPM-volymaktiviteterna med VHDX-filnivån så att dedupliceringen kan optimera säkerhetskopierade data och ge större lagringsbesparingar.
F: Exempelkonfigurationen ovan har bara skapat volymer på 7,2 TB. Kan jag skapa större eller mindre volymer?
S: Dedupliceringen kör en tråd per volym. Allteftersom volymens storlek ökar behöver dedupliceringen mer tid för att slutföra optimeringen. Å andra sidan finns det mindre data för att hitta dubblettsegment med små volymer, vilket kan leda till minskade besparingar. Därför rekommenderar vi att du finjusterar volymstorleken baserat på total omsättning och systemets maskinvarufunktioner för optimala besparingar. Mer detaljerad information om hur du bestämmer volymstorleken för deduplicering finns i Sizing Volumes for Deduplication in Windows Server. Mer detaljerad information om hur du fastställer volymstorlekar som används med deduplicering finns i Ändra storlek på volymer för datadeduplicering.