Delen via


DPM-opslag ontdubbelen

Belangrijk

Deze versie van Data Protection Manager (DPM) heeft het einde van de ondersteuning bereikt. U wordt aangeraden een upgrade uit te voeren naar DPM 2022.

System Center Data Protection Manager (DPM) kan gebruikmaken van gegevensontdubbeling.

Met gegevensontdubbeling (ontdubbeling) worden dubbele gegevens in een volume gevonden en verwijderd, terwijl de gegevens correct en volledig blijven. Lees meer over het plannen van ontdubbeling .

  • Ontdubbeling vermindert het opslagverbruik. Hoewel de mate van redundantie voor een set gegevens afhankelijk is van de workload en het gegevenstype, levert back-upgegevens doorgaans grote besparingen op wanneer ontdubbeling wordt gebruikt.

  • Gegevensredundantie kan verder worden teruggebracht met ontdubbeling wanneer back-upgegevens met gelijke typen en werkbelastingen samen worden verwerkt.

  • Ontdubbeling is ontworpen om te worden geïnstalleerd op primaire gegevensvolumes zonder extra toegewezen hardware, zodat dit geen invloed heeft op de primaire werkbelasting op de server. De standaardinstellingen zijn niet-intensief, omdat ze toestaan dat gegevens vijf dagen verouderen voordat een bepaald bestand wordt verwerkt en een standaard minimale bestandsgrootte van 32 kB hebben. De implementatie is ontworpen voor laag geheugen- en CPU-gebruik.

  • Ontdubbeling kan worden geïmplementeerd op de volgende werkbelastingen:

    • Algemene bestandsshares: publicatie en delen van groepsinhoud, basismappen voor gebruikers en mapomleiding/offlinebestanden

    • Software-implementatieshares: binaire bestanden, installatiekopieën en updates

    • VHD-bibliotheken: bestandsopslag op virtuele harde schijf (VHD) voor levering aan hypervisors

    • VDI-implementaties (alleen voor Windows Server 2012 R2): VDI-implementaties (Virtual Desktop Infrastructure) met Hyper-V

    • Gevirtualiseerde back-up: back-upoplossingen (zoals DPM die wordt uitgevoerd op een virtuele Hyper-V-machine) waarmee back-upgegevens worden opgeslagen in VHD-/VHDX-bestanden op een Windows-bestandsserver

DPM en ontdubbeling

Het gebruik van ontdubbeling met DPM kan grote besparingen opleveren. De hoeveelheid ruimte die wordt bespaard door ontdubbeling wanneer DPM-back-upgegevens worden geoptimaliseerd, is afhankelijk van het type gegevens waarvan een back-up wordt gemaakt. Een back-up van een versleutelde database-server kan bijvoorbeeld minimale besparingen opleveren omdat eventuele dubbele gegevens worden verborgen door het versleutelingsproces. Back-ups van een grote VDI-implementatie (Virtual Desktop Infrastructure) kunnen echter leiden tot grote besparingen in het bereik van 70-90+%, omdat er doorgaans een grote hoeveelheid gegevensduplicatie is tussen de virtuele bureaubladomgevingen. In de configuratie die in het artikel wordt beschreven, hebben we verschillende testworkloads uitgevoerd en hebben we besparingen gezien tussen 50% en 90%.

Als u ontdubbeling wilt gebruiken voor DPM-opslag, moet DPM worden uitgevoerd op een virtuele Hyper-V-machine en back-upgegevens opslaan naar VHD's in gedeelde mappen waarvoor gegevensontdubbeling is ingeschakeld.

Als u DPM wilt implementeren als een virtuele machine die back-ups maakt van gegevens naar een dedupl-volume, raden we de volgende implementatietopologie aan:

  • DPM uitvoeren in een virtuele machine in een Hyper-V-hostcluster.

  • DPM-opslag met VHD/VHDX-bestanden op een SMB 3.0-share op een bestandsserver.

  • In ons testvoorbeeld hebben we de bestandsserver geconfigureerd als een scaled-out bestandsserver (SOFS) die is geïmplementeerd met opslagvolumes die zijn geconfigureerd vanuit Opslagruimten pools die zijn gebouwd met rechtstreeks verbonden SAS-stations. Deze implementatie zorgt voor prestaties op schaal.

Opmerking:

  • Deze implementatie wordt ondersteund voor DPM 2012 R2 en hoger en voor alle workloadgegevens waarvan een back-up kan worden gemaakt door DPM 2012 R2 en hoger.

  • Alle Windows-bestandsserverknooppunten waarop de virtuele harde schijven van DPM zich bevinden en waarop ontdubbeling wordt ingeschakeld, moeten worden uitgevoerd Windows Server 2012 R2 met updatepakket van november 2014 of hoger.

  • We bieden algemene aanbevelingen en instructies voor het implementatiescenario. Wanneer specifieke hardwarevoorbeelden zijn gegeven, wordt de hardware zoals deze is geïmplementeerd in het Microsoft Cloud Platform (CPS) als referentie gebruikt.

  • In dit voorbeeld worden externe SMB 3.0-shares gebruikt om de back-upgegevens op te slaan, zodat de primaire hardwarevereisten zich rond de bestandsserverknooppunten in plaats van de Hyper-V-knooppunten bevinden. De volgende hardwareconfiguratie wordt gebruikt in CPS voor back-up- en productieopslag. De algehele hardware wordt gebruikt voor zowel back-up- als productieopslag, maar het aantal stations dat in de stationsbehuizingen wordt vermeld, is alleen de stations die worden gebruikt voor back-up.

    • Scale-out bestandsservercluster met vier knooppunten

    • Per knooppuntconfiguratie

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 bij 2,00 GHz, 2001 MHz, 8 kernen, 16 logische processors

      • 128 GB 1333 MHz RDIMM-geheugen

      • Opslagverbindingen: 2 poorten van SAS, 1 poort van 10 GbE iWarp/RDMA

    • Vier JBOD-stationsbehuizingen

      • 18 schijven in elke JBOD - 16 x 4 TB HDD's + 2 x 800 GB SSD's

      • Dubbel pad naar elk station - Multipath I/O-taakverdelingsbeleid ingesteld op alleen failover

      • SSDs geconfigureerd voor write-back-cache (WBC) en de rest voor toegewezen logboekstations

Ontdubbelingsvolumes instellen

Hoe groot moeten volumes zijn om de ontdubbelde VHDX-bestanden met DPM-gegevens te ondersteunen? In CPS hebben we volumes gemaakt van elk 7,2 TB. De optimale volumegrootte is voornamelijk afhankelijk van de mate waarin en de frequentie waarmee de gegevens op het volume worden gewijzigd, en van de doorvoersnelheid voor gegevenstoegang naar het schijfopslagsubsysteem. Het is belangrijk om te weten dat als de ontdubbelingsverwerking de snelheid van dagelijkse gegevenswijzigingen (het verloop) niet kan bijhouden, het besparingspercentage afneemt totdat de verwerking kan worden voltooid. Zie Groottevolumes aanpassen voor gegevensontdubbeling voor meer gedetailleerde informatie. De volgende algemene richtlijnen worden aanbevolen voor ontdubbelingsvolumes:

  • Gebruik pariteitsopslagruimten met insluitingsdetectie voor tolerantie en verbeterd schijfgebruik.

  • Formatteer NTFS met toewijzingseenheden van 64 kB en grote bestandsrecordsegmenten om beter te werken met ontdubbeling van sparse-bestanden.

  • In de hardwareconfiguratie boven de aanbevolen volumegrootte van 7,2 TB volumes worden volumes als volgt geconfigureerd:

    • Behuizingsbewuste dubbele pariteit 7,2 TB + 1 GB write-back-cache

      • ResiliencySettingName == Pariteit

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 kB (Prestaties van dubbele pariteit bij 64 kB interleave zijn veel lager dan bij de standaard interleave van 256 kB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Grote FRS

      Stel als volgt een nieuwe virtuele schijf in de opgegeven opslaggroep in:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Elk van deze volumes moet vervolgens als worden opgemaakt als:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      In de CPS-implementatie zijn deze vervolgens geconfigureerd als CSV's.

    • Binnen deze volumes slaat DPM een reeks VHDX-bestanden op om de back-upgegevens op te slaan. Schakel ontdubbeling op het volume in nadat het als volgt is opgemaakt:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Met deze opdracht worden ook de volgende instellingen voor ontdubbeling op volumeniveau gewijzigd:

      • Stel UsageType in op HyperV: dit resulteert in het ontdubbelen van geopende bestanden. Dit is vereist omdat de VHDX-bestanden die worden gebruikt voor back-upopslag door DPM geopend blijven terwijl DPM wordt uitgevoerd op de virtuele machine.

      • PartialFileOptimization uitschakelen: Dit zorgt ervoor dat ontdubbeling alle secties van een geopend bestand optimaliseert in plaats van te scannen op gewijzigde secties met een minimale leeftijd.

      • Stel de parameter MinFileAgeDays in op 0: als PartialFileOptimization is uitgeschakeld, wijzigt MinFileAgeDays het gedrag, zodat ontdubbeling alleen rekening houdt met bestanden die in dat aantal dagen niet zijn gewijzigd. Aangezien we het ontdubbelingsproces zonder enige vertraging de back-upgegevens in alle DPM/VHDX-bestanden willen laten verwerken, moet MinFileAgeDays worden ingesteld op 0.

Zie Gegevensduplicatie installeren en configureren voor meer informatie over het instellen van ontdubbeling.

DPM-opslag instellen

Om fragmentatieproblemen te voorkomen en efficiëntie te garanderen, wordt DPM-opslag toegewezen met behulp van VHDX-bestanden die zich op de ontdubbelde volumes bevinden. Tien dynamische VHDX-bestanden van elk 1 TB worden gemaakt op elk volume en gekoppeld aan DPM. Ook wordt 3 TB aan overprovisioning van opslag uitgevoerd om te profiteren van de opslagbesparingen die worden gegenereerd door ontdubbeling. Omdat ontdubbeling extra opslagbesparingen oplevert, kunnen nieuwe VHDX-bestanden op deze volumes worden gemaakt om de opgeslagen ruimte te verbruiken. We hebben de DPM-server getest met maximaal 30 VHDX-bestanden die eraan zijn gekoppeld.

  1. Voer de volgende opdracht uit om virtuele harde schijven te maken die later wordt toegevoegd aan de DPM-server:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Voeg vervolgens de gemaakte virtuele harde schijven als volgt toe aan de DPM-server:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Met deze stap configureert u een opslaggroep als de schijf of schijven waarop DPM replica's en herstelpunten voor beveiligde gegevens opslaat. Deze groep maakt deel uit van de DPM-configuratie en is gescheiden van de opslagruimtegroep die wordt gebruikt om de in de vorige sectie beschreven gegevensvolumes te maken. Zie Schijfopslag en opslaggroepen configureren voor meer informatie over DPM-opslaggroepen.

Het Windows-bestandsservercluster instellen

Vanwege de gegevensschaal en de grootte van afzonderlijke bestanden is voor ontdubbeling is een speciale reeks configuratieopties ter ondersteuning van gevirtualiseerde DPM-opslag vereist. Deze opties zijn van toepassing op het cluster of het clusterknooppunt. Ontdubbeling moet zijn ingeschakeld en de clusterinstellingen moeten op elk knooppunt van het cluster afzonderlijk worden geconfigureerd.

  1. Ontdubbeling inschakelen op Windows-bestandsserveropslag: de ontdubbelingsrol moet worden geïnstalleerd op alle knooppunten van het Windows-bestandsservercluster. Voer hiervoor de volgende PowerShell-opdracht uit op elk knooppunt van het cluster:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ontdubbelingsverwerking afstemmen voor back-upgegevensbestanden: voer de volgende PowerShell-opdracht uit om in te stellen dat de optimalisatie zonder vertraging wordt gestart en niet om gedeeltelijke schrijfbewerkingen van bestanden te optimaliseren. Standaard worden GC-taken (Garbagecollection) elke week gepland en elke vierde week wordt de GC-taak uitgevoerd in de modus 'deep GC' voor een uitgebreidere en tijdrovende zoekopdracht naar gegevens die moeten worden verwijderd. Voor de DPM-workload leidt deze 'deep GC'-modus niet tot een noemenswaardige winst en wordt de hoeveelheid tijd verkort waarin ontdubbeling gegevens kan optimaliseren. Daarom schakelen we voor deze uitgebreide modus uit.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Prestaties voor grootschalige bewerkingen afstemmen: voer het volgende PowerShell-script uit om:

    • Aanvullende bewerkingen en I/O uitschakelen wanneer grondige garbagecollection wordt uitgevoerd

    • Extra geheugen reserveren voor hash-verwerking

    • Prioriteitsoptimalisatie inschakelen om onmiddellijk defragmentatie van grote bestanden toe te staan

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Met deze instellingen wijzigt u het volgende:

    • HashIndexFullKeyReservationPercent: deze waarde bepaalt hoeveel van het geheugen van de optimalisatietaak wordt gebruikt voor bestaande segmenthashes versus nieuwe segmenthashes. Op hoog niveau resulteert 70% in een betere optimalisatiedoorvoer dan de standaard 50%.

    • EnablePriorityOptimization: Met bestanden die 1 TB naderen, kan fragmentatie van één bestand voldoende fragmenten verzamelen om de limiet per bestand te benaderen. Optimalisatieverwerking consolideert deze fragmenten en voorkomt dat deze limiet wordt bereikt. Met het instellen van deze registersleutel voegt ontdubbeling een extra proces toe om zeer gefragmenteerde ontdubbelingsbestanden met hoge prioriteit te verwerken.

De planning van DPM en ontdubbeling instellen

Zowel het maken van back-ups als de ontdubbelingsbewerking zijn I/O-intensief. Als deze bewerkingen tegelijkertijd worden zouden uitgevoerd, zou de extra overhead voor het schakelen tussen de bewerkingen erg kostbaar worden en ertoe leiden dat er dagelijks van minder gegevens een back-up wordt gemaakt of minder gegevens worden ontdubbeld. Het wordt aangeraden speciale en afzonderlijke vensters voor ontdubbeling en het maken van back-ups te configureren. Dit zorgt ervoor dat het I/O-verkeer voor elk van deze bewerkingen efficiënt wordt verdeeld over de dagelijkse systeembewerkingen. De aanbevolen richtlijnen voor het plannen zijn:

  • Splits dagen in niet-overlappende vensters voor back-up en ontdubbeling.

  • Stel een aangepaste back-upplanning in.

  • Stel aangepaste ontdubbelingsplanning in.

  • Plan optimalisatie in het dagelijkse venster voor ontdubbeling.

  • Stel ontdubbeling afzonderlijk in voor het weekend en gebruik deze tijd voor carbagecollection- en reinigingstaken.

U kunt met de volgende PowerShell-opdracht DPM-planningen instellen:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

In deze configuratie is DPM geconfigureerd voor het maken van back-ups van virtuele machines tussen 20.00 uur en 6.00 uur. Ontdubbeling is gepland voor de resterende 16 uur van de dag. De werkelijke ontdubbelingstijd die u configureert, is afhankelijk van de volumegrootte. Zie Groottevolumes aanpassen voor gegevensontdubbeling voor meer informatie. Een ontdubbelingsvenster van 16 uur dat begint om 6:00 uur nadat het back-upvenster is beëindigd, wordt als volgt geconfigureerd vanaf elk afzonderlijk clusterknooppunt:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Wanneer het back-upvenster wordt gewijzigd, is het essentieel dat het ontdubbelingsvenster samen met het venster wordt gewijzigd, zodat ze elkaar niet overlappen. Het ontdubbelings- en back-upvenster hoeft niet de volledige 24 uur van de dag vol te zijn; Het wordt echter ten zeerste aanbevolen om variaties in de verwerkingstijd toe te staan vanwege verwachte dagelijkse wijzigingen in workloads en gegevensverloop.

Gevolgen voor de back-upprestaties

Nadat een set bestanden is ontdubbeld, kunnen er lichte prestatiekosten zijn bij het openen van de bestanden. Dit komt door de extra verwerking die is vereist voor de bestandsindeling die worden gebruikt door ontdubbelde bestanden. In dit scenario zijn de bestanden een reeks VHDX-bestanden die doorlopend worden gebruikt door DPM gedurende het back-upvenster. Het effect van het ontdubbelen van deze bestanden betekent dat de back-up- en herstelbewerkingen iets langzamer kunnen zijn dan zonder ontdubbeling. Net als elk back-upproduct is DPM een werklast met zware schrijfbewerkingen en zijn leesbewerkingen het belangrijkst tijdens het terugzetten. De aanbevelingen voor het oplossen van de gevolgen voor de back-upprestaties vanwege ontdubbeling zijn:

  • Lees-/herstelbewerkingen: Effecten op leesbewerkingen zijn doorgaans verwaarloosbaar en vereisen geen speciale overwegingen omdat de ontdubbelingsfunctie ontdubbelde segmenten in de cache opslaat.

  • Schrijf-/back-upbewerkingen: Plan een toename van de back-uptijd van 5-10% bij het definiëren van het back-upvenster. (Deze toename is vergelijkbaar met de verwachte back-uptijd bij het schrijven naar niet-ontdubbelde volumes.)

Bewaking

DPM en gegevensontdubbeling kan worden bewaakt om ervoor te zorgen dat:

  • Voldoende schijfruimte wordt ingericht voor het opslaan van de back-upgegevens

  • De DPM-back-uptaken normaal worden voltooid

  • Ontdubbeling wordt ingeschakeld op de back-upvolumes

  • De ontdubbelingsplanning correct is ingesteld

  • De ontdubbelingsverwerking dagelijks normaal wordt voltooid

  • De besparing voor de ontdubbeling komt overeen met veronderstellingen voor de systeemconfiguratie

Het succes van ontdubbeling is afhankelijk van de algehele systeemhardwaremogelijkheden (inclusief processorsnelheid, I/O-bandbreedte, opslagcapaciteit), een juiste systeemconfiguratie, de gemiddelde systeembelasting en de dagelijkse hoeveelheid gewijzigde gegevens.

Met de DPM Central-console kunt u DPM bewaken. Zie Install Central Console (Central-console installeren).

U kunt ontdubbeling controleren om de ontdubbelingsstatus, de besparingsfrequentie en de planningsstatus te controleren met behulp van de volgende PowerShell-opdrachten:

Status ophalen:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Besparing ophalen:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Haal de planningstatus op met de cmdlet Get-DedupSchedule.

Gebeurtenissen controleren

Het bewaken van het gebeurtenislogboek kan helpen de ontdubbelingsgebeurtenissen en -status te begrijpen.

  • Om in Bestandenverkennerontdubbelingsgebeurtenissen weer te geven, gaat u naar Logboeken Toepassingen en Services>Microsoft>Windows>Ontdubbeling.

  • Als de waarde LastOptimizationResult = 0x00000000 wordt weergegeven in de Get-DedupStatus |fl Windows PowerShell resultaten, is de hele gegevensset verwerkt door de vorige optimalisatietaak. Als deze waarde niet wordt weergegeven, heeft het ontdubbelingsproces niet kunnen voltooien en dient u wellicht uw configuratie-instellingen, bijvoorbeeld de volumegrootte, te controleren.

Zie voor meer gedetailleerde voorbeelden van de cmdlet Monitor and Report for Data Deduplication(Bewaking en rapportage voor gegevensontdubbeling).

Back-upkluizen controleren

In ons configuratievoorbeeld worden de volumes van 7,2 TB gevuld met 10 TB aan 'logische' gegevens (de grootte van de gegevens wanneer deze niet worden ontdubbeld) die zijn opgeslagen in dynamische VHDX-bestanden van 10 x 1 TB. Omdat in deze bestanden aanvullende back-upgegevens worden verzameld, vullen ze langzaam het volume op. Als het besparingspercentage als gevolg van ontdubbeling hoog genoeg is, kunnen alle 10 bestanden hun maximale logische grootte bereiken en passen ze nog steeds in het volume van 7,2 TB (mogelijk is er zelfs extra ruimte om extra VHDX-bestanden toe te wijzen voor DPM-servers). Maar als de groottebesparing door ontdubbeling niet voldoende is, kan de ruimte op het volume op raken voordat de VHDX-bestanden hun volledige logische grootte bereiken en het volume vol is. Om te voorkomen dat volumes vol raken, raden we het volgende aan:

  • Wees conservatief bij het bepalen van de volumevereisten en houd extra ruimte vrij voor opslag. Het wordt aanbevolen om een buffer van ten minste 10% toe te staan bij het plannen van het gebruik van back-upopslag om verwachte variaties in ontdubbelingsbesparingen en gegevensverloop mogelijk te maken.

  • Controleer of de volumes voor back-upopslag om er zeker van te zijn dat het ruimtegebruik en de ontdubbelingsbesparing op het verwachte niveau blijven.

Als het volume vol raakt, worden de volgende symptomen veroorzaakt:

  • De DPM virtuele machine wordt in een kritieke rusttoestand geplaatst en er kunnen geen nieuwe back-uptaken worden uitgegeven door die VM.

  • Alle back-uptaken die gebruikmaken van de VHDX-bestanden op het volle volume, mislukken.

Als u deze situatie wilt herstellen en het systeem wilt herstellen naar de normale werking, kan extra opslag worden ingericht en kan een opslagmigratie van de virtuele DPM-machine of de bijbehorende VHDX worden uitgevoerd om ruimte vrij te maken:

  1. Stop de DPM-server die eigenaar is van de VHDX-bestanden op de volle back-upshare.

  2. Maak een extra volume en back-upshare met dezelfde configuratie en instellingen die worden gebruikt voor de bestaande shares, waaronder instellingen voor NTFS en ontdubbeling.

  3. Migreer Opslag voor de virtuele DPM Server-machine en migreer ten minste één VHDX-bestand van de volledige back-upshare naar de nieuwe back-upshare die u in stap 2 hebt gemaakt.

  4. Voer een garbagecollectiontaak voor gegevensontdubbelende uit op de volle bron-back-upshare. De GC-taak moet slagen en de vrije ruimte vrijmaken.

  5. Start de virtuele machine van de DPM-server opnieuw op.

  6. Een DPM-consistentiecontroletaak wordt geactiveerd tijdens het volgende back-upvenster voor alle gegevensbronnen die eerder zijn mislukt.

  7. Alle back-uptaken moeten nu slagen.

Samenvatting

De combinatie van ontdubbeling en DPM biedt aanzienlijke ruimtebesparing. Hiermee worden hogere bewaarsnelheden, frequentere back-ups en betere TCO voor de DPM-implementatie worden bereikt. De richtlijnen en aanbevelingen in dit document bieden u de hulpprogramma's en kennis om ontdubbeling te configureren voor DPM-opslag en de belangrijkste voordelen voor uzelf in uw eigen implementatie te zien.

Veelgestelde vragen

V: DPM VHDX-bestanden moeten 1 TB groot zijn. Betekent dit dat DPM geen back-up kan maken van een VM of SharePoint of SQL DB of bestandsvolume van > 1 TB?

A: No. DPM combineert meerdere volumes tot één om back-ups op te slaan. De bestandsgrootte van 1 TB heeft dus geen gevolgen voor de grootte van gegevensbronnen waar DPM een back-up van kan maken.

V: Het lijkt alsof VHDX-bestanden in DPM-opslag alleen op externe SMB-bestandsshares moeten worden geïmplementeerd. Wat gebeurt er als de back-up VHDX-bestanden op volumes waarop ontdubbeling is ingeschakeld opsla op hetzelfde systeem waarop de DPM virtuele machine wordt uitgevoerd?

A: Zoals hierboven beschreven, zijn DPM, Hyper-V en ontdubbeling opslag- en rekenintensieve bewerkingen. Het combineren van alle drie in één systeem kan leiden tot I/O- en procesintensieve bewerkingen die Hyper-V en de bijbehorende VM's kunnen uithongeren. Als u besluit om te experimenteren met het configureren van DPM in een VM met de back-upopslagvolumes op dezelfde computer, moet u de prestaties zorgvuldig controleren om ervoor te zorgen dat er voldoende I/O-bandbreedte en rekencapaciteit is om alle drie de bewerkingen op dezelfde machine te behouden.

V: Het gebruik van speciale, afzonderlijke ontdubbelings- en back-upvensters wordt aangeraden. Waarom kan ik ontdubbeling niet inschakelen terwijl DPM back-ups maakt? Ik moet elke 15 minuten een back-up maken van mijn SQL DB.

A: Ontdubbeling en DPM zijn opslagintensieve bewerkingen en het gelijktijdig uitvoeren van beide bewerkingen kan inefficiënt zijn en leiden tot I/O-verhongering. Als u workloads meer dan één keer per dag wilt beveiligen (bijvoorbeeld SQL Server elke 15 minuten) en tegelijkertijd ontdubbeling wilt inschakelen, moet u ervoor zorgen dat er voldoende I/O-bandbreedte en computercapaciteit is om te voorkomen dat resources uitvallen.

V: Op basis van de beschreven configuratie moet DPM worden uitgevoerd op een virtuele machine. Waarom kan ik ontdubbeling niet rechtstreeks inschakelen op replicavolumes en schaduwkopievolumes in plaats van op VHDX-bestanden?

A: Ontdubbeling wordt per volume op afzonderlijke bestanden uitgevoerd. Omdat ontdubbeling wordt geoptimaliseerd op bestandsniveau, is het niet ontworpen ter ondersteuning van de VolSnap technologie die DPM gebruikt om de back-upgegevens op te slaan. Als DPM wordt uitgevoerd in een VM, wijst Hyper-V de bewerkingen op het DPM volume toe aan VHDX-bestandsniveau, om ontdubbeling in staat te stellen back-upgegevens te optimaliseren en grotere opslagbesparing mogelijk te maken.

V: Met de bovenstaande voorbeeldconfiguratie zijn slechts volumes van 7,2 TB gemaakt. Kan ik grotere of kleinere volumes maken?

A: Ontdubbeling wordt op één thread per volume uitgevoerd. Als het volume groter wordt, heeft ontdubbeling meer tijd nodig om de optimalisatie te voltooien. Aan de andere kant zijn er bij kleine volumes minder gegevens om dubbele segmenten te vinden, wat kan leiden tot minder besparingen. Het is dus raadzaam om de volumegrootte af te stemmen op basis van het totale verloop en de mogelijkheden van systeemhardware voor optimale besparingen. Meer gedetailleerde informatie over het bepalen van de volumegrootte voor ontdubbeling vindt u in Sizing Volumes for Data Deduplication in Windows Server (Volumegrootte bepalen voor gegevensontdubbeling in Windows Server). Zie Groottegrootten voor gegevensontdubbeling voor meer gedetailleerde informatie over het bepalen van volumegrootten die worden gebruikt met ontdubbeling.