Freigeben über


DPM-Speicher deduplizieren

System Center Data Protection Manager (DPM) kann Daten-Deduplizierung verwenden.

Die Datendeduplizierung (dedup) sucht und entfernt duplizierte Daten auf einem Volume und stellt gleichzeitig sicher, dass die Daten richtig und vollständig bleiben. Erfahren Sie mehr über die Planung der Deduplizierung.

  • Dedup reduziert den Speicherverbrauch. Obwohl der Umfang der Redundanz für einen Datensatz von der Workload und dem Datentyp abhängt, zeigen Backup-Daten in der Regel eine starke Einsparung, wenn Deduplizierung verwendet wird.

  • Die Datenredundanz kann durch Deduplizierung weiter reduziert werden, wenn gesicherte Daten ähnlicher Art und Workloads zusammen verarbeitet werden.

  • Dedup ist so konzipiert, dass es ohne zusätzliche dedizierte Hardware auf primären Datenvolumes installiert werden kann, sodass es den primären Workload auf dem Server nicht beeinträchtigt. Die Standardeinstellungen sind nicht aufdringlich, da sie es ermöglichen, dass Daten fünf Tage lang altern, bevor eine bestimmte Datei verarbeitet wird, und eine Standard-Mindestdateigröße von 32 KB haben. Die Implementierung ist für geringe Arbeitsspeicher- und CPU-Auslastung ausgelegt.

  • Dedup kann für die folgenden Workloads implementiert werden:

    • Allgemeine Dateifreigaben: Veröffentlichung und Freigabe von Gruppeninhalten, Basisordner von Benutzern und Ordnerumleitung/Offlinedateien

    • Softwarebereitstellungsfreigaben: Softwarebinärdateien, Images und Updates

    • VHD-Bibliotheken: Dateispeicher für virtuelle Festplatten (VHDs) zur Bereitstellung für Hypervisors

    • VDI-Bereitstellungen (nur Windows Server 2012 R2): Virtual Desktop Infrastructure (VDI)-Bereitstellungen mit Hyper-V

    • Virtualisierte Sicherung: Sicherungslösungen (z. B. DPM, das auf einem virtuellen Hyper-V-Computer ausgeführt wird), die Sicherungsdaten in VHD-/VHDX-Dateien auf einem Windows-Dateiserver speichern

DPM und Deduplizierung

Die Verwendung von Dedup mit DPM kann zu großen Einsparungen führen. Der durch die Deduplizierung bei der Optimierung von DPM-Sicherungsdaten eingesparte Speicherplatz hängt vom Typ der gesicherten Daten ab. So kann beispielsweise eine Sicherung eines verschlüsselten Datenbankservers zu minimalen Einsparungen führen, da alle doppelten Daten durch den Verschlüsselungsprozess verborgen werden. Die Sicherung einer großen VDI-Bereitstellung (Virtual Desktop Infrastructure) kann jedoch zu großen Einsparungen in der Größenordnung von 70 bis mehr als 90 % führen, da es in der Regel eine große Menge an Datenduplikaten zwischen den virtuellen Desktop-Umgebungen gibt. In der im Artikel beschriebenen Konfiguration führten wir verschiedene Test-Workloads durch und konnten Einsparungen zwischen 50 % und 90 % erzielen.

Um Dedup für DPM-Speicher zu verwenden, sollte DPM in einer Hyper-V-virtuellen Maschine laufen und Sicherungsdaten auf VHDs in freigegebenen Ordnern mit aktivierter Datendeduplizierung speichern.

Um DPM als virtuelle Maschine bereitzustellen, die Daten auf ein Dedupl-Volume sichert, empfehlen wir die folgende Bereitstellungstopologie:

  • DPM, das auf einem virtuellen Computer in einem Hyper-V-Hostcluster ausgeführt wird.

  • DPM-Speicher mit VHD/VHDX-Dateien, die auf einem SMB 3.0-Share auf einem Dateiserver gespeichert sind

  • In unserem Testbeispiel wurde der Dateiserver als Dateiserver mit horizontaler Skalierung (SOFS) konfiguriert und mit Speichervolumes bereitgestellt, die aus Speicherplatzpools konfiguriert werden, die unter Verwendung direkt verbundener SAS-Laufwerke erstellt wurden. Diese Bereitstellung gewährleistet Leistung im großen Maßstab.

Beachten Sie dabei Folgendes:

  • Diese Bereitstellung wird für DPM 2012 R2 und höher sowie für alle Workload-Daten unterstützt, die von DPM 2012 R2 und höher gesichert werden können.

  • Auf allen Windows-Dateiserver-Knoten, auf denen sich virtuelle DPM-Festplatten befinden und auf denen die Deduplizierung aktiviert wird, muss Windows Server 2012 R2 mit Updaterollup November 2014 oder höher ausgeführt werden.

  • Wir stellen allgemeine Empfehlungen und Anweisungen für die Szenariobereitstellung bereit. Wenn hardwarespezifische Beispiele angegeben werden, wird die im Microsoft Cloud Platform System (CPS) bereitgestellte Hardware zur Referenz verwendet.

  • In diesem Beispiel werden SMB 3.0-Remotefreigaben zum Speichern der Sicherungsdaten verwendet, daher beruhen die primären Hardwareanforderungen eher auf den Dateiserverknoten anstatt auf den Hyper-V-Knoten. Die folgende Hardwarekonfiguration wird in CPS für Sicherungs- und Produktionsspeicher verwendet. Die gesamte Hardware wird sowohl für den Sicherungs- als auch für den Produktionsspeicher verwendet, aber die Anzahl der in den Laufwerkgehäusen aufgeführten Laufwerke sind nur diejenigen, die für die Sicherung verwendet werden.

    • Scale-Out-Dateiserver-Cluster mit vier Knoten

    • Konfiguration pro Knoten

      • 2 x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 Kerne, 16 logische Prozessoren

      • 128 GB 1333 MHz RDIMM Speicher

      • Speicherverbindungen: 2 Ports von SAS, 1 Port von 10 GbE iWarp/RDMA

    • Vier JBOD-Laufwerksgehäuse

      • 18 Festplatten in jedem JBOD – 16 x 4 TB HDDs + 2 x 800 GB SSDs

      • Dual-Pfad zu jedem Laufwerk: Multipfad-E/A-Lastenausgleichsrichtlinie nur auf Failover festgelegt

      • SSDs, die für Rückschreibcache (Write Back Cache, WBC) konfiguriert sind und die übrigen für dedizierte Journallaufwerke.

Einrichten von Dedup-Volumes

Sehen wir uns an, wie groß die Volumes sein sollten, um die deduplizierten VHDX-Dateien mit DPM-Daten zu unterstützen. In CPS haben wir Volumen von jeweils 7,2 TB erstellt. Die optimale Größe des Datenträgers hängt in erster Linie davon ab, wie stark und wie häufig sich die Daten auf dem Datenträger ändern, sowie von den Durchsatzraten des Datenträgerspeichersubsystems für den Datenzugriff. Es ist wichtig zu beachten, dass die Einsparungsrate sinkt, wenn die Deduplizierungsverarbeitung nicht mit der Rate der täglichen Datenänderungen (dem Datenumsatz) Schritt halten kann, bis die Verarbeitung abgeschlossen werden kann. Weitere detaillierte Informationen finden Sie unter Größenbestimmung von Volumes für die Daten-Deduplizierung. Die folgenden allgemeinen Richtlinien werden für Deduplizierungsvolumen empfohlen:

  • Verwenden Sie Speicherplätze mit Paritätsfunktion und Enclosure-Awareness für Ausfallsicherheit und eine bessere Datenträgernutzung.

  • Formatieren Sie NTFS mit 64-KB-Zuordnungseinheiten und großen Dateisegmenten, um besser mit der Deduplizierung von Sparse-Dateien zu arbeiten.

  • In der oben genannten Hardwarekonfiguration wird die empfohlene Volumengröße von 7,2-TB-Volumes wie folgt konfiguriert:

    • Gehäusebewusste doppelte Parität 7,2 TB + 1 GB Write-back-Cache

      • Resilienz-Einstellung Name == Parität

      • PhysischeFestplattenredundanz == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Duale Paritätsleistung bei 64 KB Interleave ist viel niedriger als beim standardmäßigen 256 KB Interleave)

      • IstEnclosureBewusst == $true

      • Zuweisungseinheitsgröße=64 KB

      • Großes FRS

      Richten Sie einen neuen virtuellen Datenträger im angegebenen Speicherpool wie folgt ein:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Jedes dieser Volumes muss dann folgendermaßen formatiert werden:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      In der CPS-Bereitstellung werden diese dann als CSVs konfiguriert.

    • In diesen Volumes speichert DPM eine Reihe von VHDX-Dateien, um die Sicherungsdaten zu speichern. Aktivieren Sie die Deduplizierung auf dem Volume, nachdem Sie es wie folgt formatiert haben:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Mit diesem Befehl werden auch die folgenden Deduplizierungseinstellungen auf der Volume-Ebene geändert:

      • Legen Sie fest: Verwendungstyp to HyperV: Dies führt dazu, dass die Deduplizierung geöffnete Dateien verarbeitet, die erforderlich sind, weil die von DPM für die Sicherungsspeicherung verwendeten VHDX-Dateien mit laufendem DPM in seiner virtuellen Maschine geöffnet bleiben.

      • Deaktivieren von „PartialFileOptimization“: Dadurch wird Dedup veranlasst, alle Abschnitte einer geöffneten Datei zu optimieren, anstatt nach geänderten Abschnitten mit einem Mindestalter zu suchen.

      • Festlegen des Parameters „MinFileAgeDays“ auf 0: Wenn „PartialFileOptimization“ deaktiviert ist, wird das Verhalten von „MinFileAgeDays“ geändert, sodass Dedup nur Dateien berücksichtigt, die in so vielen Tagen nicht geändert wurden. Da Dedup die Verarbeitung der Sicherungsdaten in allen DPM-VHDX-Dateien ohne Verzögerung beginnen soll, müssen wir „MinFileAgeDays“ auf 0 festlegen.

Weitere Informationen zum Einrichten der Deduplizierung finden Sie unter Installieren und Konfigurieren der Datendeduplizierung.

Einrichten des DPM-Speichers

Um Fragmentierungsprobleme zu vermeiden und die Effizienz beizubehalten, wird der DPM-Speicher mithilfe von VHDX-Dateien zugewiesen, die sich auf den deduplizierten Volumes befinden. Zehn dynamische VHDX-Dateien mit jeweils 1 TB werden auf jedem Volume erstellt und an DPM angefügt. Außerdem werden 3 TB an Überprovisionierung des Speichers durchgeführt, um die durch Deduplizierung erzielten Speicherersparnisse zu nutzen. Da Dedup zusätzliche Speichereinsparungen erzeugt, können neue VHDX-Dateien auf diesen Volumes erstellt werden, um den eingesparten Speicherplatz zu nutzen. Wir haben den DPM-Server mit bis zu 30 an ihn angefügten VHDX-Dateien getestet.

  1. Führen Sie den folgenden Befehl aus, um virtuelle Festplatten zu erstellen, die später zum DPM-Server hinzugefügt werden:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Anschließend werden die erstellten virtuellen Festplatten wie folgt zum DPM-Server hinzugefügt:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    In diesem Schritt wird ein Speicherpool als Datenträger konfiguriert, auf denen DPM Replikate und Wiederherstellungspunkte für geschützte Daten speichert. Dieser Pool ist Teil der DPM-Konfiguration und unterscheidet sich vom Speicherplatzpool, der zum Erstellen der im vorherigen Abschnitt beschriebenen Datenvolumes verwendet wird. Weitere Informationen zu DPM-Speicherpools finden Sie unter Konfigurieren von Datenträgerspeicher und Speicherpools.

Einrichten des Windows-Dateiserverclusters

Aufgrund des Umfangs der Daten und der Größe einzelner Dateien erfordert Dedup einen speziellen Satz von Konfigurationsoptionen, um den virtualisierten DPM-Speicher zu unterstützen. Diese Optionen gelten global für den Cluster oder den Clusterknoten. Dedup muss aktiviert sein, und die Clustereinstellungen müssen auf jedem Knoten des Clusters einzeln konfiguriert werden.

  1. Aktivieren von Dedup auf Windows-Dateiserverspeicher: Die Deduplizierungsrolle muss auf allen Knoten des Windows-Dateiserverclusters installiert werden. Führen Sie zu diesem Zweck den folgenden PowerShell-Befehl auf jedem Knoten im Cluster aus:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Optimierung der Dedupverarbeitung für Sicherungsdateien: Führen Sie den folgenden PowerShell-Befehl aus, um die Optimierung ohne Verzögerung zu starten und keine partiellen Dateischreibvorgänge zu optimieren. Garbage Collection-Aufträge (GC) sind standardmäßig wöchentlich geplant. Jede vierte Woche wird der GC-Auftrag für eine noch umfassendere und zeitintensive Suche nach zu entfernenden Daten im Modus der umfassenden automatischen Speicherbereinigung („deep GC“) ausgeführt. Für die DPM-Workload führt dieser „deep GC“-Modus nicht zu sinnvollen Gewinnen und verkürzt die Zeit, in der Dedup Daten optimieren kann. Daher deaktivieren wir diesen umfassenden Modus.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Optimieren der Leistung für umfangreiche Vorgänge: Führen Sie das folgende PowerShell-Skript aus, um Folgendes zu tun:

    • Deaktivieren der zusätzlichen Verarbeitung und E/A, wenn die tiefe Speicherbereinigung ausgeführt wird

    • Reservieren von zusätzlichem Speicher für die Hashverarbeitung

    • Aktivieren der Prioritätsoptimierung, um die sofortige Defragmentierung großer Dateien zu ermöglichen

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Diese Einstellungen ändern Folgendes:

    • HashIndexFullKeyReservationPercent: Dieser Wert steuert, wie viel des Optimierungsjob-Speichers für bestehende Chunk-Hashes im Vergleich zu neuen Chunk-Hashes verwendet wird. Bei hoher Skalierung führt 70 % zu einem besseren Optimierungsdurchsatz als der Standardwert von 50 %.

    • EnablePriorityOptimization: Bei Dateien, die sich 1 TB nähern, kann die Fragmentierung einer einzelnen Datei genügend Fragmente ansammeln, um das Limit pro Datei zu erreichen. Die Optimierungsverarbeitung konsolidiert diese Fragmente und verhindert, dass dieses Limit erreicht wird. Wenn Sie diesen Registrierungsschlüssel festlegen, fügt Dedup einen zusätzlichen Prozess hinzu, der stark fragmentierte deduplizierte Dateien mit hoher Priorität behandelt.

Einrichten von DPM und Deduplizierungsplanung

Sowohl Sicherungs- als auch Deduplizierungsoperationen sind I/O-intensiv. Wenn sie gleichzeitig ausgeführt werden sollen, kann ein zusätzlicher Aufwand für den Wechsel zwischen den Vorgängen kostspielig sein und dazu führen, dass weniger Daten täglich gesichert oder dedupliziert werden. Es wird empfohlen, dedizierte und separate Deduplizierungs- und Sicherungsfenster zu konfigurieren. Dadurch wird sichergestellt, dass der E/A-Datenverkehr für jeden dieser Vorgänge während des täglichen Systembetriebs effizient verteilt wird. Die empfohlenen Richtlinien für die Planung sind:

  • Teilen Sie die Tage in sich nicht überschneidende Sicherungs- und Dedup-Fenster auf.

  • Legen Sie benutzerdefinierte Sicherungszeitpläne fest.

  • Richten Sie benutzerdefinierte Dedup-Zeitpläne ein.

  • Planen Sie die Optimierung im täglichen Dedup-Fenster.

  • Richten Sie Wochenendeduplizierungspläne separat ein und nutzen Sie diese Zeit für die Müllabfuhr und Bereinigungsaufgaben.

Sie können DPM-Zeitpläne mit dem folgenden PowerShell-Befehl einrichten:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

In dieser Konfiguration ist DPM so konfiguriert, dass virtuelle Computer zwischen 22:00 Uhr und 6:00 Uhr gesichert werden. Die Deduplizierung wird für die verbleibenden 16 Stunden des Tages geplant. Die tatsächliche Dedupzeit, die Sie konfigurieren, hängt von der Volumengröße ab. Weitere Informationen finden Sie unter Größenbestimmung von Volumes für die Datendeduplizierung. Ein 16-stündiges Deduplizierungsfenster, das um 6 Uhr morgens nach dem Ende des Sicherungsfensters beginnt, würde von jedem einzelnen Clusterknoten aus wie folgt konfiguriert werden:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Wenn das Sicherungsfenster geändert wird, muss unbedingt auch das Deduplizierungsfenster geändert werden, damit sie sich nicht überschneiden. Das Deduplizierungs- und Sicherungsfenster muss nicht die vollen 24 Stunden des Tages ausfüllen; es wird jedoch dringend empfohlen, dies zu tun, um Schwankungen in der Verarbeitungszeit aufgrund der erwarteten täglichen Änderungen der Workloads und der Datenfluktuation zu berücksichtigen.

Auswirkungen auf die Sicherungsleistung

Nachdem eine Reihe von Dateien dedupliziert wurde, kann es beim Zugriff auf die Dateien zu leichten Leistungseinbußen kommen. Dies ist auf die zusätzliche Verarbeitung zurückzuführen, die für den Zugriff auf das von deduplizierten Dateien verwendete Dateiformat erforderlich ist. In diesem Szenario handelt es sich bei den Dateien um eine Reihe von VHDX-Dateien, die während des Sicherungsfensters kontinuierlich von DPM verwendet werden. Die Deduplizierung dieser Dateien hat zur Folge, dass die Vorgänge zur Sicherung und Wiederherstellung etwas langsamer sein können als ohne Deduplizierung. Wie bei jedem Sicherungsprodukt handelt es sich bei DPM um einen schreibintensiven Workload, wobei Lesevorgänge bei Wiederherstellungsvorgängen am wichtigsten sind. Die Empfehlungen zur Behandlung der Auswirkungen auf die Sicherungsleistung aufgrund der Deduplizierung sind:

  • Lese-/Wiederherstellungsvorgänge: Die Auswirkungen auf Lesevorgänge sind in der Regel unerheblich und erfordern keine besonderen Maßnahmen, weil das Deduplizierungsfeature deduplizierte Blöcke zwischenspeichert.

  • Schreib-/Sicherungsvorgänge: Planen Sie beim Definieren des Sicherungsfensters eine Erhöhung der Sicherungszeit von 5 bis 10 %. Dies ist eine Erhöhung im Vergleich zur erwarteten Sicherungszeit beim Schreiben auf nicht deduplizierte Volumes.

Überwachung

DPM und Datendeduplizierung können überwacht werden, um sicherzustellen, dass:

  • Es wird ausreichend Speicherplatz für die Sicherung der Daten bereitgestellt.

  • DPM-Sicherungsaufträge werden normal abgeschlossen

  • Die Deduplizierung ist auf den Sicherungsvolumes aktiviert.

  • Deduplizierungszeitpläne werden ordnungsgemäß festgelegt.

  • Die Deduplizierungsverarbeitung wird täglich normal abgeschlossen.

  • Die Einsparungsrate durch Deduplizierung entspricht den Annahmen für die Systemkonfiguration.

Der Erfolg der Deduplizierung hängt von den allgemeinen Hardware-Fähigkeiten des Systems (einschließlich CPU-Verarbeitungsgeschwindigkeit, E/A-Bandbreite, Speicherkapazität), der korrekten Systemkonfiguration, der durchschnittlichen Systemlast und der täglichen Menge an geänderten Daten ab.

Sie können DPM mithilfe der DPM-Zentralkonsole überwachen. Weitere Informationen finden Sie unter Installieren der zentralen Konsole.

Sie können Dedup überwachen, um den Status der Deduplizierung, die Speicherrate und den Zeitplanstatus mithilfe der folgenden PowerShell-Befehle zu überprüfen:

Status abrufen:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Holen Sie sich Einsparungen

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Ermitteln Sie den Status des Zeitplans mit dem Cmdlet „Get-DedupSchedule“.

Überwachen von Ereignissen

Durch die Überwachung des Ereignisprotokolls können Sie Deduplizierungsereignisse und -status besser verstehen.

  • Um Deduplizierungsereignisse anzuzeigen, navigieren Sie im Datei-Explorer zu Anwendungen und Dienstprotokolle>Microsoft>Windows>Deduplizierung.

  • Wenn in den Windows PowerShell-Ergebnissen von „Get-DedupStatus |fl“ der Wert LastOptimizationResult = 0x00000000 angezeigt wird, wurde das gesamte Dataset vom vorherigen Optimierungsauftrag verarbeitet. Wenn nicht, konnte das System die Deduplizierung nicht abschließen und Sie sollten Ihre Konfigurationseinstellungen überprüfen, z. B. die Datenträgergröße.

Weitere detaillierte Cmdlet-Beispiele finden Sie unter Überwachung und Berichterstellung für die Daten-Deduplizierung.

Überwachen des Sicherungsspeichers

In unserem Konfigurationsbeispiel sind die 7,2-TB-Volumes mit 10 TB „logischen“ Daten (die Größe der Daten, wenn sie nicht dedupliziert sind) gefüllt, die in 10 dynamischen VHDX-Dateien mit jeweils 1 TB gespeichert sind. Da diese Dateien zusätzliche Sicherungsdaten enthalten, füllen sie das Volumen langsam auf. Wenn der durch die Deduplizierung erzielte Einsparungsprozentsatz hoch genug ist, können alle 10 Dateien ihre maximale logische Größe erreichen und dennoch in das 7,2-TB-Volume passen (möglicherweise ist sogar noch zusätzlicher Speicherplatz für die Zuweisung zusätzlicher VHDX-Dateien für DPM-Server vorhanden). Wenn die durch die Deduplizierung erzielten Größenersparnisse jedoch nicht ausreichen, kann es sein, dass der Speicherplatz auf dem Volume erschöpft ist, bevor die VHDX-Dateien ihre volle logische Größe erreichen und das Volume voll ist. Um zu verhindern, dass Volumes voll werden, empfehlen wir Folgendes:

  • Seien Sie bei den Anforderungen an die Datenträgergröße konservativ und planen Sie eine gewisse Überdimensionierung des Speichers ein. Es wird empfohlen, bei der Planung der Nutzung des Sicherungsspeichers einen Puffer von mindestens 10 % vorzusehen, um erwartete Schwankungen bei den Einsparungen durch Deduplizierung und der Datenfluktuation zu berücksichtigen.

  • Überwachen Sie die für die Sicherungsspeicherung verwendeten Volumes, um sicherzustellen, dass die Speicherplatznutzung und die Einsparungsraten durch Deduplizierung den Erwartungen entsprechen.

Wenn das Volumen voll wird, ergeben sich die folgenden Symptome:

  • Der virtuelle Computer des DPM wird in einen pausenkritischen Zustand versetzt und es können keine weiteren Sicherungsaufträge von diesem virtuellen Computer aus erteilt werden.

  • Alle Sicherungsaufträge, die die VHDX-Dateien auf dem vollständigen Datenträger verwenden, schlagen fehl.

Um diesen Zustand zu beheben und den normalen Vorgang wiederherzustellen, kann zusätzlicher Speicher bereitgestellt und eine Speichermigration des virtuellen Computers des DPM oder seiner VHDX durchgeführt werden, um Speicherplatz freizugeben:

  1. Beenden Sie den DPM-Server, der die VHDX-Dateien auf der vollständigen Sicherungsteilung besitzt.

  2. Erstellen Sie ein zusätzliches Volume und ein Backup-Share mit derselben Konfiguration und denselben Einstellungen wie die vorhandenen Shares, einschließlich der Einstellungen für NTFS und Deduplizierung.

  3. Migrieren Sie den Speicher für den virtuellen Computer des DPM-Servers und migrieren Sie mindestens eine VHDX-Datei von der vollständigen Sicherungsfreigabe zur neuen Sicherungsfreigabe, die in Schritt 2 erstellt wurde.

  4. Führen Sie einen Data Deduplication Garbage Collection (GC)-Job auf dem Quell-Backup-Speicher aus, der voll war. Der GC-Job sollte erfolgreich sein und den freien Speicherplatz zurückgewinnen.

  5. Starten Sie den virtuellen Computer des DPM-Servers neu.

  6. Ein DPM-Konsistenzprüfungsauftrag wird während des nächsten Sicherungsfensters für alle Datenquellen ausgelöst, die zuvor fehlgeschlagen sind.

  7. Alle Sicherungsaufträge sollten jetzt erfolgreich abgeschlossen werden.

Zusammenfassung

Die Kombination aus Deduplizierung und DPM bietet erhebliche Platzeinsparungen. Dies ermöglicht höhere Aufbewahrungsraten, häufigere Sicherungen und bessere Gesamtbetriebskosten für die DPM-Bereitstellung. Die Leitfäden und Empfehlungen in diesem Dokument sollten Ihnen die Werkzeuge und das Wissen vermitteln, um die Deduplizierung für DPM-Speicher zu konfigurieren und die Vorteile selbst bei Ihrer eigenen Implementierung zu erleben.

Häufig gestellte Fragen

F: DPM-VHDX-Dateien müssen eine Größe von 1 TB haben. Bedeutet dies, dass DPM keine VM, SharePoint, SQL DB oder Dateivolumen mit einer Größe von > 1 TB sichern kann?

A: Nein. DPM aggregiert mehrere Volumes in einem, um Sicherungen zu speichern. Die Dateigröße von 1 TB hat also keine Auswirkungen auf Datenquellengrößen, die DPM sichern kann.

F: Es scheint, als müssten DPM-Speicher-VHDX-Dateien ausschließlich auf Remote-SMB-Dateifreigaben bereitgestellt werden. Was passiert, wenn ich die VHDX-Sicherungsdateien auf dedup-fähigen Volumes auf demselben System speichere, auf dem der virtuelle DPM-Computer ausgeführt wird?

A: Wie oben erläutert, sind DPM, Hyper-V und Deduplizierung speicher- und rechenintensive Vorgänge. Die Kombination aller drei in einem einzigen System kann zu E/A- und prozessintensiven Vorgängen führen, die Hyper-V und seine VMs aushungern können. Wenn Sie sich dafür entscheiden, DPM in einer VM mit den Sicherungsspeichervolumes auf demselben Computer zu konfigurieren, sollten Sie die Leistung sorgfältig überwachen, um sicherzustellen, dass genügend E/A-Bandbreite und Rechenkapazität vorhanden sind, um alle drei Vorgänge auf demselben Computer auszuführen.

F: Sie empfehlen dedizierte, separate Deduplizierungs- und Sicherungsfenster. Warum kann ich die Deduplizierung nicht aktivieren, während DPM ein Backup durchführt? Ich muss meine SQL-DB alle 15 Minuten sichern.

A: Dedup und DPM sind speicherintensive Vorgänge. Wenn beide gleichzeitig ausgeführt werden, kann dies ineffizient sein und zu E/A-Engpässen führen. Um Workloads mehr als einmal täglich zu schützen (z. B. SQL Server alle 15 Minuten) und gleichzeitig eine Deduplizierung zu ermöglichen, stellen Sie daher sicher, dass genügend E/A-Bandbreite und Computerleistung vorhanden ist, um eine Ressourcenverknappung zu vermeiden.

F: Aufgrund der beschriebenen Konfiguration muss DPM auf einem virtuellen Computer ausgeführt werden. Warum kann ich die Deduplizierung nicht direkt auf Replikat- und Schattenkopie-Volumes aktivieren, anstatt auf VHDX-Dateien?

A: Dedup führt die Deduplizierung pro Volume durch und arbeitet dabei mit einzelnen Dateien. Da Dedup auf Dateiebene optimiert, ist es nicht für die Unterstützung der VolSnap-Technologie ausgelegt, die DPM zum Speichern seiner Sicherungsdaten verwendet. Durch die Ausführung von DPM in einer VM ordnet Hyper-V die DPM-Volumevorgänge der VHDX-Dateiebene zu, sodass die Deduplizierung die Sicherungsdaten optimieren und größere Speichereinsparungen ermöglichen kann.

F: Die obige Beispielkonfiguration hat nur 7,2-TB-Volumes erstellt. Kann ich größere oder kleinere Volumen erstellen?

A: Dedup führt einen Thread pro Volume aus. Da die Volumengröße größer wird, benötigt Dedup mehr Zeit, um die Optimierung abzuschließen. Andererseits gibt es bei kleinen Mengen weniger Daten, in denen doppelte Blöcke gefunden werden können, was zu geringeren Einsparungen führen kann. Es ist daher ratsam, die Volume-Größe basierend auf dem gesamten Churn und den Hardwarefähigkeiten des Systems für optimale Einsparungen fein abzustimmen. Ausführlichere Informationen zur Bestimmung der bei der Deduplizierung verwendeten Volumengrößen finden Sie unter „Größenbestimmung von Volumes für die Deduplizierung in Windows Server“. Weitere Informationen zur Bestimmung der bei der Deduplizierung verwendeten Volumengrößen finden Sie unter Größenbestimmung von Volumes für die Datendeduplizierung.