Freigeben über


DPM-Speicher deduplizieren

System Center Data Protection Manager (DPM) kann die Datendeduplizierung verwenden.

Die Datendeduplizierung (dedup) sucht und entfernt duplizierte Daten auf einem Volume und stellt gleichzeitig sicher, dass die Daten richtig und vollständig bleiben. Weitere Informationen zur Deduplizierungsplanung.

  • Dedup reduziert den Speicherverbrauch. Obwohl der Umfang der Redundanz für einen Datensatz von der Workload und dem Datentyp abhängt, stellen Sicherungsdaten in der Regel eine starke Einsparung dar, wenn Deduplizierung verwendet wird.

  • Die Datenredundanz kann durch Deduplizierung weiter reduziert werden, wenn gesicherte Daten ähnlicher Art und Workloads zusammen verarbeitet werden.

  • Dedup ist so konzipiert, dass es ohne zusätzliche dedizierte Hardware auf primären Datenvolumes installiert werden kann, sodass es den primären Workload auf dem Server nicht beeinträchtigt. Die Standardeinstellungen sind nicht aufdringlich, da sie es ermöglichen, dass Daten fünf Tage lang altern, bevor eine bestimmte Datei verarbeitet wird, und eine Standard-Mindestdateigröße von 32 KB haben. Die Implementierung ist für geringe Arbeitsspeicher- und CPU-Auslastung ausgelegt.

  • Dedup kann für die folgenden Workloads implementiert werden:

    • Allgemeine Dateifreigaben: Veröffentlichung und Freigabe von Gruppeninhalten, Basisordner von Benutzern und Ordnerumleitung/Offlinedateien

    • Softwarebereitstellungsfreigaben: Softwarebinärdateien, Images und Updates

    • VHD-Bibliotheken: Dateispeicher für virtuelle Festplatten (VHDs) zur Bereitstellung für Hypervisors

    • VDI-Bereitstellungen (nur Windows Server 2012 R2): Virtual Desktop Infrastructure (VDI)-Bereitstellungen mit Hyper-V

    • Virtualisierte Sicherung: Sicherungslösungen (z. B. DPM, das auf einem virtuellen Hyper-V-Computer ausgeführt wird), die Sicherungsdaten in VHD-/VHDX-Dateien auf einem Windows-Dateiserver speichern

DPM und Dedup

Die Verwendung von Dedup mit DPM kann zu großen Einsparungen führen. Der durch die Deduplizierung bei der Optimierung von DPM-Sicherungsdaten eingesparte Speicherplatz hängt vom Typ der gesicherten Daten ab. So kann beispielsweise eine Sicherung eines verschlüsselten Datenbankservers zu minimalen Einsparungen führen, da alle doppelten Daten durch den Verschlüsselungsprozess verborgen werden. Die Sicherung einer großen VDI-Bereitstellung (Virtual Desktop Infrastructure) kann jedoch zu großen Einsparungen in der Größenordnung von 70 bis mehr als 90 % führen, da es in der Regel eine große Menge an Datenduplikaten zwischen den virtuellen Desktop-Umgebungen gibt. In der im Artikel beschriebenen Konfiguration führten wir verschiedene Test-Workloads durch und konnten Einsparungen zwischen 50 % und 90 % erzielen.

Um DPM-Speicher mit Deduplizierung zu nutzen, sollte DPM auf einem virtuellen Hyper-V-Computer ausgeführt werden und Sicherungsdaten in freigegebenen Ordnern mit aktivierter Datendeduplizierung in VHDs speichern.

Zum Bereitstellen von DPM als virtueller Computer, der Daten auf einem Deduplvolume sichert, empfehlen wir die folgende Bereitstellungstopologie:

  • DPM, das auf einem virtuellen Computer in einem Hyper-V-Hostcluster ausgeführt wird.

  • DPM-Speicherung mit VHD/VHDX-Dateien, die auf einer SMB 3.0-Freigabe auf einem Dateiserver gespeichert sind.

  • In dieser Beispielbereitstellung wurde der Dateiserver als Dateiserver mit horizontaler Skalierung (SOFS) konfiguriert, der mit Speichervolumes bereitgestellt wird, die über Speicherplatzpools konfiguriert werden, die mithilfe direkt verbundener SAS-Laufwerke erstellt wurden. Diese Bereitstellung stellt die Leistung im großen Maßstab sicher.

Beachten Sie dabei Folgendes:

  • Diese Bereitstellung wird für DPM 2012 R2 und höher sowie für alle Workload-Daten unterstützt, die von DPM 2012 R2 und höher gesichert werden können.

  • Auf allen Windows-Dateiserver-Knoten, auf denen sich virtuelle DPM-Festplatten befinden und auf denen die Deduplizierung aktiviert wird, muss Windows Server 2012 R2 mit Updaterollup November 2014 oder höher ausgeführt werden.

  • Wir stellen allgemeine Empfehlungen und Anweisungen für die Szenariobereitstellung bereit. Wenn hardwarespezifische Beispiele angegeben werden, wird die im Microsoft Cloud Platform System (CPS) bereitgestellte Hardware zur Referenz verwendet.

  • In diesem Beispiel werden SMB 3.0-Remotefreigaben zum Speichern der Sicherungsdaten verwendet, daher beruhen die primären Hardwareanforderungen eher auf den Dateiserverknoten anstatt auf den Hyper-V-Knoten. Die folgende Hardwarekonfiguration wird in CPS für Sicherungs- und Produktionsspeicher verwendet. Die gesamte Hardware wird sowohl für den Sicherungs- als auch für den Produktionsspeicher verwendet, aber die Anzahl der in den Laufwerkgehäusen aufgeführten Laufwerke sind nur diejenigen, die für die Sicherung verwendet werden.

    • Scale-Out-Dateiserver-Cluster mit vier Knoten

    • Konfiguration pro Knoten

      • 2 x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 Kerne, 16 logische Prozessoren

      • 128 GB 1333 MHz RDIMM Speicher

      • Speicherverbindungen: 2 Ports von SAS, 1 Port von 10 GbE iWarp/RDMA

    • Vier JBOD-Laufwerkgehäuse

      • 18 Festplatten in jedem JBOD – 16 x 4 TB HDDs + 2 x 800 GB SSDs

      • Dual-Pfad zu jedem Laufwerk: Multipfad-E/A-Lastenausgleichsrichtlinie nur auf Failover festgelegt

      • SSDs für Rückschreibcache (Write Back Cache, WBC) und der Rest für dedizierte Journallaufwerke konfiguriert

Einrichten von Dedupvolumes

Sehen wir uns an, wie groß die Volumes sein sollten, um die deduplizierten VHDX-Dateien mit DPM-Daten zu unterstützen. In CPS haben wir Volumen von jeweils 7,2 TB erstellt. Die optimale Größe des Datenträgers hängt in erster Linie davon ab, wie stark und wie häufig sich die Daten auf dem Datenträger ändern, sowie von den Durchsatzraten des Datenträgerspeichersubsystems für den Datenzugriff. Es ist wichtig zu beachten, dass die Einsparungsrate sinkt, bis die Verarbeitung abgeschlossen werden kann, wenn die Deduplizierungsverarbeitung nicht mit der Rate der täglichen Datenänderungen (der Fluktuation) Schritt halten kann. Weitere Informationen finden Sie unter Größenbestimmung von Volumes für die Datendeduplizierung. Die folgenden allgemeinen Richtlinien werden für Dedupvolumes empfohlen:

  • Verwenden Sie Speicherplätze mit Paritätsfunktion und Enclosure-Awareness für Ausfallsicherheit und eine bessere Datenträgernutzung.

  • Formatieren Sie NTFS mit 64-KB-Zuweisungseinheiten und großen Dateidatensatzsegmenten, um besser mit der Verwendung von platzsparenden Dateien zur Deduplizierung zu arbeiten.

  • In der oben abgebildeten Hardwarekonfiguration werden die Volumes bei einer empfohlenen Größe von 7,2 TB wie folgt konfiguriert:

    • Enclosure-aware Dual Parity 7,2 TB + 1 GB Write-Back-Cache

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Duale Paritätsleistung bei 64 KB Interleave ist viel niedriger als beim standardmäßigen 256 KB Interleave)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Große FRS

      Richten Sie einen neuen virtuellen Datenträger im angegebenen Speicherpool wie folgt ein:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Jedes dieser Volumes muss dann folgendermaßen formatiert werden:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      In der CPS-Bereitstellung werden diese dann als CSVs konfiguriert.

    • In diesen Volumes speichert DPM eine Reihe von VHDX-Dateien, um die Sicherungsdaten zu speichern. Aktivieren Sie die Deduplizierung auf dem Volume nach der Formatierung wie folgt:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Mit diesem Befehl werden auch die folgenden Dedupeinstellungen auf Volumeebene geändert:

      • Festlegen von UsageType auf HyperV: Dies führt zur Verarbeitung offener Dateien mit Deduplizierung, die erforderlich sind, da die VHDX-Dateien, die von DPM für die Sicherungsspeicherung verwendet werden, geöffnet bleiben, während DPM in seinem virtuellen Computer ausgeführt wird.

      • Deaktivieren von „PartialFileOptimization“: Dadurch wird Dedup veranlasst, alle Abschnitte einer geöffneten Datei zu optimieren, anstatt nach geänderten Abschnitten mit einem Mindestalter zu suchen.

      • Festlegen des Parameters „MinFileAgeDays“ auf 0: Wenn „PartialFileOptimization“ deaktiviert ist, wird das Verhalten von „MinFileAgeDays“ geändert, sodass Dedup nur Dateien berücksichtigt, die in so vielen Tagen nicht geändert wurden. Da Dedup die Verarbeitung der Sicherungsdaten in allen DPM-VHDX-Dateien ohne Verzögerung beginnen soll, müssen wir „MinFileAgeDays“ auf 0 festlegen.

Weitere Informationen zum Einrichten der Deduplizierung finden Sie unter Installieren und Konfigurieren der Datendeduplizierung.

Einrichten des DPM-Speichers

Um Fragmentierungsprobleme zu vermeiden und die Effizienz beizubehalten, wird der DPM-Speicher mithilfe von VHDX-Dateien zugewiesen, die sich auf den deduplizierten Volumes befinden. Zehn dynamische VHDX-Dateien mit jeweils 1 TB werden auf jedem Volume erstellt und an DPM angefügt. Außerdem werden 3 TB Überbereitstellung des Speichers durchgeführt, um die Speichereinsparungen zu nutzen, die durch Dedup erzeugt werden. Da Dedup zusätzliche Speichereinsparungen erzeugt, können neue VHDX-Dateien auf diesen Volumes erstellt werden, um den eingesparten Speicherplatz zu nutzen. Wir haben den DPM-Server mit bis zu 30 an ihn angefügten VHDX-Dateien getestet.

  1. Führen Sie den folgenden Befehl aus, um virtuelle Festplatten zu erstellen, die später zum DPM-Server hinzugefügt werden:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Anschließend werden die erstellten virtuellen Festplatten wie folgt zum DPM-Server hinzugefügt:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    In diesem Schritt wird ein Speicherpool als Datenträger konfiguriert, auf denen DPM Replikate und Wiederherstellungspunkte für geschützte Daten speichert. Dieser Pool ist Teil der DPM-Konfiguration und unterscheidet sich vom Speicherplatzpool, der zum Erstellen der im vorherigen Abschnitt beschriebenen Datenvolumes verwendet wird. Weitere Informationen zu DPM-Speicherpools finden Sie unter Konfigurieren von Datenträgerspeicher und Speicherpools.

Einrichten des Windows-Dateiserverclusters

Aufgrund des Umfangs der Daten und der Größe einzelner Dateien erfordert Dedup einen speziellen Satz von Konfigurationsoptionen, um den virtualisierten DPM-Speicher zu unterstützen. Diese Optionen gelten global für den Cluster oder den Clusterknoten. Dedup muss aktiviert sein, und die Clustereinstellungen müssen auf jedem Knoten des Clusters einzeln konfiguriert werden.

  1. Aktivieren von Dedup auf Windows-Dateiserverspeicher: Die Deduplizierungsrolle muss auf allen Knoten des Windows-Dateiserverclusters installiert werden. Führen Sie zu diesem Zweck den folgenden PowerShell-Befehl auf jedem Knoten im Cluster aus:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Optimieren der Dedupverarbeitung für Sicherungsdatendateien: Führen Sie den folgenden PowerShell-Befehl aus, um die Optimierung ohne Verzögerung zu starten und nicht um partielle Dateischreibvorgänge zu optimieren. Garbage Collection-Aufträge (GC) sind standardmäßig wöchentlich geplant. Jede vierte Woche wird der GC-Auftrag für eine noch umfassendere und zeitintensive Suche nach zu entfernenden Daten im Modus der umfassenden automatischen Speicherbereinigung („deep GC“) ausgeführt. Für die DPM-Workload führt dieser „deep GC“-Modus nicht zu sinnvollen Gewinnen und verkürzt die Zeit, in der Dedup Daten optimieren kann. Daher deaktivieren wir diesen umfassenden Modus.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Optimieren der Leistung für umfangreiche Vorgänge: Führen Sie das folgende PowerShell-Skript aus, um Folgendes zu tun:

    • Deaktivieren zusätzlicher Verarbeitung und E/A bei Ausführung der umfassenden automatischen Speicherbereinigung

    • Reservieren von zusätzlichem Speicher für die Hashverarbeitung

    • Aktivieren der Prioritätsoptimierung, um die sofortige Defragmentierung großer Dateien zu ermöglichen

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Diese Einstellungen ändern Folgendes:

    • HashIndexFullKeyReservationPercent: Dieser Wert steuert, wie viel Speicher des Optimierungsauftrags für vorhandene Blockhashes im Vergleich zu neuen Blockhashes verwendet wird. Bei hoher Skalierung führt 70 % zu einem besseren Optimierungsdurchsatz als der Standardwert von 50 %.

    • EnablePriorityOptimization: Bei Dateien, die sich 1 TB nähern, kann die Fragmentierung einer einzelnen Datei genügend Fragmente ansammeln, um das Limit pro Datei zu erreichen. Die Optimierungsverarbeitung konsolidiert diese Fragmente und verhindert, dass dieses Limit erreicht wird. Wenn Sie diesen Registrierungsschlüssel festlegen, fügt Dedup einen zusätzlichen Prozess hinzu, der stark fragmentierte deduplizierte Dateien mit hoher Priorität behandelt.

Einrichten der DPM- und Dedupplanung

Sowohl Sicherungs- als auch Deduplizierungsvorgänge sind E/A-Intensiv. Wenn sie gleichzeitig ausgeführt werden sollen, kann ein zusätzlicher Aufwand für den Wechsel zwischen den Vorgängen kostspielig sein und dazu führen, dass weniger Daten täglich gesichert oder dedupliziert werden. Es wird empfohlen, dedizierte und separate Deduplizierungs- und Sicherungsfenster zu konfigurieren. Dadurch wird sichergestellt, dass der E/A-Datenverkehr für jeden dieser Vorgänge während des täglichen Systembetriebs effizient verteilt wird. Die empfohlenen Richtlinien für die Planung sind:

  • Teilen Sie die Tage in sich nicht überschneidende Sicherungs- und Dedup-Fenster auf.

  • Legen Sie benutzerdefinierte Sicherungszeitpläne fest.

  • Richten Sie benutzerdefinierte Dedup-Zeitpläne ein.

  • Planen Sie die Optimierung im täglichen Dedup-Fenster.

  • Legen Sie die Wochenend-Dedup-Zeitpläne separat fest und nutzen Sie diese Zeit für die automatische Speicherbereinigung und Scrubbing-Aufträge.

Sie können DPM-Zeitpläne mit dem folgenden PowerShell-Befehl einrichten:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

In dieser Konfiguration ist DPM so konfiguriert, dass virtuelle Computer zwischen 22:00 Uhr und 6:00 Uhr gesichert werden. Die Deduplizierung wird für die verbleibenden 16 Stunden des Tages geplant. Die tatsächliche Dedupzeit, die Sie konfigurieren, hängt von der Volumengröße ab. Weitere Informationen finden Sie unter Größenbestimmung von Volumes für die Datendeduplizierung. Ein 16-stündiges Deduplizierungsfenster, das um 6 Uhr morgens nach dem Ende des Sicherungsfensters beginnt, würde von jedem einzelnen Clusterknoten aus wie folgt konfiguriert werden:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Wenn das Sicherungsfenster geändert wird, muss unbedingt auch das Deduplizierungsfenster geändert werden, damit sie sich nicht überschneiden. Das Deduplizierungs- und Sicherungsfenster muss nicht die vollen 24 Stunden des Tages ausfüllen; es wird jedoch dringend empfohlen, dies zu tun, um Schwankungen in der Verarbeitungszeit aufgrund der erwarteten täglichen Änderungen der Workloads und der Datenfluktuation zu berücksichtigen.

Auswirkungen auf die Sicherungsleistung

Nachdem eine Reihe von Dateien dedupliziert wurde, kann es beim Zugriff auf die Dateien zu leichten Leistungseinbußen kommen. Dies ist auf die zusätzliche Verarbeitung zurückzuführen, die für den Zugriff auf das von deduplizierten Dateien verwendete Dateiformat erforderlich ist. In diesem Szenario handelt es sich bei den Dateien um eine Reihe von VHDX-Dateien, die während des Sicherungsfensters kontinuierlich von DPM verwendet werden. Die Deduplizierung dieser Dateien hat zur Folge, dass die Vorgänge zur Sicherung und Wiederherstellung etwas langsamer sein können als ohne Deduplizierung. Wie bei jedem Sicherungsprodukt handelt es sich bei DPM um einen schreibintensiven Workload, wobei Lesevorgänge bei Wiederherstellungsvorgängen am wichtigsten sind. Die Empfehlungen zur Behandlung der Auswirkungen auf die Sicherungsleistung aufgrund der Deduplizierung sind:

  • Lese-/Wiederherstellungsvorgänge: Die Auswirkungen auf Lesevorgänge sind in der Regel unerheblich und erfordern keine besonderen Maßnahmen, weil das Deduplizierungsfeature deduplizierte Blöcke zwischenspeichert.

  • Schreib-/Sicherungsvorgänge: Planen Sie beim Definieren des Sicherungsfensters eine Erhöhung der Sicherungszeit von 5 bis 10 %. (Dies ist eine Steigerung im Vergleich zur erwarteten Sicherungszeit beim Schreiben auf nicht deduplizierte Datenträger.)

Überwachung

DPM und Datendeduplizierung können überwacht werden, um Folgendes sicherzustellen:

  • Es wird ausreichend Speicherplatz für die Sicherung der Daten bereitgestellt.

  • DPM-Sicherungsaufträge werden normal abgeschlossen.

  • Die Deduplizierung ist auf den Sicherungsvolumes aktiviert.

  • Deduplizierungszeitpläne werden ordnungsgemäß festgelegt.

  • Die Deduplizierungsverarbeitung erfolgt in der Regel täglich.

  • Die Einsparungsrate durch Deduplizierung entspricht den Annahmen für die Systemkonfiguration.

Der Erfolg der Deduplizierung hängt von den allgemeinen Hardware-Fähigkeiten des Systems (einschließlich CPU-Verarbeitungsgeschwindigkeit, E/A-Bandbreite, Speicherkapazität), der korrekten Systemkonfiguration, der durchschnittlichen Systemlast und der täglichen Menge an geänderten Daten ab.

Sie können DPM mithilfe der DPM-Zentralkonsole überwachen. Weitere Informationen finden Sie unter Installieren der zentralen Konsole.

Sie können Dedup überwachen, um den Status der Deduplizierung, die Speicherrate und den Zeitplanstatus mithilfe der folgenden PowerShell-Befehle zu überprüfen:

Get status:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Get savings:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Ermitteln Sie den Status des Zeitplans mit dem Cmdlet „Get-DedupSchedule“.

Überwachen von Ereignissen

Durch die Überwachung des Ereignisprotokolls können Sie Deduplizierungsereignisse und -status besser verstehen.

  • Um Deduplizierungsereignisse anzuzeigen, navigieren Sie im Datei-Explorer zu Anwendungen und Dienstprotokolle>Microsoft>Windows>Deduplizierung.

  • Wenn in den Windows PowerShell-Ergebnissen von „Get-DedupStatus |fl“ der Wert LastOptimizationResult = 0x00000000 angezeigt wird, wurde das gesamte Dataset vom vorherigen Optimierungsauftrag verarbeitet. Wenn nicht, konnte das System die Deduplizierung nicht abschließen und Sie sollten Ihre Konfigurationseinstellungen überprüfen, z. B. die Datenträgergröße.

Weitere Informationen zu Cmdlet-Beispielen finden Sie unter Überwachung und Berichterstellung für die Datendeduplizierung.

Überwachen des Sicherungsspeichers

In unserem Konfigurationsbeispiel sind die 7,2-TB-Volumes mit 10 TB „logischen“ Daten (die Größe der Daten, wenn sie nicht dedupliziert sind) gefüllt, die in 10 dynamischen VHDX-Dateien mit jeweils 1 TB gespeichert sind. Da diese Dateien zusätzliche Sicherungsdaten enthalten, füllen sie das Volumen langsam auf. Wenn der durch die Deduplizierung erzielte Einsparungsprozentsatz hoch genug ist, können alle 10 Dateien ihre maximale logische Größe erreichen und dennoch in das 7,2-TB-Volume passen (möglicherweise ist sogar noch zusätzlicher Speicherplatz für die Zuweisung zusätzlicher VHDX-Dateien für DPM-Server vorhanden). Wenn die durch die Deduplizierung erzielten Größenersparnisse jedoch nicht ausreichen, kann es sein, dass der Speicherplatz auf dem Volume erschöpft ist, bevor die VHDX-Dateien ihre volle logische Größe erreichen und das Volume voll ist. Um zu verhindern, dass Volumes voll werden, empfehlen wir Folgendes:

  • Seien Sie bei den Anforderungen an die Datenträgergröße konservativ und planen Sie eine gewisse Überdimensionierung des Speichers ein. Es wird empfohlen, bei der Planung der Nutzung des Sicherungsspeichers einen Puffer von mindestens 10 % vorzusehen, um erwartete Schwankungen bei den Einsparungen durch Deduplizierung und der Datenfluktuation zu berücksichtigen.

  • Überwachen Sie die für die Sicherungsspeicherung verwendeten Volumes, um sicherzustellen, dass die Speicherplatznutzung und die Einsparungsraten durch Deduplizierung den Erwartungen entsprechen.

Wenn das Volumen voll wird, ergeben sich die folgenden Symptome:

  • Der virtuelle Computer des DPM wird in einen pausenkritischen Zustand versetzt und es können keine weiteren Sicherungsaufträge von diesem virtuellen Computer aus erteilt werden.

  • Alle Sicherungsaufträge, die die VHDX-Dateien auf dem vollständigen Datenträger verwenden, schlagen fehl.

Um diesen Zustand zu beheben und den normalen Vorgang wiederherzustellen, kann zusätzlicher Speicher bereitgestellt und eine Speichermigration des virtuellen Computers des DPM oder seiner VHDX durchgeführt werden, um Speicherplatz freizugeben:

  1. Beenden Sie den DPM-Server, der die VHDX-Dateien auf der vollständigen Sicherungsfreigabe besitzt.

  2. Erstellen Sie ein zusätzliches Volume und eine Sicherungsfreigabe mit derselben Konfiguration und denselben Einstellungen wie für die vorhandenen Freigaben, einschließlich der Einstellungen für NTFS und Deduplizierung.

  3. Migrieren Sie den Speicher für den virtuellen Computer des DPM-Servers und migrieren Sie mindestens eine VHDX-Datei von der vollständigen Sicherungsfreigabe zur neuen Sicherungsfreigabe, die in Schritt 2 erstellt wurde.

  4. Führen Sie einen Daten-Deduplizierungsauftrag (automatische Speicherbereinigung) auf der Quell-Sicherungsfreigabe aus, die voll war. Der GC-Auftrag sollte erfolgreich sein und den freien Speicherplatz zurückfordern.

  5. Starten Sie den virtuellen Computer des DPM-Servers neu.

  6. Ein DPM-Konsistenzprüfungsauftrag wird während des nächsten Sicherungsfensters für alle Datenquellen ausgelöst, die zuvor fehlgeschlagen sind.

  7. Alle Sicherungsaufträge sollten jetzt erfolgreich sein.

Zusammenfassung

Die Kombination aus Deduplizierung und DPM bietet erhebliche Platzeinsparungen. Dies ermöglicht höhere Aufbewahrungsraten, häufigere Sicherungen und bessere Gesamtbetriebskosten für die DPM-Bereitstellung. Die Anleitungen und Empfehlungen in diesem Dokument sollen Ihnen die Tools und das Wissen an die Hand geben, um die Deduplizierung für DPM-Speicher zu konfigurieren und weitere Informationen zu den Vorteilen für Ihre eigene Bereitstellung zu finden.

Häufig gestellte Fragen

F: DPM-VHDX-Dateien müssen eine Größe von 1 TB haben. Bedeutet dies, dass DPM keine VM, SharePoint, SQL DB oder Dateivolumen mit einer Größe von > 1 TB sichern kann?

A: Nein. DPM aggregiert mehrere Volumes in einem, um Sicherungen zu speichern. Die Dateigröße von 1 TB hat also keine Auswirkungen auf Datenquellengrößen, die DPM sichern kann.

F: Es sieht so aus, als müssten DPM-Speicher-VHDX-Dateien nur auf Remote-SMB-Dateifreigaben bereitgestellt werden. Was passiert, wenn ich die VHDX-Sicherungsdateien auf dedup-fähigen Volumes auf demselben System speichere, auf dem der virtuelle DPM-Computer ausgeführt wird?

A: Wie oben erläutert, sind DPM, Hyper-V und Deduplizierung speicher- und rechenintensive Vorgänge. Die Kombination aller drei in einem einzigen System kann zu E/A- und prozessintensiven Vorgängen führen, die Hyper-V und seine VMs aushungern können. Wenn Sie sich dafür entscheiden, DPM in einer VM mit den Sicherungsspeichervolumes auf demselben Computer zu konfigurieren, sollten Sie die Leistung sorgfältig überwachen, um sicherzustellen, dass genügend E/A-Bandbreite und Rechenkapazität vorhanden sind, um alle drei Vorgänge auf demselben Computer auszuführen.

F: Sie empfehlen dedizierte, separate Deduplizierungs- und Sicherungsfenster. Warum kann ich die Dedup-Funktion nicht aktivieren, während DPM gesichert wird? Ich muss meine SQL-DB alle 15 Minuten sichern.

A: Dedup und DPM sind speicherintensive Vorgänge. Wenn beide gleichzeitig ausgeführt werden, kann dies ineffizient sein und zu E/A-Engpässen führen. Um Workloads mehr als einmal täglich zu schützen (z. B. SQL Server alle 15 Minuten) und gleichzeitig eine Deduplizierung zu ermöglichen, stellen Sie daher sicher, dass genügend E/A-Bandbreite und Computerleistung vorhanden ist, um eine Ressourcenverknappung zu vermeiden.

F: Aufgrund der beschriebenen Konfiguration muss DPM auf einem virtuellen Computer ausgeführt werden. Warum kann ich die Deduplizierung nicht direkt auf Replikat- und Schattenkopie-Volumes aktivieren, anstatt auf VHDX-Dateien?

A: Dedup führt die Deduplizierung pro Volume durch und arbeitet dabei mit einzelnen Dateien. Da Dedup auf Dateiebene optimiert, ist es nicht für die Unterstützung der VolSnap-Technologie ausgelegt, die DPM zum Speichern seiner Sicherungsdaten verwendet. Durch die Ausführung von DPM in einer VM ordnet Hyper-V die DPM-Volumevorgänge der VHDX-Dateiebene zu, sodass die Deduplizierung die Sicherungsdaten optimieren und größere Speichereinsparungen ermöglichen kann.

F: Die obige Beispielkonfiguration hat nur 7,2-TB-Volumes erstellt. Kann ich größere oder kleinere Volumes erstellen?

A: Dedup führt einen Thread pro Volume aus. Da die Volumengröße größer wird, benötigt Dedup mehr Zeit, um die Optimierung abzuschließen. Andererseits gibt es bei kleinen Mengen weniger Daten, in denen doppelte Blöcke gefunden werden können, was zu geringeren Einsparungen führen kann. Daher ist es ratsam, die Volumengröße basierend auf der Gesamtabwanderung und den Systemhardwarefähigkeiten für optimale Einsparungen anzupassen. Ausführlichere Informationen zur Bestimmung der bei der Deduplizierung verwendeten Volumengrößen finden Sie unter „Größenbestimmung von Volumes für die Deduplizierung in Windows Server“. Weitere Informationen zur Bestimmung der bei der Deduplizierung verwendeten Volumengrößen finden Sie unter Größenbestimmung von Volumes für die Datendeduplizierung.