Deduplizieren von DPM-Speicher

Wichtig

Diese Version von Data Protection Manager (DPM) hat das Ende des Supports erreicht. Es wird empfohlen, ein Upgrade auf DPM 2022 durchzuführen.

System Center Data Protection Manager (DPM) kann die Datendeduplizierung verwenden.

Die Datendeduplizierung (dedup) sucht und entfernt duplizierte Daten auf einem Volume und stellt gleichzeitig sicher, dass die Daten richtig und vollständig bleiben. Erfahren Sie mehr über das Planen der Deduplizierung.

  • Dedup reduziert den Speicherverbrauch. Obwohl der Umfang der Redundanz für einen Satz von Daten von der Workload und dem Datentyp abhängt, weisen Sicherungsdaten in der Regel starke Einsparungen auf, wenn dedup verwendet wird.

  • Die Datenredundanz kann mithilfe der Deduplizierung weiter reduziert werden, wenn gesicherte Daten mit ähnlichem Typ und ähnlichen Arbeitsauslastungen zusammen verarbeitet werden.

  • Dedup ist für die Installation auf primären Datenvolumes ohne zusätzliche dedizierte Hardware konzipiert, sodass es sich nicht auf die primäre Workload auf dem Server auswirkt. Die Standardeinstellungen sind nicht aufintrussiv, da sie das Altern von Daten für fünf Tage vor der Verarbeitung einer bestimmten Datei ermöglichen und eine Standardmäßige Mindestdateigröße von 32 KB aufweisen. Die Implementierung ist auf eine geringe Speicher- und CPU-Auslastung ausgelegt.

  • Die Deduplizierung kann für die folgenden Arbeitsauslastungen implementiert werden:

    • Allgemeine Dateifreigaben: Veröffentlichungen und Freigaben von Gruppeninhalten, Basisordner von Benutzern und Ordnerumleitung/Offlinedateien

    • Softwarebereitstellungsfreigaben: Softwarebinärdateien, Images und Updates

    • VHD-Bibliotheken: Dateispeicher für virtuelle Festplatten (VHDs) zur Bereitstellung auf Hypervisoren

    • VDI-Bereitstellungen (nur Windows Server 2012 R2): Virtual Desktop Infrastructure(VDI)-Bereitstellungen mit Hyper-V

    • Virtualisierte Sicherung: Sicherungslösungen (z. B. DPM, die auf einem virtuellen Hyper-V-Computer ausgeführt wird), die Sicherungsdaten in VHD-/VHDX-Dateien auf einem Windows-Dateiserver speichern

DPM und Deduplizierung

Durch die Deduplizierung mit DPM können sich große Einsparungen ergeben. Der beim Optimieren der DPM-Sicherungsdaten durch die Deduplizierung eingesparte Speicherplatz variiert je nach Typ der zu sichernden Daten. Die Sicherung eines verschlüsselten Datenbankservers kann z. B. nur zu minimalen Einsparungen führen, weil doppelte Daten durch den Verschlüsselungsvorgang ausgeblendet werden. Die Sicherung einer großen VDI-Bereitstellung (Virtual Desktop Infrastructure) kann jedoch zu großen Einsparungen im Bereich von 70 bis 90 % führen, da es in der Regel eine große Menge an Datenduplizierung zwischen den virtuellen Desktopumgebungen gibt. In der im Artikel beschriebenen Konfiguration haben wir verschiedene Testworkloads ausgeführt und Einsparungen zwischen 50 % und 90 % erzielt.

Um dedup für DPM-Speicher zu verwenden, sollte DPM auf einem virtuellen Hyper-V-Computer ausgeführt werden und Sicherungsdaten auf VHDs in freigegebenen Ordnern mit aktiviertem Datendeup speichern.

Die folgende Bereitstellungstopologie wird zum Bereitstellen von DPM als virtuellen Computer für die Sicherung von Daten auf einem deduplizierten Volume empfohlen:

  • DPM wird auf einem virtuellen Computer in einem Hyper-V-Hostcluster ausgeführt.

  • Der DPM-Speicher mit VHD-/VHDX-Dateien wird auf einer SMB 3.0-Freigabe auf einem Dateiserver gespeichert.

  • In dieser Beispielbereitstellung wurde der Dateiserver als Dateiserver mit horizontaler Skalierung (SOFS) konfiguriert, der mit Speichervolumes bereitgestellt wird, die über Speicherplatzpools konfiguriert werden, die mithilfe direkt verbundener SAS-Laufwerke erstellt wurden. Diese Bereitstellung stellt die Leistung im großen Stil sicher.

Beachten Sie dabei Folgendes:

  • Diese Bereitstellung wird für DPM 2012 R2 und höher und für alle Workloaddaten unterstützt, die mit DPM 2012 R2 und höher gesichert werden können.

  • Auf allen Windows-Dateiserverknoten, auf denen sich virtuelle DPM-Festplatten befinden und die Deduplizierung aktiviert wird, muss Windows Server 2012 R2 mit dem Updaterollup von November 2014 oder höher ausgeführt werden.

  • Für die Szenariobereitstellung erhalten Sie von uns allgemeine Empfehlungen und Anleitungen. Bei hardwarespezifischen Beispielen wird die für das Microsoft Cloud Platform System (CPS) bereitgestellte Hardware zu Referenzzwecken verwendet.

  • In diesem Beispiel werden SMB 3.0-Remotefreigaben zum Speichern der Sicherungsdaten verwendet, daher beruhen die primären Hardwareanforderungen eher auf den Dateiserverknoten anstatt auf den Hyper-V-Knoten. Die folgende Hardwarekonfiguration wird in CPS für Sicherungs- und Produktionsspeicher verwendet. Die gesamte Hardware wird sowohl für Den Sicherungs- als auch für den Produktionsspeicher verwendet, aber die Anzahl der Laufwerke, die in den Laufwerkgehäusen aufgeführt sind, sind nur diejenigen, die für die Sicherung verwendet werden.

    • Dateiservercluster mit horizontaler Skalierung mit vier Knoten

    • Konfiguration pro Knoten

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 Kerne, 16 logische Prozessoren

      • 128 GB, 1333 MHz, RDIMM-Arbeitsspeicher

      • Speicherverbindungen: 2 SAS-Ports, 1 Port mit 10 GbE iWarp/RDMA

    • Vier JBOD-Laufwerksgehäuse

      • 18 Datenträger in jedem JBOD – 16 x 4 TB HDDs + 2 x 800 GB SSDs

      • Dual-Pfad zu jedem Laufwerk: Multipfad-E/A-Lastenausgleichsrichtlinie nur auf Failover festgelegt

      • SSDs für Rückschreibcache (Write Back Cache, WBC) und der Rest für dedizierte Journallaufwerke konfiguriert

Einrichten von Deduplizierungsvolumes

Überlegen Sie, wie groß die Volumes zur Unterstützung der deduplizierten VHDX-Dateien mit DPM-Daten sein müssen. In CPS haben wir Volumes mit jeweils 7,2 TB erstellt. Die optimale Volumegröße hängt in erster Linie davon ab, wie viele Daten und wie oft die Daten auf dem Volume geändert werden, und sie richtet sich zudem nach den Datenzugriffs-Durchsatzraten des Datenträger-Speichersubsystems. Es ist wichtig zu beachten, dass, wenn die Deduplizierungsverarbeitung nicht mit der Rate der täglichen Datenänderungen (der Abwanderung) Schritt halten kann, die Sparrate sinkt, bis die Verarbeitung abgeschlossen werden kann. Ausführlichere Informationen finden Sie unter Größenanpassung von Volumes für die Datendeduplizierung. Die folgenden allgemeinen Richtlinien werden für Dedup-Volumes empfohlen:

  • Verwenden Sie Paritätsspeicherplätze, die Gehäuseinformationen nutzen, um Resilienz und eine bessere Datenträgerverwendung sicherstellen zu können.

  • Formatieren Sie NTFS mit 64-KB-Zuordnungseinheiten und großen Dateidatensatzsegmenten, um die Verwendung von Sparsedateien zu deaktivieren.

  • In der Hardwarekonfiguration über der empfohlenen Volumegröße von 7,2 TB-Volumes werden Volumes wie folgt konfiguriert:

    • Gehäusebasierte duale Parität 7,2 TB + 1 GB Schreibcache

      • ResiliencySettingName == Parität

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Duale Paritätsleistung bei 64 KB Interleave ist viel niedriger als bei der standard 256 KB Interleave)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Großes FRS

      Richten Sie im angegebenen Speicherpool einen neuen virtuellen Datenträger wie folgt ein:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Die einzelnen Volumes müssen dann wie folgt formatiert werden:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      In der CPS-Bereitstellung werden diese dann als CSVs konfiguriert.

    • Innerhalb dieser Volumes speichert DPM eine Reihe von VHDX-Dateien, um die Sicherungsdaten zu speichern. Aktivieren Sie die Deduplizierung auf dem Volume, nachdem Sie es wie folgt formatiert haben:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Mit diesem Befehl werden auch die folgenden Dedupeinstellungen auf Volumeebene geändert:

      • Legen Sie UsageType auf HyperV fest: Dies führt dazu, dass bei der Deduplizierung geöffnete Dateien verarbeitet werden, was erforderlich ist, weil die von DPM für den Sicherungsspeicher verwendeten VHDX-Dateien geöffnet bleiben, wenn DPM auf dem virtuellen Computer ausgeführt wird.

      • PartialFileOptimization deaktivieren: Dies führt dazu, dass dedup alle Abschnitte einer geöffneten Datei optimiert, anstatt nach geänderten Abschnitten mit einem Mindestalter zu suchen.

      • Legen Sie den MinFileAgeDays-Parameter auf „0“ (Null) fest: Wenn „PartialFileOptimization“ deaktiviert ist, ändert sich das Verhalten von „MinFileAgeDays“, sodass bei der Deduplizierung nur Dateien berücksichtigt werden, die in der festgelegten Anzahl von Tagen nicht geändert wurden. Da die Deduplizierung ohne Verzögerung mit der Verarbeitung der Sicherungsdaten in allen DPM VHDX-Dateien beginnen soll, muss "MinFileAgeDays" auf "0" festgelegt werden.

Weitere Informationen zum Einrichten der Deduplizierung finden Sie unter Installieren und Konfigurieren der Datenduplizierung.

Einrichten von DPM-Speicher

Zur Vermeidung von Fragmentierungsproblemen und Erhaltung der Effizienz wird DPM-Speicher mithilfe von VHDX-Dateien zugeordnet, die sich auf den deduplizierten Volumes befinden. Auf jedem Volume werden zehn dynamische VHDX-Dateien mit jeweils 1 TB erstellt und an DPM angefügt. Darüber hinaus werden 3 TB Überbereitstellung des Speichers durchgeführt, um die durch die Dedup erzielten Speichereinsparungen zu nutzen. Da dedup zusätzliche Speichereinsparungen verursacht, können auf diesen Volumes neue VHDX-Dateien erstellt werden, um den eingesparten Speicherplatz zu belegen. Der DPM-Server wurde mit bis zu 30 angefügten VHDX-Dateien getestet.

  1. Führen Sie den folgenden Befehl aus, um virtuelle Festplatten zu erstellen, die dem DPM-Server später hinzugefügt werden:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Fügen Sie dem DPM-Server die erstellten virtuellen Festplatten dann wie folgt hinzu:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    In diesem Schritt wird ein Speicherpool als datenträger konfiguriert, auf dem DPM Replikate und Wiederherstellungspunkte für geschützte Daten speichert. Dieser Pool ist Teil der DPM-Konfiguration und von dem Speicherplatzpool getrennt, der zum Erstellen der im vorherigen Abschnitt beschriebenen Datenvolumes verwendet wird. Weitere Informationen zu DPM-Speicherpools finden Sie unter Konfigurieren von Datenträgerspeicher und Speicherpools.

Einrichten des Windows-Dateiserverclusters

Die Deduplizierung erfordert aufgrund des Datenumfangs und der Größe der einzelnen Dateien spezielle Konfigurationsoptionen, um virtualisierten DPM-Speicher unterstützen zu können. Diese Optionen gelten global für den Cluster oder Clusterknoten. Die Deduplizierung muss aktiviert sein, und die Clustereinstellungen müssen einzeln auf jedem Clusterknoten konfiguriert werden.

  1. Aktivieren der Deduplizierung für Windows-Dateiserverspeicher: Die Rolle „Deduplizierung“ muss auf allen Knoten des Windows-Dateiserverclusters installiert werden. Führen Sie hierzu den folgenden PowerShell-Befehl auf jedem Knoten des Clusters aus:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Optimieren der Dedupverarbeitung für Sicherungsdatendateien: Führen Sie den folgenden PowerShell-Befehl aus, um festzulegen, dass die Optimierung ohne Verzögerung gestartet wird und nicht, um partielle Dateischreibvorgänge zu optimieren. Standardmäßig werden Garbage Collection-Aufträge (GC) jede Woche geplant, und alle vierte Woche wird der GC-Auftrag im Modus "Deep GC" ausgeführt, um eine vollständigere und zeitintensivere Suche nach zu entfernenden Daten zu erhalten. Für die DPM-Workload führt dieser "deep GC"-Modus zu keinen wertschätzenden Gewinnen und reduziert die Zeit, in der dedup Daten optimieren kann. Daher deaktivieren wir diesen Modus.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Optimieren der Leistung für umfangreiche Vorgänge: Führen Sie das folgende PowerShell-Skript aus, um folgendes auszuführen:

    • Deaktivieren von zusätzlichen Verarbeitungs- und E/A-Vorgängen, wenn die umfassende automatische Speicherbereinigung ausgeführt wird

    • Reservieren von zusätzlichem Arbeitsspeicher für die Hashverarbeitung

    • Aktivieren der Prioritätsoptimierung (Priority Optimization), um die sofortige Defragmentierung großer Dateien zu ermöglichen

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Durch diese Einstellungen wird Folgendes geändert:

    • HashIndexFullKeyReservationPercent: Dieser Wert steuert, wie viel des Optimierungsauftragsspeichers für vorhandene Chunkhashes im Vergleich zu neuen Chunkhashes verwendet wird. Bei umfangreicher Skalierung führen 70 % zu einem besseren Optimierungsdurchsatz als der Standardwert von 50 %.

    • EnablePriorityOptimization: Bei Dateien, die sich 1 TB nähern, kann die Fragmentierung einer einzelnen Datei genügend Fragmente sammeln, um den Grenzwert pro Datei zu erreichen. Die Optimierungsverarbeitung konsolidiert diese Fragmente und verhindert, dass dieser Grenzwert erreicht wird. Durch Festlegen dieses Registrierungsschlüssels fügt die Deduplizierung einen weiteren Vorgang hinzu, um stark fragmentierte deduplizierte Dateien mit hoher Priorität zu verarbeiten.

Einrichten von DPM und Planen der Deduplizierung

Sicherungs- und Deduplizierungsvorgänge sind E/A-intensiv. Bei gleichzeitiger Ausführung könnte der Mehraufwand für das Wechseln zwischen den Vorgängen kostspielig sein und dazu führen, dass täglich weniger Daten gesichert oder dedupliziert werden. Es empfiehlt sich, dedizierte und separate Zeitfenster für die Deduplizierung und für die Sicherung festzulegen. Dadurch können Sie sicherstellen, dass der E/A-Datenverkehr für die einzelnen Vorgänge während des täglichen Systembetriebs effizient verteilt wird. Für die Zeitplanung werden die folgenden Richtlinien empfohlen:

  • Teilen Sie die Tage in nicht überlappende Zeitfenster für Sicherung und Deduplizierung auf.

  • Legen Sie benutzerdefinierte Sicherungszeitpläne fest.

  • Legen Sie benutzerdefinierte Deduplizierungszeitpläne fest.

  • Planen Sie die Optimierung im täglichen Deduplizierungszeitfenster.

  • Legen Sie die Zeitpläne für die an Wochenenden auszuführende Deduplizierung separat fest, und nutzen Sie diese Zeit für Garbage Collection- und Bereinigungsaufträge.

Sie können DPM Zeitpläne mit dem folgenden PowerShell-Befehl festlegen:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

In dieser Konfiguration ist DPM für die Sicherung der virtuellen Computer in der Zeit zwischen 22 Uhr und 6 Uhr konfiguriert. Die Deduplizierung ist für die verbleibenden 16 Stunden geplant. Die tatsächliche Dedupzeit, die Sie konfigurieren, hängt von der Volumegröße ab. Weitere Informationen finden Sie unter Dimensionieren von Volumes für die Datendeduplizierung. Ein Deduplizierungszeitfenster von 16 Stunden, das nach dem Ende des Sicherungszeitfensters um 6 Uhr beginnt, wird auf einem beliebigen einzelnen Clusterknoten wie folgt konfiguriert:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Jedes Mal, wenn das Sicherungsfenster geändert wird, ist es wichtig, dass das Deduplizierungsfenster zusammen mit dem Fenster geändert wird, damit es sich nicht überlappen kann. Das Deduplizierungs- und Sicherungsfenster muss nicht die gesamten 24 Stunden des Tages füllen. Es wird jedoch dringend empfohlen, dass sie dies tun, um Schwankungen der Verarbeitungszeit aufgrund der erwarteten täglichen Änderungen bei Workloads und Datenänderung zu ermöglichen.

Auswirkungen auf die Sicherungsleistung

Nachdem eine Reihe von Dateien dedupliziert wurde, können beim Zugriff auf die Dateien geringfügige Leistungskosten anfallen. Das liegt an den zusätzlichen Verarbeitungsschritten, die zum Zugreifen auf das Dateiformat von deduplizierten Dateien erforderlich sind. In diesem Szenario handelt es sich bei den Dateien um VHDX-Dateien, die während der gesamten Dauer des Sicherungszeitfensters von DPM kontinuierlich verwendet werden. Die Deduplizierung dieser Dateien bedeutet, dass die Sicherungs- und Wiederherstellungsvorgänge etwas langsamer sein können als ohne Deduplizierung. Wie für jedes Sicherungsprodukt gilt auch für DPM, dass es sich dabei um eine sehr schreibintensive Workload mit Lesevorgängen handelt, die während der Ausführung der Wiederherstellungsvorgänge am wichtigsten sind. Für den Umgang mit den durch die Deduplizierung entstehenden Auswirkungen auf die Sicherungsleistung gelten die Folgenden Empfehlungen:

  • Lese-/Wiederherstellungsvorgänge: Die Auswirkungen auf Lesevorgänge sind in der Regel unerheblich und erfordern keine besonderen Maßnahmen, weil das Deduplizierungsfeature deduplizierte Blöcke zwischenspeichert.

  • Schreib-/Sicherungsvorgänge: Planen Sie beim Definieren des Sicherungsfensters eine Erhöhung der Sicherungszeit um 5 bis 10 %. (Dies ist im Vergleich zur erwarteten Sicherungsdauer beim Schreiben auf nicht deduplizierte Volumes ein erhöhter Zeitaufwand.)

Überwachung

DPM und die Datendeduplizierung können überwacht werden, um Folgendes sicherzustellen:

  • Es wird ausreichend Speicherplatz zum Speichern der Sicherungsdaten bereitgestellt.

  • DPM-Sicherungsaufträge werden normal abgeschlossen.

  • Die Deduplizierung ist auf den Sicherungsvolumes aktiviert.

  • Die Deduplizierungszeitpläne sind richtig festgelegt.

  • Die Deduplizierungsverarbeitung wird täglich normal ausgeführt.

  • Die durch die Deduplizierung erzielte Einsparungsquote entspricht den für die Systemkonfiguration getroffenen Annahmen.

Der Erfolg der Deduplizierung hängt von den gesamten Systemhardwarefunktionen (einschließlich CPU-Geschwindigkeit, E/A-Bandbreite, Speicherkapazität), der richtigen Systemkonfiguration, der durchschnittlichen Systemlast und der täglich geänderten Datenmenge ab.

Sie können DPM mit der zentralen DPM-Konsole überwachen. Weitere Informationen hierzu finden Sie unter Installieren der zentralen Konsole.

Mithilfe der folgenden PowerShell-Befehle können Sie die Dedup-status, die Status und den Zeitplan überwachen:

Status abrufen:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Einsparungsquote abrufen:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Den Zeitplanstatus können Sie mit dem Get-DedupSchedule-Cmdlet abrufen.

Überwachen von Ereignissen

Durch Überwachen des Ereignisprotokolls können Sie die Deduplizierungsereignisse und den Deduplizierungsstatus besser nachvollziehen.

  • Zum Anzeigen von Deduplizierungsereignissen navigieren Sie im Datei-Explorerzu Anwendungs- und Dienstprotokolle>Microsoft>Windows>Deduplizierung.

  • Wenn in den Windows PowerShell-Ergebnissen von „Get-DedupStatus |fl“ der Wert LastOptimizationResult = 0x00000000 angezeigt wird, wurde das gesamte Dataset vom vorherigen Optimierungsauftrag verarbeitet. Andernfalls konnte das System die Deduplizierungsverarbeitung nicht abschließen. Sie sollten dann Ihre Konfigurationseinstellungen (z. B. die Volumegröße) überprüfen.

Ausführlichere Cmdlet-Beispiele finden Sie unter Überwachen der und Erstellen von Berichten für die Datendeduplizierung.

Überwachen des Sicherungsspeichers

In unserem Konfigurationsbeispiel werden die 7,2 TB-Volumes mit 10 TB "logischer" Daten (die Größe der Daten, wenn sie nicht dedupliziert sind) gefüllt, die in 10 x 1 TB dynamischen VHDX-Dateien gespeichert sind. Da durch diese Dateien weitere Sicherungsdaten kumuliert werden, füllt sich das Volume langsam. Wenn die Einsparungen, die sich aus der Deduplizierung ergeben, hoch genug sind, können alle 10 Dateien ihre maximale logische Größe erreichen und weiterhin in das 7,2-TB-Volume passen (möglicherweise gibt es sogar zusätzlichen Speicherplatz, um zusätzliche VHDX-Dateien zuzuweisen, die DPM-Server verwenden können). Wenn die Größeneinsparungen durch die Deduplizierung jedoch nicht ausreichen, kann der Speicherplatz auf dem Volume nicht mehr ausreichen, bevor die VHDX-Dateien ihre volle logische Größe erreichen und das Volume voll ist. Um zu verhindern, dass die Volumes voll werden, empfehlen wir Folgendes:

  • Seien Sie in Bezug auf die Volumegrößenanforderungen konservativ, und planen Sie eine etwas überhöhte Speicherbereitstellung ein. Es wird empfohlen, bei der Planung der Sicherungsspeichernutzung einen Puffer von mindestens 10 % zuzulassen, um erwartete Abweichungen bei den Deduplizierungseinsparungen und der Datenänderung zu ermöglichen.

  • Überwachen Sie die für Sicherungsspeicher verwendeten Volumes, um sicherzustellen, dass die Werte für die Speicherplatzausnutzung und für die durch Deduplizierung erzielten Einsparungsquoten in den erwarteten Bereichen liegen.

Wenn das Volume voll wird, treten die folgenden Symptome auf:

  • Der virtuelle DPM-Computer wird in einen kritischen Pausenzustand versetzt, und von diesem virtuellen Computer können keine weiteren Sicherungsaufträge erteilt werden.

  • Es können keine Sicherungsaufträge ausgeführt werden, für die die VHDX-Dateien auf dem vollen Volume verwendet werden.

Um diese Bedingung wiederherzustellen und das System in den normalen Betrieb wiederherzustellen, kann zusätzlicher Speicher bereitgestellt werden, und eine Speichermigration des virtuellen DPM-Computers oder seiner VHDX kann durchgeführt werden, um Speicherplatz freizugeben:

  1. Beenden Sie den DPM-Server, der über die VHDX-Dateien auf der vollen Sicherungsfreigabe verfügt.

  2. Erstellen Sie eine weitere Volume- und Sicherungsfreigabe mit derselben Konfiguration und denselben Einstellungen, die für die vorhandenen Freigaben verwendet werden, einschließlich der Einstellungen für NTFS und Deduplizierung.

  3. Migrieren Sie Speicher für den virtuellen DPM-Servercomputer, und migrieren Sie mindestens eine VHDX-Datei von der vollständigen Sicherungsfreigabe zur neuen Sicherungsfreigabe, die in Schritt 2 erstellt wurde.

  4. Führen Sie auf der Quellsicherungsfreigabe, die voll belegt war, einen Auftrag für die automatische Speicherbereinigung (Garbage Collection, GC) der Datendeduplizierung aus. Der GC-Auftrag sollte erfolgreich abgeschlossen werden und den freien Speicherplatz freigeben.

  5. Starten Sie den virtuellen DPM-Servercomputer neu.

  6. Ein DPM-Konsistenzprüfungsauftrag wird während des nächsten Sicherungsfensters für alle Zuvor fehlgeschlagenen Datenquellen ausgelöst.

  7. Alle Sicherungsaufträge sollten jetzt erfolgreich ausgeführt werden.

Zusammenfassung

Die Kombination aus Deduplizierung und DPM ermöglicht erhebliche Speicherplatzeinsparungen. Für die DPM-Bereitstellung sind dadurch höhere Speicherungsquoten, häufigere Sicherungen und geringere Gesamtbetriebskosten möglich. Durch die in diesem Dokument enthaltenen Anleitungen und Empfehlungen geben wir Ihnen die Tools und das Wissen an die Hand, um die Deduplizierung für DPM-Speicher konfigurieren und die sich für Sie in Ihrer eigenen Bereitstellung ergebenden Vorteile erkennen zu können.

Häufige Fragen

Q: DPM-VHDX-Dateien müssen 1 TB groß sein. Bedeutet dies, dass DPM keine VM, SharePoint- oder SQL-Datenbank oder ein Dateivolume mit einer Größe > von 1 TB sichern kann?

A: Nein. Zum Speichern von Sicherungen aggregiert DPM mehrere Volumes in einem Volume. Daher hat die Dateigröße von 1 TB keine Auswirkungen auf die Datenquellengrößen, die DPM sichern kann.

F: Es scheint, als dürften die VHDX-Dateien des DPM-Speichers nur auf SMB-Remotedateifreigaben bereitgestellt werden. Was passiert, wenn ich die VHDX-Sicherungsdateien auf Volumes mit aktivierter Deduplizierung auf demselben System speichere, auf dem der virtuelle DPM-Computer ausgeführt wird?

Eine: Wie bereits erwähnt, handelt es sich bei DPM, Hyper-V und Dedup um speicher- und rechenintensive Vorgänge. Die Kombination aller drei in einem System kann zu E/A- und prozessintensiven Vorgängen führen, die Hyper-V und die zugehörigen VMs verhungern können. Wenn Sie das Konfigurieren von DPM auf einem virtuellen Computer mit den Sicherungsspeichervolumes auf demselben Computer experimentieren möchten, sollten Sie die Leistung sorgfältig überwachen, um sicherzustellen, dass genügend E/A-Bandbreite und Computekapazität vorhanden sind, um alle drei Vorgänge auf demselben Computer aufrechtzuerhalten.

F: Sie empfehlen, dedizierte und separate Zeitfenster für die Deduplizierung und für die Sicherung festzulegen. Warum kann ich die Deduplizierung nicht aktivieren, während DPM Sicherungsvorgänge ausführt? Ich muss meine SQL-Datenbank alle 15 Minuten sichern.

Eine: Dedup und DPM sind speicherintensive Vorgänge, und beide gleichzeitig ausgeführt zu haben, kann ineffizient sein und zu E/A-Aushungern führen. Stellen Sie daher sicher, dass genügend E/A-Bandbreite und Computerkapazität vorhanden sind, um Workloads mehr als einmal pro Tag (z. B. SQL Server alle 15 Minuten) zu schützen und gleichzeitig die Dedup-Deaktivierung zu aktivieren.

F: Basierend auf der beschriebenen Konfiguration muss DPM auf einem virtuellen Computer ausgeführt werden. Warum kann ich die Deduplizierung statt auf VHDX-Dateien nicht direkt auf Replikatvolumes und Schattenkopievolumes aktivieren?

A: Die Deduplizierung erfolgt pro Volume, wobei einzelne Dateien verarbeitet werden. Da dedup auf Dateiebene optimiert wird, ist es nicht für die Unterstützung der VolSnap-Technologie konzipiert, die DPM zum Speichern der Sicherungsdaten verwendet. Bei der Ausführung von DPM auf einem virtuellen Computer ordnet Hyper-V die DPM-Volumevorgänge der VHDX-Dateiebene zu, sodass bei der Deduplizierung die Sicherungsdaten optimiert werden können und größere Speichereinsparungen ermöglicht werden.

Q: Die obige Beispielkonfiguration hat nur 7,2 TB-Volumes erstellt. Kann ich auch größere oder kleinere Volumes erstellen?

A: Bei der Deduplizierung wird ein Thread pro Volume ausgeführt. Mit zunehmender Volumegröße benötigt die Deduplizierung mehr Zeit, um die Optimierung abzuschließen. Auf der anderen Seite gibt es bei kleinen Volumes weniger Daten, in denen doppelte Blöcke gefunden werden können, was zu geringeren Einsparungen führen kann. Daher ist es ratsam, die Volumegröße basierend auf der Gesamtabwanderung und den Systemhardwarefunktionen zu optimieren, um optimale Einsparungen zu erzielen. Ausführlichere Informationen zum Ermitteln der bei der Deduplizierung verwendeten Volumegrößen finden Sie im Beitrag über das Anpassen der Volumegröße für die Deduplizierung in Windows Server. Ausführlichere Informationen zum Bestimmen der bei der Deduplizierung verwendeten Volumegrößen finden Sie unter Dimensionieren von Volumes für die Datendeduplizierung.