Freigeben über


Deduplicate DPM-Speicher

System Center Data Protection Manager (DPM) kann die Datendeduplizierung verwenden.

Die Datendeduplizierung (dedup) sucht und entfernt duplizierte Daten auf einem Volume und stellt gleichzeitig sicher, dass die Daten richtig und vollständig bleiben. Erfahren Sie mehr über die Deduplizierungsplanung.

  • Dedup reduziert den Speicherverbrauch. Obwohl die Redundanz für eine Reihe von Daten von der Arbeitsauslastung und dem Datentyp abhängt, zeigen Sicherungsdaten in der Regel starke Einsparungen, wenn die Dedup verwendet wird.

  • Die Datenredundanz kann durch Dedup weiter reduziert werden, wenn Daten ähnlicher Typen und Arbeitslasten zusammen verarbeitet werden.

  • Dedup wurde für die Installation auf primären Datenvolumes ohne zusätzliche dedizierte Hardware entwickelt, sodass sie sich nicht auf die primäre Workload auf dem Server auswirkt. Die Standardeinstellungen sind nicht intrusiv, da Daten vor der Verarbeitung einer bestimmten Datei fünf Tage alt sein können und eine standardmäßige Mindestdateigröße von 32 KB aufweisen. Die Implementierung ist für geringe Arbeitsspeicher- und CPU-Auslastung ausgelegt.

  • Dedup kann für die folgenden Workloads implementiert werden:

    • Allgemeine Dateifreigaben: Veröffentlichung und Freigabe von Gruppeninhalten, Basisordner von Benutzern und Ordnerumleitung/Offlinedateien

    • Softwarebereitstellungsfreigaben: Softwarebinärdateien, Images und Updates

    • VHD-Bibliotheken: Dateispeicher für virtuelle Festplatten (VHDs) zur Bereitstellung für Hypervisors

    • VDI-Bereitstellungen (nur Windows Server 2012 R2): Vdi-Bereitstellungen (Virtual Desktop Infrastructure) mit Hyper-V

    • Virtualisierte Sicherung: Sicherungslösungen (z. B. DPM, die auf einem virtuellen Hyper-V-Computer ausgeführt werden), die Sicherungsdaten in VHD-/VHDX-Dateien auf einem Windows-Dateiserver speichern

DPM und Dedup

Die Verwendung von Dedup mit DPM kann zu großen Einsparungen führen. Die Menge an Speicherplatz, der beim Optimieren von DPM-Sicherungsdaten gespeichert wird, hängt vom Typ der gesicherten Daten ab. Beispielsweise kann eine Sicherung eines verschlüsselten Datenbankservers zu minimalen Einsparungen führen, da doppelte Daten durch den Verschlüsselungsprozess ausgeblendet werden. Die Sicherung einer großen VDI-Bereitstellung (Virtual Desktop Infrastructure) kann jedoch zu großen Einsparungen im Bereich von 70 bis 90 % führen, da es in der Regel eine große Menge an Datenduplizierungen zwischen den virtuellen Desktopumgebungen gibt. In der im Artikel beschriebenen Konfiguration haben wir verschiedene Testarbeitslasten ausgeführt und sehen Einsparungen zwischen 50 % und 90 %.

Um die Dedupfunktion für den DPM-Speicher zu verwenden, sollte DPM auf einem virtuellen Hyper-V-Computer ausgeführt werden und Sicherungsdaten in VHDs in freigegebenen Ordnern speichern, wobei die Datendedup aktiviert ist.

Zum Bereitstellen von DPM als virtueller Computer, der Daten auf einem Deduplvolume sichert, empfehlen wir die folgende Bereitstellungstopologie:

  • DPM, das auf einem virtuellen Computer in einem Hyper-V-Hostcluster ausgeführt wird.

  • DPM-Speicher mit VHD/VHDX-Dateien, die auf einer SMB 3.0-Freigabe auf einem Dateiserver gespeichert sind.

  • In dieser Beispielbereitstellung wurde der Dateiserver als Dateiserver mit horizontaler Skalierung (SOFS) konfiguriert, der mit Speichervolumes bereitgestellt wird, die über Speicherplatzpools konfiguriert werden, die mithilfe direkt verbundener SAS-Laufwerke erstellt wurden. Diese Bereitstellung stellt die Leistung im großen Maßstab sicher.

Beachten Sie dabei Folgendes:

  • Diese Bereitstellung wird für DPM 2012 R2 und höher und für alle Workloaddaten unterstützt, die von DPM 2012 R2 und höher gesichert werden können.

  • Alle Windows File Server-Knoten, auf denen sich virtuelle DPM-Festplatten befinden und auf denen dedup aktiviert wird, müssen Windows Server 2012 R2 mit updaterollup November 2014 oder höher ausführen.

  • Wir stellen allgemeine Empfehlungen und Anweisungen für die Szenariobereitstellung bereit. Wenn hardwarespezifische Beispiele angegeben werden, wird die im Microsoft Cloud Platform System (CPS) bereitgestellte Hardware zur Referenz verwendet.

  • In diesem Beispiel werden SMB 3.0-Remotefreigaben zum Speichern der Sicherungsdaten verwendet, daher beruhen die primären Hardwareanforderungen eher auf den Dateiserverknoten anstatt auf den Hyper-V-Knoten. Die folgende Hardwarekonfiguration wird in CPS für Sicherungs- und Produktionsspeicher verwendet. Die gesamte Hardware wird sowohl für den Sicherungs- als auch für den Produktionsspeicher verwendet, aber die Anzahl der in den Laufwerkgehäusen aufgeführten Laufwerke sind nur diejenigen, die für die Sicherung verwendet werden.

    • Servercluster mit vier Knoten zum Skalieren von Dateiservern

    • Konfiguration pro Knoten

      • 2x Intel(R) Setting(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 Kerne, 16 logische Prozessoren

      • 128 GB 1333 MHz RDIMM Speicher

      • Speicherverbindungen: 2 Ports von SAS, 1 Port von 10 GbE iWarp/RDMA

    • Vier JBOD-Laufwerkgehäuse

      • 18 Datenträger in jedem JBOD - 16 x 4 TB HDDs + 2 x 800 GB SSDs

      • Dual-Pfad zu jedem Laufwerk: Multipfad-E/A-Lastenausgleichsrichtlinie nur auf Failover festgelegt

      • SSDs für Rückschreibcache (Write Back Cache, WBC) und der Rest für dedizierte Journallaufwerke konfiguriert

Einrichten von Dedupvolumes

Sehen wir uns an, wie große Volumes die deduplizierten VHDX-Dateien unterstützen sollen, die DPM-Daten enthalten. In CPS haben wir jeweils Volumes von 7,2 TB erstellt. Die optimale Volumegröße hängt in erster Linie davon ab, wie viel und wie häufig sich die Daten auf dem Volume ändern, sowie von den Datenzugriffsdurchsatzraten des Datenträgerspeichersubsystems. Es ist wichtig zu beachten, dass, wenn die Deduplizierungsverarbeitung nicht mit der Rate der täglichen Datenänderungen (der Abbruch) schritthalten kann, wird der Sparsatz sinken, bis die Verarbeitung abgeschlossen werden kann. Ausführlichere Informationen finden Sie unter Sizing Volumes for Data Dedupliplizierung. Die folgenden allgemeinen Richtlinien werden für Dedupvolumes empfohlen:

  • Verwenden Sie Paritäts-Speicherplätze mit Dem Gehäusebewusstsein für Resilienz und erhöhte Datenträgerauslastung.

  • Formatieren Sie NTFS mit 64-KB-Zuordnungseinheiten und großen Dateidatensatzsegmenten, um die Verwendung von sparsamen Dateien besser zu nutzen.

  • In der Hardwarekonfiguration über der empfohlenen Volumengröße von 7,2 TB Volumes werden Volumes wie folgt konfiguriert:

    • Gehäuse mit dualer Parität 7,2 TB + 1 GB Zurückschreibcache

      • ResiliencySettingName == Parität

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Duale Paritätsleistung bei 64 KB Interleave ist viel niedriger als bei standard 256 KB Interleave)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Große FRS

      Richten Sie einen neuen virtuellen Datenträger im angegebenen Speicherpool wie folgt ein:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Jedes dieser Volumes muss dann folgendermaßen formatiert werden:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      In der CPS-Bereitstellung werden diese dann als CSVs konfiguriert.

    • In diesen Volumes speichert DPM eine Reihe von VHDX-Dateien, um die Sicherungsdaten zu speichern. Aktivieren Sie die Deduplizierung auf dem Volume nach der Formatierung wie folgt:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Mit diesem Befehl werden auch die folgenden Dedupeinstellungen auf Volumeebene geändert:

      • Set UsageType to HyperV: This results in dedup processing open files, which are required because the VHDX files used for backup storage by DPM remain open with DPM running in its virtual machine.

      • PartialFileOptimization deaktivieren: Dadurch werden alle Abschnitte einer geöffneten Datei optimiert, anstatt nach geänderten Abschnitten mit einem Mindestalter zu suchen.

      • Set MinFileAgeDays parameter to 0: With PartialFileOptimization disabled, MinFileAgeDays change its behavior so that dedup only considers files that haven't changed in that many days. Da dedup die Verarbeitung der Sicherungsdaten in allen DPM-VHDX-Dateien ohne Verzögerung beginnen soll, müssen wir MinFileAgeDays auf 0 festlegen.

Weitere Informationen zum Einrichten der Deduplizierung finden Sie unter Installieren und Konfigurieren der Datenduplizierung.

Einrichten des DPM-Speichers

Um Fragmentierungsprobleme zu vermeiden und die Effizienz aufrechtzuerhalten, wird DER DPM-Speicher mithilfe von VHDX-Dateien zugewiesen, die sich auf den deduplizierten Volumes befinden. Zehn dynamische VHDX-Dateien mit jeweils 1 TB werden auf jedem Volume erstellt und an DPM angefügt. Außerdem werden 3 TB Überlastung des Speichers durchgeführt, um die Speichereinsparungen zu nutzen, die durch dedup erzeugt werden. Da dedup zusätzliche Speichereinsparungen erzeugt, können neue VHDX-Dateien auf diesen Volumes erstellt werden, um den gespeicherten Speicherplatz zu verbrauchen. Wir haben den DPM-Server mit bis zu 30 an ihn angefügten VHDX-Dateien getestet.

  1. Führen Sie den folgenden Befehl aus, um virtuelle Festplatten zu erstellen, die später zum DPM-Server hinzugefügt werden:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Anschließend wurden die erstellten virtuellen Festplatten wie folgt zum DPM-Server hinzugefügt:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    In diesem Schritt wird ein Speicherpool als Datenträger oder Datenträger konfiguriert, auf dem DPM Replikate und Wiederherstellungspunkte für geschützte Daten speichert. Dieser Pool ist Teil der DPM-Konfiguration und unterscheidet sich vom Speicherplätze Pool, der zum Erstellen der im vorherigen Abschnitt beschriebenen Datenvolumes verwendet wird. Weitere Informationen zu DPM-Speicherpools finden Sie unter Konfigurieren von Datenträgerspeicher und Speicherpools.

Einrichten des Windows File Server-Clusters

Dedup erfordert einen speziellen Satz von Konfigurationsoptionen, um den virtualisierten DPM-Speicher aufgrund des Umfangs der Daten und der Größe einzelner Dateien zu unterstützen. Diese Optionen sind global für den Cluster oder den Clusterknoten. Dedup muss aktiviert sein, und die Clustereinstellungen müssen auf jedem Knoten des Clusters einzeln konfiguriert werden.

  1. Dedup auf Windows File Server-Speicher aktivieren– Die Deduplizierungsrolle muss auf allen Knoten des Windows File Server-Clusters installiert werden. Führen Sie dazu den folgenden PowerShell-Befehl auf jedem Knoten des Clusters aus:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Optimieren Sie die Dedupverarbeitung für Sicherungsdatendateien: Führen Sie den folgenden PowerShell-Befehl aus, um die Optimierung ohne Verzögerung zu starten und nicht partielle Dateischreibvorgänge zu optimieren. Standardmäßig werden Gc-Aufträge (Garbage Collection) jede Woche geplant, und jede vierte Woche wird der GC-Auftrag im Modus "deep GC" ausgeführt, um eine umfassendere und zeitintensivere Suche nach zu entfernenden Daten zu erhalten. Für die DPM-Workload führt dieser "deep GC"-Modus nicht zu appreziativen Gewinnen und reduziert die Zeit, in der dedup Daten optimieren kann. Daher deaktivieren wir diesen Tiefenmodus.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Optimieren sie die Leistung für vorgänge im großen Maßstab: Führen Sie das folgende PowerShell-Skript aus, um Folgendes zu tun:

    • Deaktivieren zusätzlicher Verarbeitung und E/A bei Ausführung der tiefen Garbage Collection

    • Reservieren zusätzlicher Speicher für die Hashverarbeitung

    • Aktivieren der Prioritätsoptimierung, um die sofortige Defragmentierung großer Dateien zu ermöglichen

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Diese Einstellungen ändern Folgendes:

    • HashIndexFullKeyReservationPercent: Dieser Wert steuert, wie viel Speicher des Optimierungsauftrags für vorhandene Blockhashes im Vergleich zu neuen Blockhashes verwendet wird. Bei hoher Skalierung führt 70 % zu einem besseren Optimierungsdurchsatz als der Standardwert von 50 %.

    • EnablePriorityOptimization: Bei Dateien, die sich auf 1 TB nähern, kann die Fragmentierung einer einzelnen Datei genügend Fragmente ansammeln, um das pro Dateilimit zu erreichen. Die Optimierungsverarbeitung konsolidiert diese Fragmente und verhindert, dass dieser Grenzwert erreicht wird. Durch Festlegen dieses Registrierungsschlüssels fügt dedup einen zusätzlichen Prozess zum Umgang mit stark fragmentierten deduzierten Dateien mit hoher Priorität hinzu.

Einrichten der DPM- und Dedupplanung

Sowohl Sicherungs- als auch Deduplizierungsvorgänge sind E/A-Intensiv. Wenn sie gleichzeitig ausgeführt werden sollen, kann ein zusätzlicher Aufwand für den Wechsel zwischen den Vorgängen kostspielig sein und dazu führen, dass weniger Daten täglich gesichert oder dedupliziert werden. Es wird empfohlen, dedizierte und separate Deduplizierungs- und Sicherungsfenster zu konfigurieren. Dadurch wird sichergestellt, dass der E/A-Datenverkehr für jeden dieser Vorgänge während des täglichen Systembetriebs effizient verteilt wird. Die empfohlenen Richtlinien für die Planung sind:

  • Teilen Sie Tage in nicht überlappende Sicherungs- und Dedupfenster.

  • Richten Sie benutzerdefinierte Sicherungszeitpläne ein.

  • Richten Sie benutzerdefinierte Dedup-Zeitpläne ein.

  • Planen Sie die Optimierung im täglichen Fenster "Dedup".

  • Richten Sie Die Zeitpläne für die Wochenendentreinigung getrennt ein, und verwenden Sie diese Zeit für Garbage Collection- und Scrubbingaufträge.

Sie können DPM-Zeitpläne mit dem folgenden PowerShell-Befehl einrichten:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

In dieser Konfiguration ist DPM so konfiguriert, dass virtuelle Computer zwischen 10:00 und 6:00 Uhr gesichert werden. Die Deduplizierung wird für die verbleibenden 16 Stunden des Tages geplant. Die tatsächliche Dedupzeit, die Sie konfigurieren, hängt von der Volumengröße ab. Weitere Informationen finden Sie unter Sizing Volumes for Data Dedupliplizierung. Ein 16-stündiges Deduplizierungsfenster ab 6 Uhr nach Dem Ende des Sicherungsfensters würde wie folgt von jedem einzelnen Clusterknoten konfiguriert:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Jedes Mal, wenn das Sicherungsfenster geändert wird, ist es wichtig, dass das Deduplizierungsfenster zusammen mit dem Fenster geändert wird, damit es nicht überlappen kann. Das Deduplizierungs- und Sicherungsfenster muss nicht die vollen 24 Stunden des Tages ausfüllen. Es wird jedoch dringend empfohlen, änderungen an der Verarbeitungszeit aufgrund der erwarteten täglichen Änderungen an Arbeitsauslastungen und Datenabwanderungen zuzulassen.

Auswirkungen auf die Sicherungsleistung

Nachdem eine Reihe von Dateien dedupliziert wurde, kann beim Zugriff auf die Dateien ein geringer Leistungsaufwand auftreten. Dies liegt an der zusätzlichen Verarbeitung, die erforderlich ist, um auf das Dateiformat zuzugreifen, das von deduplizierten Dateien verwendet wird. In diesem Szenario handelt es sich bei den Dateien um eine Reihe von VHDX-Dateien, die die kontinuierliche Verwendung durch DPM während des Sicherungsfensters sehen. Die Auswirkung, dass diese Dateien dedupliziert werden, bedeutet, dass die Sicherungs- und Wiederherstellungsvorgänge etwas langsamer sein können als ohne Deduplizierung. Wie bei jedem Sicherungsprodukt ist DPM eine schreibintensive Arbeitsauslastung mit Lesevorgängen, die bei Wiederherstellungsvorgängen am wichtigsten sind. Die Empfehlungen zur Behandlung der Auswirkungen auf die Sicherungsleistung aufgrund der Deduplizierung sind:

  • Lese-/Wiederherstellungsvorgänge: Die Auswirkungen auf Lesevorgänge sind in der Regel unerheblich und erfordern keine besonderen Maßnahmen, weil das Deduplizierungsfeature deduplizierte Blöcke zwischenspeichert.

  • Schreib-/Sicherungsvorgänge: Planen Sie beim Definieren des Sicherungsfensters eine Erhöhung der Sicherungszeit von 5 bis 10 %. (Dies ist eine Erhöhung gegenüber der erwarteten Sicherungszeit beim Schreiben in nicht deduplizierte Volumes.)

Überwachung

DPM und Datendeduplizierung können überwacht werden, um Folgendes sicherzustellen:

  • Ausreichender Speicherplatz wird bereitgestellt, um die Sicherungsdaten zu speichern.

  • DPM-Sicherungsaufträge werden normal abgeschlossen

  • Die Deduplizierung ist auf den Sicherungsvolumes aktiviert.

  • Deduplizierungszeitpläne werden ordnungsgemäß festgelegt.

  • Die Deduplizierungsverarbeitung erfolgt in der Regel täglich.

  • Die Deduplizierungssparrate stimmt mit Annahmen für die Systemkonfiguration überein.

Der Erfolg der Deduplizierung hängt von den allgemeinen Systemhardwarefunktionen (einschließlich CPU-Verarbeitungsgeschwindigkeit, E/A-Bandbreite, Speicherkapazität), der richtigen Systemkonfiguration, der durchschnittlichen Systemlast und der täglichen Menge der geänderten Daten ab.

Sie können DPM mithilfe der DPM-Zentralkonsole überwachen. Siehe Installieren der Zentralen Konsole.

Sie können die Dedup-Überwachung überwachen, um den Status des Dedups, die Speicherrate und den Zeitplanstatus mithilfe der folgenden PowerShell-Befehle zu überprüfen:

Status abrufen:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Sparen:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Rufen Sie den Zeitplanstatus mithilfe des Cmdlets "Get-DedupSchedule" ab.

Überwachen von Ereignissen

Die Überwachung des Ereignisprotokolls kann dazu beitragen, Deduplizierungsereignisse und -status zu verstehen.

  • Navigieren Sie zum Anzeigen von Deduplizierungsereignissen in Explorer zu Anwendungen und Dienstenprotokollen>zur Microsoft>Windows-Deduplizierung>.

  • Wenn in den Windows PowerShell-Ergebnissen von „Get-DedupStatus |fl“ der Wert LastOptimizationResult = 0x00000000 angezeigt wird, wurde das gesamte Dataset vom vorherigen Optimierungsauftrag verarbeitet. Wenn nicht, konnte das System die Deduplizierungsverarbeitung nicht abschließen, und Sie können Ihre Konfigurationseinstellungen überprüfen, z. B. die Volumengröße.

Ausführlichere Cmdlet-Beispiele finden Sie unter "Überwachen und Bericht für die Datendeduplizierung".

Überwachen des Sicherungsspeichers

In unserem Konfigurationsbeispiel werden die 7,2-TB-Volumes mit 10 TB logischen Daten (die Größe der Daten, wenn sie nicht dedupliziert wird) gefüllt, die in dynamischen VHDX-Dateien von 10 x 1 TB gespeichert sind. Da diese Dateien zusätzliche Sicherungsdaten sammeln, füllen sie das Volume langsam aus. Wenn der Durchdringungsprozentsatz hoch genug ist, können alle 10 Dateien ihre maximale logische Größe erreichen und dennoch in das Volume 7,2 TB passen (möglicherweise gibt es sogar zusätzlichen Speicherplatz, um zusätzliche VHDX-Dateien für DPM-Server zuzuweisen). Wenn die Größeneinsparungen bei der Deduplizierung jedoch nicht ausreichen, wird der Speicherplatz auf dem Volume möglicherweise auslaufen, bevor die VHDX-Dateien ihre volle logische Größe erreichen und das Volume voll ist. Um zu verhindern, dass Volumes voll werden, empfehlen wir Folgendes:

  • Seien Sie in den Anforderungen an die Volumengröße konservativer und ermöglichen Eine überlastung des Speichers. Es wird empfohlen, einen Puffer von mindestens 10 % bei der Planung der Speichernutzung für die Sicherung zuzulassen, um erwartete Abweichungen bei Deduplizierungseinsparungen und Datenabwanderungen zu ermöglichen.

  • Überwachen Sie die Volumes, die für den Sicherungsspeicher verwendet werden, um sicherzustellen, dass die Speicherauslastung und die Deduplizierungssparraten auf erwarteten Ebenen liegen.

Wenn das Volumen voll wird, ergeben sich die folgenden Symptome:

  • Der virtuelle DPM-Computer wird in einen pausenkritischen Zustand versetzt, und es können keine weiteren Sicherungsaufträge von dieser VM ausgegeben werden.

  • Alle Sicherungsaufträge, die die VHDX-Dateien auf dem vollständigen Volume verwenden, schlagen fehl.

Um diese Bedingung wiederherzustellen und das System in normalen Betrieb wiederherzustellen, kann zusätzlicher Speicher bereitgestellt werden, und eine Speichermigration des virtuellen DPM-Computers oder dessen VHDX kann ausgeführt werden, um Speicherplatz freizugeben:

  1. Beenden Sie den DPM-Server, der die VHDX-Dateien auf der vollständigen Sicherungsfreigabe besitzt.

  2. Erstellen Sie eine zusätzliche Volume- und Sicherungsfreigabe mit der gleichen Konfiguration und Einstellungen wie für die vorhandenen Freigaben, einschließlich Einstellungen für NTFS und Deduplizierung.

  3. Migrieren Sie Speicher für den virtuellen DPM Server-Computer, und migrieren Sie mindestens eine VHDX-Datei von der vollständigen Sicherungsfreigabe zur neuen Sicherungsfreigabe, die in Schritt 2 erstellt wurde.

  4. Führen Sie einen Datendeduplizierungs-Garbage Collection-Auftrag (GC) auf der vollständigen Quellsicherungsfreigabe aus. Der GC-Auftrag sollte erfolgreich sein und den freien Speicherplatz zurückfordern.

  5. Starten Sie den virtuellen DPM Server-Computer neu.

  6. Ein DPM-Konsistenzüberprüfungsauftrag wird während des nächsten Sicherungsfensters für alle Zuvor fehlgeschlagenen Datenquellen ausgelöst.

  7. Alle Sicherungsaufträge sollten jetzt erfolgreich sein.

Zusammenfassung

Die Kombination aus Deduplizierung und DPM bietet erhebliche Platzeinsparungen. Dies ermöglicht höhere Aufbewahrungsraten, häufigere Sicherungen und bessere TCO für die DPM-Bereitstellung. Die Anleitungen und Empfehlungen in diesem Dokument sollten Ihnen die Tools und Kenntnisse bereitstellen, um die Deduplizierung für DPM-Speicher zu konfigurieren und die Vorteile für sich selbst in Ihrer eigenen Bereitstellung zu sehen.

Häufig gestellte Fragen

F: DPM-VHDX-Dateien müssen 1 TB groß sein. Bedeutet dies, dass DPM keine VM oder SharePoint oder SQL DB oder ein Dateivolumen von > 1 TB sichern kann?

A: Nein. DPM aggregiert mehrere Volumes in einem, um Sicherungen zu speichern. Die Dateigröße von 1 TB hat also keine Auswirkungen auf Datenquellengrößen, die DPM sichern kann.

F: Es sieht so aus, als ob DPM-Speicher-VHDX-Dateien nur auf Remote-SMB-Dateifreigaben bereitgestellt werden müssen. Was geschieht, wenn ich die VHDX-Sicherungsdateien auf dedup-aktivierten Volumes auf demselben System speichern, auf dem der virtuelle DPM-Computer ausgeführt wird?

A: Wie oben beschrieben, sind DPM, Hyper-V und Dedup Speicher- und rechenintensive Vorgänge. Die Kombination aller drei Systeme in einem einzigen System kann zu E/A- und prozessintensiven Vorgängen führen, die Hyper-V und seine VMs verhungern können. Wenn Sie das Konfigurieren von DPM in einem virtuellen Computer mit den Sicherungsspeichervolumes auf demselben Computer experimentieren möchten, sollten Sie die Leistung sorgfältig überwachen, um sicherzustellen, dass genügend E/A-Bandbreite vorhanden ist und die Rechenkapazität für alle drei Vorgänge auf demselben Computer erhalten bleibt.

F: Sie empfehlen dedizierte, separate Deduplizierungs- und Sicherungsfenster. Warum kann ich die Dedup-Funktion nicht aktivieren, während DPM gesichert wird? Ich muss meine SQL DB alle 15 Minuten sichern.

A: Dedup und DPM sind speicherintensive Vorgänge und beide gleichzeitig ausgeführt werden können ineffizient und führen zu E/A-Hunger. Um Workloads also mehrmals pro Tag (z. B. SQL Server alle 15 Minuten) zu schützen und die Dedup-Funktion gleichzeitig zu aktivieren, stellen Sie sicher, dass genügend E/A-Bandbreite und Computerkapazität vorhanden sind, um Ressourcenhunger zu vermeiden.

F: Basierend auf der beschriebenen Konfiguration muss DPM auf einem virtuellen Computer ausgeführt werden. Warum kann ich die Dedup für Replikatvolumes und Schattenkopievolumes nicht direkt und nicht für VHDX-Dateien aktivieren?

A: Dedup führt die Deduplizierung pro Volume durch, die auf einzelnen Dateien ausgeführt wird. Da dedup auf Dateiebene optimiert wird, ist es nicht darauf ausgelegt, die VolSnap-Technologie zu unterstützen, die DPM zum Speichern der Sicherungsdaten verwendet. Durch ausführen von DPM in einem virtuellen Computer ordnet Hyper-V die DPM-Volumevorgänge der VHDX-Dateiebene zu, sodass die Dedup-Daten optimieren und größere Speichereinsparungen ermöglichen.

F: Die oben genannte Beispielkonfiguration hat nur 7,2 TB Volumes erstellt. Kann ich größere oder kleinere Volumes erstellen?

A: Dedup führt einen Thread pro Volume aus. Da die Volumengröße größer wird, benötigt dedup mehr Zeit, um die Optimierung abzuschließen. Auf der anderen Seite mit kleinen Volumes gibt es weniger Daten, in denen duplizierte Blöcke gefunden werden können, was zu reduzierten Einsparungen führen kann. Daher empfiehlt es sich, die Volumengröße basierend auf den Gesamtabwanderungs- und Systemhardwarefunktionen zu optimieren, um optimale Einsparungen zu erzielen. Ausführlichere Informationen zum Bestimmen von Volumengrößen, die mit der Deduplizierung verwendet werden, finden Sie unter Sizing volumes for Deduplizierung in Windows Server. Ausführlichere Informationen zum Ermitteln von Volumengrößen, die mit der Deduplizierung verwendet werden, finden Sie unter Sizing Volumes for Data Deduplipliication.