Teilen über


Grundlegendes zur Datendeduplizierung

Dieses Dokument beschreibt, wie die Datendeduplizierung funktioniert.

Wie funktioniert die Datendeduplizierung?

Die Datendeduplizierung unter Windows Server folgt zwei Prinzipien:

  1. Durch die Optimierung dürfen Schreibvorgänge auf den Datenträger nicht beeinträchtigt werden. Bei der Datendeduplizierung werden Daten mithilfe eines Nachbearbeitungsmodells optimiert. Alle Daten werden in nicht optimierter Form auf den Datenträger geschrieben und später durch Datendeduplizierung optimiert.

  2. Durch die Optimierung darf die Zugriffssemantik nicht verändert werden. Benutzer und Anwendungen, die auf Daten auf einem optimierten Volume zugreifen, ist nicht bewusst, dass die Dateien, auf die sie zugreifen, dedupliziert wurden.

Sobald diese Option für ein Volume aktiviert ist, wird die Datendeduplizierung zu folgenden Zwecken im Hintergrund ausgeführt:

  • Identifizieren von sich wiederholenden Mustern über Dateien auf diesem Volume hinweg.
  • Nahtloses Verschieben dieser Teile oder Blöcke mit speziellen, als Analysepunkte bezeichneten Zeigern, die auf eine eindeutige Kopie dieses Blocks verweisen.

Dies erfolgt in den folgenden vier Schritten:

  1. Überprüfen des Dateisystems auf Dateien, die die Optimierungsrichtlinie erfüllen
    Durchsuchen des Dateisystems
  2. Aufteilen von Dateien in Blöcke variabler Größe
    Aufteilen von Dateien in Blöcke
  3. Bestimmen eindeutiger Blöcke
    Bestimmen eindeutiger Blöcke
  4. Platzieren von Blöcken im Blockspeicher und optionales Komprimieren
    Verschieben in Blockspeicher
  5. Ersetzen des ursprünglichen Dateidatenstroms von nun optimierten Dateien durch einen Analysepunkt im Blockspeicher
    Ersetzen des Dateidatenstroms durch Analysepunkt

Wenn optimierte Dateien gelesen werden, sendet das Dateisystem die Dateien mit einem Analysepunkt an den Datendeduplizierungs-Dateisystemfilter (Dedup.sys). Der Filter leitet den Lesevorgang an die entsprechenden Blöcke weiter, die den Stream für diese Datei im Blockspeicher bilden. Änderungen an Bereichen einer deduplizierten Datei werden in nicht optimierter Form auf den Datenträger geschrieben und vom Optimierungsauftrag bei dessen nächster Ausführung optimiert.

Verwendungstypen

Bei den folgenden Verwendungstypen kann die Datendeduplizierung für gängige Workloads sinnvoll konfiguriert werden:

Nutzungstyp Ideale Workloads Unterschiede
Standard Allgemeiner Dateiserver:
  • Teamfreigaben
  • Arbeitsordner
  • Umleitung des Ordners
  • Freigaben für die Softwareentwicklung
  • Hintergrundoptimierung
  • Standardoptimierungsrichtlinie:
    • Minimales Dateialter = 3 Tage
    • Optimieren verwendeter Dateien = Nein
    • Teilweises Optimieren von Dateien = Nein
Hyper-V- VDI-Server (virtuelle Desktopinfrastruktur)
  • Hintergrundoptimierung
  • Standardoptimierungsrichtlinie:
    • Minimales Dateialter = 3 Tage
    • Optimieren verwendeter Dateien = Ja
    • Teilweises Optimieren von Dateien = Ja
  • „Verdeckte“ Optimierungsmethoden für Interoperabilität mit Hyper-V
Sicherung Virtualisierte Sicherungsprogramme wie Microsoft Data Protection Manager (DPM)
  • Optimierung mit Prioritäten
  • Standardoptimierungsrichtlinie:
    • Minimales Dateialter = 0 Tage
    • Optimieren verwendeter Dateien = Ja
    • Teilweises Optimieren von Dateien = Nein
  • „Verdeckte“ Optimierungsmethoden für Interoperabilität mit DPM bzw. DPM-ähnlichen Lösungen

Aufträge

Zur Datendeduplizierung erfolgt eine Nachbearbeitung zum Optimieren und Aufrechterhalten der Effizienz des Speicherplatzes eines Volumes.

Auftragsname Auftragsbeschreibung Standardzeitplan
Optimization Der Auftrag Optimization führt eine Deduplizierung durch, indem Daten auf einem Volume gemäß den Richtlinieneinstellungen für das Volume in Blöcke unterteilt werden. Diese Blöcke werden dann (optional) komprimiert und im Blockspeicher eindeutig gespeichert. Der für die Datendeduplizierung befolgte Optimierungsprozess wird unter Wie funktioniert die Datendeduplizierung? detailliert beschrieben. Einmal pro Stunde
Garbage Collection Der Auftrag Garbage Collection gibt Speicherplatz frei, indem unnötige Blöcke entfernt werden, die von Dateien, die vor Kurzem geändert oder gelöscht wurden, nicht mehr referenziert werden. Samstags um 2:35 Uhr
Integrity Scrubbing Der Auftrag Integrity Scrubbing bestimmt Beschädigungen im Blockspeicher aufgrund von Datenträgerfehlern oder fehlerhaften Sektoren. Sofern möglich, können für die Datendeduplizierung automatisch Volumefeatures (wie Spiegelung oder Parität auf einem „Speicherplätze“-Volume) genutzt werden, um die beschädigten Daten wiederherzustellen. Darüber hinaus werden bei der Datendeduplizierung Sicherungskopien häufig verwendeter Blöcke beibehalten, wenn diese in einem als „Hotspot“ bezeichneten Bereich mehr als 100 Mal referenziert werden. Samstags um 03:35 Uhr
Unoptimization Der Auftrag Unoptimization ist ein Spezialauftrag, der nur manuell ausgeführt werden sollte. Er dient zum Rückgängigmachen der erfolgten Deduplizierung und deaktiviert die Datendeduplizierung auf dem jeweiligen Volume. Nur bei Bedarf

Datendeduplizierung: Terminologie

Begriff Definition
Block Ein Block ist ein Abschnitt der Datei, der vom Algorithmus zum Bestimmen von Blöcken der Datendeduplizierung ausgewählt wird, da er wahrscheinlich in anderen, ähnlichen Dateien vorkommt.
Blockspeicher Der Blockspeicher umfasst eine organisierte Folge von Containerdateien im Ordner „System Volume Information“, mit deren Hilfe für die Datendeduplizierung Blöcke eindeutig gespeichert werden.
Dedup Ein Abkürzung für „Datendeduplizierung“, die in PowerShell, Windows Server-APIs und -Komponenten sowie in der Windows Server-Community häufig verwendet wird.
Dateimetadaten Jede Datei enthält Metadaten, die interessante Eigenschaften der Datei beschreiben und nicht mit dem Hauptinhalt der Datei verknüpft sind. Beispiele: Erstellungsdatum, Datum des letzten Lesevorgangs, Autor usw.
Dateidatenstrom Der Dateidatenstrom ist der Hauptinhalt der Datei. Dies ist der Teil der Datei, der bei der Datendeduplizierung optimiert wird.
Dateisystem Das Dateisystem ist die Software und Datenstruktur auf dem Datenträger, die das Betriebssystem zum Speichern von Dateien auf Speichermedien verwendet. Die Datendeduplizierung wird auf mit NTFS formatierten Volumes unterstützt.
Dateisystemfilter Ein Dateisystemfilter ist ein Plug-In, das das Standardverhalten des Dateisystems ändert. Zum Beibehalten der Zugriffssemantik verwendet die Datendeduplizierung einen Dateisystemfilter (Dedup.sys), um Lesevorgänge für den Benutzer bzw. die Anwendung, der/die die Leseanforderung stellt, völlig unbemerkt zu optimierten Inhalten umzuleiten.
Optimization Eine Datei gilt als durch die Datendeduplizierung optimiert (bzw. dedupliziert), wenn sie in Blöcke aufgeteilt wurde und ihre eindeutigen Blöcke im Blockspeicher gespeichert wurden.
Optimierungsrichtlinie Die Optimierungsrichtlinie gibt die Dateien an, die für die Datendeduplizierung berücksichtigt werden sollen. Beispielsweise können Dateien als nicht richtlinienkonform gelten, wenn sie ganz neu oder geöffnet sind, sich in einem bestimmten Pfad auf dem Volume befinden oder einen bestimmten Dateityp haben.
Analysepunkt Ein Analysepunkt ist ein spezielles Tag, das das Dateisystem anweist, die E/A an einen angegebenen Dateisystemfilter zu übergeben. Nachdem der Dateidatenstrom einer Datei optimiert wurde, ersetzt die Datendeduplizierung den Datenstrom durch einen Analysepunkt. Dieser ermöglicht der Datendeduplizierung das Beibehalten der Zugriffssemantik für diese Datei.
Volume Ein Volume ist ein Windows-Konstrukt für ein logisches Speicherlaufwerk, das sich über mehrere physische Speichergeräte auf einem oder mehreren Servern erstrecken kann. Die Datendeduplizierung wird auf Volumebasis aktiviert.
Workload Eine Workload ist eine Anwendung, die unter Windows Server ausgeführt wird. Beispielworkloads sind allgemeiner Dateiserver, Hyper-V und SQL Server.

Warnung

Sofern nicht von autorisierten Microsoft-Supportmitarbeitern dazu aufgefordert, versuchen Sie nicht, den Blockspeicher manuell zu ändern. Andernfalls kann es zu Datenbeschädigungen oder -verlusten kommen.

Häufig gestellte Fragen

Wie unterscheidet sich die Datendeduplizierung von anderen Optimierungsprodukten? Es gibt mehrere wichtige Unterschiede zwischen der Datendeduplizierung und anderen gängigen Speicheroptimierungsprodukten:

  • Wie unterscheidet sich die Datendeduplizierung von Single Instance Store? Single Instance Store (oder SIS) war eine Vorgängertechnologie der Datendeduplizierung, die erstmals in Windows Storage Server 2008 R2 eingeführt wurde. Zum Optimieren eines Volume bestimmte Single Instance Store vollständig identische Dateien und ersetzte sie durch logische Links zu einer einzelnen Kopie einer Datei, die im allgemeinen SIS-Speicher gespeichert wurden. Im Gegensatz zu Single Instance Store kann das Feature „Datendeduplizierung“ für Einsparung von Speicherplatz in Dateien sorgen, die nicht identisch sind, jedoch viele gemeinsame Muster aufweisen, oder die selbst viele wiederholte Muster enthalten. Single Instance Store wurde für Windows Server 2012 R2 als veraltet gekennzeichnet und in Windows Server 2016 zugunsten der Datendeduplizierung entfernt.

  • Wie unterscheidet sich die Datendeduplizierung von der NTFS-Komprimierung? Die NTFS-Komprimierung ist ein Feature von NTFS, das Sie optional auf Volumeebene aktivieren können. Bei der NTFS-Komprimierung wird jede Datei mittels Komprimierung während des Schreibvorgangs einzeln optimiert. Im Gegensatz zur NTFS-Komprimierung ermöglicht die Datendeduplizierung das Einsparen von Speicherplatz in allen Dateien auf einem Volume. Dies ist gegenüber der NTFS-Komprimierung vorteilhaft, da die Dateien möglicherweise sowohl eine interne Duplizierung aufweisen (der mit der NTFS-Komprimierung begegnet wird) als auch Ähnlichkeiten mit anderen Dateien auf dem Datenträger haben (denen nicht mit der NTFS-Komprimierung begegnet wird). Darüber hinaus zeichnet sich die Datendeduplizierung durch ein Nachbearbeitungsmodell aus. Dies bedeutet, dass neue oder geänderte Dateien nicht optimiert auf den Datenträger geschrieben und mithilfe der Datendeduplizierung später optimiert werden.

  • Wie unterscheidet sich die Datendeduplizierung von Archivdateiformaten wie ZIP, RAR, 7z, CAB usw.? Archivdateiformate wie ZIP, RAR, 7z, CAB usw. wenden eine Komprimierung auf einen angegebenen Satz von Dateien an. Wie bei der Datendeduplizierung werden doppelte Muster innerhalb einer oder über mehrere Dateien optimiert. Allerdings müssen Sie die Dateien auswählen, die Sie dem Archiv hinzufügen möchten. Auch die Zugriffssemantik unterscheidet sich. Für den Zugriff auf eine bestimmte Datei innerhalb des Archivs müssen Sie das Archiv öffnen, eine bestimmte Datei auswählen und für die Verwendung dekomprimieren. Die Datendeduplizierung erfolgt von Benutzern und Administratoren unbemerkt und erfordert keine manuellen Eingriffe. Außerdem behält die Datendeduplizierung die Zugriffssemantik bei, sodass optimierte Dateien nach der Optimierung unverändert angezeigt werden.

Kann ich die Datendeduplizierungseinstellungen für meinen ausgewählten Verwendungstyp ändern? Ja. Obwohl die Datendeduplizierung für empfohlene Workloads Standardwerte bietet, möchten Sie möglicherweise dennoch die Datendeduplizierungseinstellungen optimieren, um Ihren Speicher optimal zu nutzen. Darüber hinaus erfordern andere Workloads eine gewisse Optimierung, um sicherzustellen, dass die Datendeduplizierung die Workload nicht stört.

Kann ich einen Datendeduplizierungsauftrag manuell ausführen? Ja, alle Datendeduplizierungsaufträge können manuell ausgeführt werden. Dies ist möglicherweise wünschenswert, wenn geplante Aufträge aufgrund unzureichender Systemressourcen oder eines Fehlers nicht ausgeführt wurden. Der Auftrag „Unoptimization“ kann nur manuell ausgeführt werden.

Kann ich die Verlaufsergebnisse von Datendeduplizierungsaufträgen überwachen? Ja, alle Datendeduplizierungsaufträge erstellen Einträge im Windows-Ereignisprotokoll.

Kann ich die Standardzeitpläne für die Datendeduplizierungsaufträge auf meinem System ändern? Ja, alle Zeitpläne sind konfigurierbar. Das Ändern der Standardzeitpläne für die Datendeduplizierung ist besonders wünschenswert, um sicherzustellen, dass die Datendeduplizierungsaufträge genügend Zeit bis zu ihrem Abschluss haben und nicht mit der Workload in Konkurrenz um Ressourcen stehen.