Partager via


Présentation de la déduplication des données

Ce document décrit le fonctionnement de la déduplication des données.

Fonctionnement de la déduplication des données

La déduplication des données dans Windows Server a été créée avec les deux principes suivants :

  1. L’optimisation ne doit pas interférer avec les écritures sur le disque La déduplication des données optimise les données à l’aide d’un modèle de post-traitement. Toutes les données sont écrites non optimisées sur le disque pour l’être ensuite par la déduplication des données.

  2. L’optimisation ne doit pas changer la sémantique de l’accès Les utilisateurs et les applications qui accèdent aux données sur un volume optimisé n’ont pas du tout conscience que les fichiers auxquels ils accèdent ont été dédupliqués.

Une fois qu’elle est activée pour un volume, la déduplication des données s’exécute en arrière-plan pour :

  • identifier les modèles récurrents dans tous les fichiers de ce volume ;
  • déplacer en toute transparence les parties (ou « blocs ») avec des pointeurs spéciaux appelés points d’analyse qui pointent vers une copie unique de ces blocs.

Cette opération se déroule en quatre étapes :

  1. Analysez le système de fichiers à la recherche de fichiers conformes à la stratégie d’optimisation.
    Rechercher dans le système de fichiers
  2. Divisez les fichiers en blocs de taille variable.
    Diviser les fichiers en blocs
  3. Identifiez les blocs uniques.
    Identifier les blocs uniques
  4. Placez les blocs dans le magasin de blocs et compressez-les si vous le voulez.
    Placer les blocs dans le magasin de blocs
  5. Remplacez le flux d’origine des fichiers maintenant optimisés par un point d’analyse qui pointe vers le magasin de blocs.
    Remplacer le flux de fichier par un point d’analyse

Quand les fichiers optimisés sont lus, le système de fichiers envoie les fichiers avec un point d’analyse au filtre de système de fichiers de la déduplication des données (Dedup.sys). Le filtre redirige l’opération de lecture vers les blocs appropriés qui constituent le flux de ce fichier dans le magasin de blocs. Les modifications apportées aux plages de fichiers dédupliqués sont écrites sur le disque et sont optimisées par le travail d’optimisation quand il est à nouveau exécuté.

Types d’utilisation

Les types d’utilisation suivants fournissent une configuration de la déduplication des données valable pour les charges de travail courantes :

Type d'utilisation Charges de travail idéales Différences
Par défaut Serveur de fichiers à usage général :
  • Partages d’équipe
  • Dossiers de travail
  • Redirection de dossiers
  • Partages de développement de logiciels
  • Optimisation en arrière-plan
  • Stratégie d’optimisation par défaut :
    • Ancienneté minimale des fichiers = 3 jours
    • Optimiser les fichiers en cours d’utilisation = non
    • Optimiser les fichiers partiels = non
Hôte Serveurs VDI (Virtual Desktop Infrastructure)
  • Optimisation en arrière-plan
  • Stratégie d’optimisation par défaut :
    • Ancienneté minimale des fichiers = 3 jours
    • Optimiser les fichiers en cours d’utilisation = oui
    • Optimiser les fichiers partiels = oui
  • Modifications mineures d’implémentation pour l’interopérabilité Hyper-V
Sauvegarde Applications de sauvegarde virtualisée, telles que Microsoft Data Protection Manager (DPM)
  • Optimisation de la priorité
  • Stratégie d’optimisation par défaut :
    • Ancienneté minimale des fichiers = 0 jour
    • Optimiser les fichiers en cours d’utilisation = oui
    • Optimiser les fichiers partiels = non
  • Modifications mineures d’implémentation pour l’interopérabilité avec des solutions DPM ou de type DPM

travaux

La déduplication des données utilise une stratégie de post-traitement pour optimiser et maintenir le rendement de l’espace d’un volume.

Nom du travail Description du travail Planification par défaut
Optimisation Le travail Optimisation procède à la déduplication en divisant les données d’un volume en blocs selon les paramètres de stratégie de volume, en compressant (éventuellement) ces blocs et en les stockant de façon unique dans le magasin de blocs. Le processus d’optimisation utilisé par la déduplication des données est décrit en détail dans Fonctionnement de la déduplication des données. Une fois par heure
Garbage collection Le travail Nettoyage de la mémoire récupère de l’espace disque en supprimant les blocs inutiles qui ne sont plus référencés par les fichiers qui ont été récemment modifiés ou supprimés. Tous les samedis à 02h35
Nettoyage des données Le travail Nettoyage des données identifie toute altération dans le magasin de blocs causée par des défaillances de disque ou des secteurs défectueux. Quand cela est possible, la déduplication des données peut utiliser automatiquement les fonctionnalités de volume (par exemple, la mise en miroir ou la parité sur un volume des espaces de stockage) pour reconstruire les données endommagées. De plus, la déduplication des données conserve des copies de sauvegarde des blocs populaires quand ils sont référencés plus de 100 fois dans une zone appelée « zone réactive ». Tous les samedis à 03h35
Annulation de l’optimisation Le travail Annulation de l’optimisation est un travail spécial qui ne peut être exécuté que manuellement et qui annule l’optimisation effectuée par la déduplication et désactive la déduplication des données pour ce volume. À la demande uniquement

Terminologie relative à la déduplication des données

Terme Définition
Bloc Un bloc est une section d’un fichier qui a été sélectionnée par l’algorithme de segmentation de la déduplication des données comme étant susceptible de se trouver dans d’autres fichiers similaires.
Magasin de blocs Le magasin de blocs est une série organisée de fichiers de conteneur dans le dossier System Volume Information que la déduplication des données utilise pour stocker de façon unique des blocs.
Déduplication Abréviation en anglais de la déduplication des données qui est communément employée dans PowerShell, les composants et les API Windows Server, ainsi que dans la communauté Windows Server.
Métadonnées de fichier Chaque fichier contient des métadonnées qui décrivent des propriétés intéressantes sur le fichier qui ne sont pas liées au contenu principal du fichier, par exemple Date de création, Date de la dernière lecture, Auteur, etc.
Flux de fichier Le flux de fichier est le contenu principal du fichier. Il s’agit de la partie du fichier que la déduplication des données optimise.
Système de fichiers Le système de fichiers est le logiciel et la structure de données sur disque dont se sert le système d’exploitation pour stocker les fichiers sur un support de stockage. La déduplication des données est prise en charge sur les volumes formatés en NTFS.
Filtre du système de fichiers Un filtre de système de fichiers est un plug-in qui modifie le comportement par défaut du système de fichiers. Pour préserver la sémantique de l’accès, la déduplication des données utilise un filtre de système de fichiers (Dedup.sys) pour rediriger les opérations de lecture vers le contenu optimisé de manière entièrement transparente pour l’utilisateur ou l’application qui effectue la demande de lecture.
Optimisation Un fichier est considéré comme optimisé (ou dédupliqué) par la déduplication des données s’il a été divisé en blocs et que ses blocs uniques ont été stockés dans le magasin de blocs.
Stratégie d’optimisation La stratégie d’optimisation indique les fichiers à prendre en considération pour la déduplication des données. Par exemple, les fichiers peuvent être considérés comme étant hors stratégie s’ils sont entièrement nouveaux, ouverts, dans un chemin spécifique sur le volume ou d’un certain type de fichier.
Point d’analyse Un point d’analyse est un indicateur spécial qui demande au système de fichiers de transmettre les E/S à un filtre de système de fichiers spécifié. Quand le flux d’un fichier a été optimisé, la déduplication des données remplace le flux de fichier par un point d’analyse, ce qui permet à la déduplication des données de préserver la sémantique de l’accès pour ce fichier.
Volume Un volume est une construction Windows pour un lecteur de stockage logique qui peut s’étendre sur plusieurs dispositifs de stockage physiques sur un ou plusieurs serveurs. La déduplication est activée volume par volume.
Charge de travail Une charge de travail est une application qui s’exécute sur Windows Server. Des exemples de charges de travail incluent le serveur de fichiers à usage général, Hyper-V et SQL Server.

Avertissement

Sauf indication contraire des services de support technique Microsoft autorisés, n’essayez pas de modifier manuellement le magasin de blocs. Vous risqueriez d’endommager ou de perdre des données.

Forum aux questions

En quoi la déduplication des données est-elle différente des autres produits d’optimisation ? Il existe plusieurs différences importantes entre la fonctionnalité de déduplication des données et d’autres produits d’optimisation de stockage courants :

  • En quoi la déduplication des données est-elle différente de SIS (Single-Instance-Store) ? Single-Instance-Store, ou SIS, est une technologie antérieure à la déduplication des données qui a été inaugurée par Windows Storage Server 2008 R2. Pour optimiser un volume, SIS identifiait les fichiers qui étaient en tout point identiques et les remplaçait par des liens logiques donnant accès à une copie unique d’un fichier stocké dans le stockage SIS commun. Contrairement à SIS, la déduplication des données peut économiser de l’espace à partir de fichiers qui ne sont pas identiques, mais qui ont de nombreux modèles communs et à partir de fichiers qui contiennent eux-mêmes de nombreux modèles récurrents. Single-Instance-Store a été déconseillé dans Windows Server 2012 R2 et supprimé dans Windows Server 2016 en faveur de la déduplication des données.

  • En quoi la déduplication des données est-elle différente de la compression NTFS ? La compression NTFS est une fonctionnalité de NTFS que vous pouvez éventuellement activer au niveau du volume. Avec la compression NTFS, chaque fichier est optimisé individuellement via la compression au moment de l’écriture. Contrairement à la compression NTFS, la déduplication des données permet d’obtenir des gains d’espace sur tous les fichiers d’un volume. Cette technologie est plus efficace que la compression NTFS, car les fichiers peuvent à la fois être dupliqués en interne (ce qui est géré par la compression NTFS) et montrer des similitudes avec d’autres fichiers sur le volume (ce qui n’est pas géré par la compression NTFS). De plus, la déduplication des données propose un modèle de post-traitement, ce qui signifie que les fichiers nouveaux ou modifiés sont écrits sur disque sans être optimisés pour l’être ensuite par la déduplication des données.

  • En quoi la déduplication des données est-elle différente des formats de fichier d’archive comme zip, rar, 7z, cab, etc. ? Les formats de fichier d’archive tels que zip, rar, 7z, cab, etc. effectuent la compression sur un jeu spécifié de fichiers. À l’instar de la déduplication des données, les modèles récurrents au sein des fichiers et les modèles en double entre les fichiers sont optimisés. Cependant, vous devez choisir les fichiers à inclure dans l’archive. La sémantique de l’accès présente elle aussi des différences. Pour accéder à un fichier spécifique au sein de l’archive, vous devez ouvrir l’archive, sélectionner un fichier spécifique et décompresser ce fichier pour l’utiliser. La déduplication des données opère en toute transparence pour les utilisateurs et les administrateurs et ne nécessite aucun lancement manuel. Par ailleurs, la déduplication des données conserve la sémantique de l’accès : les fichiers optimisés apparaissent inchangés après l’optimisation.

Puis-je modifier les paramètres de la déduplication des données pour le type d’utilisation que j’ai sélectionné ? Oui. Bien que la déduplication des données offre des paramètres par défaut valables pour les charges de travail recommandées, vous pouvez quand même souhaiter adapter des paramètres de la déduplication des données pour tirer le meilleur parti de votre stockage. En outre, les autres charges de travail nécessitent quelques réglages pour garantir que la déduplication des données n’interfère pas avec la charge de travail.

Puis-je exécuter manuellement un travail de déduplication des données ? Oui, tous les travaux de déduplication des données peuvent être exécutés manuellement. Cela peut être souhaitable si les travaux planifiés n’ont pas été exécutés en raison de ressources système insuffisantes ou d’une erreur. En outre, le travail Annulation de l’optimisation ne peut être exécuté que manuellement.

Puis-je analyser les résultats historiques des travaux de déduplication des données ? Oui, tous les travaux de déduplication des données créent des entrées dans le journal des événements Windows.

Puis-je modifier les planifications par défaut pour les travaux de déduplication des données sur mon système ? Oui, toutes les planifications sont configurables. La modification des planifications de la déduplication des données par défaut est particulièrement souhaitable pour garantir que les travaux de déduplication des données ont le temps de se terminer et ne rivalisent pas avec la charge de travail pour les ressources.