Partager via


Dédupliquer le stockage DPM

System Center Data Protection Manager (DPM) peut utiliser la déduplication des données.

La déduplication des données (déduplication) recherche et supprime les données dupliquées dans un volume tout en veillant à ce que les données restent correctes et complètes. En savoir plus sur la planification de la déduplication.

  • La déduplication réduit la consommation de stockage. Bien que la quantité de redondance d’un ensemble de données dépende de la charge de travail et du type de données, les données de sauvegarde affichent généralement de fortes économies lorsque la déduplication est utilisée.

  • La redondance des données peut être réduite davantage avec la déduplication lorsque les données sauvegardées de types similaires et de charges de travail sont traitées ensemble.

  • Dedup est conçu pour être installé sur les volumes de données principaux sans matériel dédié supplémentaire afin qu’il n’affecte pas la charge de travail principale sur le serveur. Les paramètres par défaut ne sont pas intrusifs, car ils autorisent l’âge des données pendant cinq jours avant le traitement d’un fichier particulier et ont une taille de fichier minimale par défaut de 32 Ko. L'implémentation est conçue pour utiliser peu de mémoire et de ressources du processeur.

  • La déduplication peut être implémentée sur les charges de travail suivantes :

    • Partages de fichiers généraux : publication et partage de contenu de groupe, dossiers de base utilisateur et fichiers hors connexion/de redirection de dossiers

    • Partages de déploiement de logiciel : fichiers binaires, images et mises à jour de logiciel

    • Bibliothèques de disques durs virtuels : stockage de fichiers de disque dur virtuel (VHD) pour l’attribution de privilèges d’accès au hyperviseurs

    • Déploiements VDI (Windows Server 2012 R2 uniquement) : déploiements d’infrastructure VDI (Virtual Desktop Infrastructure) à l’aide de Hyper-V

    • Sauvegarde virtualisée : solutions de sauvegarde (telles que DPM s’exécutant sur une machine virtuelle Hyper-V) qui enregistrent des données de sauvegarde dans des fichiers VHD/VHDX sur un serveur de fichiers Windows

DPM et déduplication

L’utilisation de ddup avec DPM peut entraîner des économies importantes. La quantité d’espace économisé par déduplication lors de l’optimisation des données de sauvegarde DPM varie en fonction du type de données sauvegardé. Par exemple, la sauvegarde d'un serveur de base de données chiffrée peut entraîner des économies minimales, car toutes les données en double sont masquées par le processus de chiffrement. Toutefois, la sauvegarde d’un déploiement VDI (Virtual Desktop Infrastructure) volumineux peut entraîner de grandes économies dans la plage de 70 à 90 %, car il existe généralement une grande quantité de duplication de données entre les environnements de bureau virtuel. Dans la configuration décrite dans l’article, nous avons exécuté différentes charges de travail de test et avons vu des économies comprises entre 50 % et 90 %.

Pour utiliser la déduplication pour le stockage DPM, DPM doit s’exécuter dans une machine virtuelle Hyper-V et stocker des données de sauvegarde sur des disques durs virtuels dans des dossiers partagés avec la déduplication des données activée.

Pour déployer DPM en tant que machine virtuelle qui sauvegarde des données sur un volume dédupl, nous vous recommandons la topologie de déploiement suivante :

  • DPM s'exécutant sur une machine virtuelle dans un cluster hôte Hyper-V.

  • Stockage DPM à l'aide de fichiers VHD/VHDX stockés sur un partage SMB 3.0 sur un serveur de fichiers.

  • Dans notre exemple de test, nous avons configuré le serveur de fichiers en tant que serveur de fichiers avec scale-out (SOFS) déployé en utilisant des volumes de stockage configurés à partir de pools d’espaces de stockage créés à l’aide de lecteurs SAS connectés directement. Ce déploiement garantit les performances à grande échelle.

Notez les points suivants :

  • Ce déploiement est pris en charge pour DPM 2012 R2 et versions ultérieures et pour toutes les données de charge de travail qui peuvent être sauvegardées par DPM 2012 R2 et versions ultérieures.

  • Tous les nœuds Windows File Server sur lesquels résident les disques durs virtuels DPM et sur lesquels la déduplication sera activée doivent exécuter Windows Server 2012 R2 avec correctif cumulatif novembre 2014 ou version ultérieure.

  • Nous fournirons des recommandations générales et des instructions pour le déploiement du scénario. Chaque fois que des exemples spécifiques du matériel sont donnés, le matériel déployé dans le système de plateforme cloud (CPS) Microsoft sert de référence.

  • Cet exemple utilise les partages SMB 3.0 pour stocker les données de sauvegarde, pour que la configuration matérielle requise principale se concentre sur les nœuds du serveur de fichiers plutôt que sur les nœuds Hyper-V. La configuration matérielle suivante est utilisée dans CPS pour le stockage de sauvegarde et de production. Le matériel global est utilisé pour le stockage de sauvegarde et de production, mais le nombre de lecteurs répertoriés dans les boîtiers de lecteur ne sont utilisés que pour la sauvegarde.

    • Cluster de serveur de fichiers scale-out à quatre nœuds

    • Configuration par nœud

      • 2x Processeur Intel(R) Xeon(R) E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 cœurs, 16 processeurs logiques

      • 128 Go de mémoire RDIMM 1333 MHz

      • Connexions de stockage : 2 ports de SAP, 1 port de 10 GbE iWarp/RDMA

    • Quatre boîtiers de lecteur JBOD

      • 18 disques dans chaque JBOD - 16 x 4 To HDD + 2 x 800 Go SSD

      • Double chemin pour chaque lecteur, stratégie d’équilibrage de charge MPIO (Multipath I/O) définie sur Basculement uniquement

      • SSD configurés pour le cache en écriture différée (WBC) et le reste pour les lecteurs de journal dédiés

Configurer des volumes de déduplication

Prenons en compte la façon dont les volumes volumineux doivent être pris en charge les fichiers VHDX dédupliqués contenant des données DPM. Dans CPS, nous avons créé des volumes de 7,2 To chacun. La taille de volume optimale dépend principalement de l'importance et de la fréquence des changements de données sur le volume, et des taux de débit d'accès aux données du sous-système de stockage sur disque. Il est important de noter que si le traitement de la déduplication ne peut pas suivre le taux de modifications quotidiennes des données (l’évolution), le taux d’économies diminue jusqu’à ce que le traitement puisse se terminer. Pour plus d’informations, consultez Dimensionnement des volumes pour la déduplication des données. Les instructions générales suivantes sont recommandées pour les volumes de déduplication :

  • Utilisez des espaces de stockage de parité avec reconnaissance du boîtier pour la résilience et une utilisation du disque accrue.

  • Mettez en forme NTFS avec des unités d’allocation de 64 Ko et des segments d’enregistrements de fichiers volumineux pour mieux utiliser les fichiers épars.

  • Dans la configuration matérielle au-dessus de la taille de volume recommandée de 7,2 To, les volumes sont configurés comme suit :

    • Boîtier prenant en compte la parité double 7,2 To + 1 Go de cache d’écriture différée

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 Ko (performances de parité double à 64 Ko entrelacement est beaucoup plus faible qu’au niveau de l’entrelacement de 256 Ko par défaut)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 Ko

      • Large FRS

      Configurez un nouveau disque virtuel dans le pool de stockage spécifié comme suit :

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Chacun des volumes doit ensuite être ensuite formaté comme suit :

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Dans le déploiement CPS, ceux-ci configurés en tant que volumes partagés de cluster.

    • Dans ces volumes, DPM stocke une série de fichiers VHDX pour stocker les données de sauvegarde. Activez la déduplication sur le volume après la mise en forme comme suit :

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Cette commande modifie également les paramètres de dédup au niveau du volume suivants :

      • Définissez UsageType sur HyperV : cela entraîne le traitement des fichiers ouverts qui sont requis, car les fichiers VHDX utilisés pour le stockage de sauvegarde par DPM restent ouverts avec DPM s’exécutant sur sa machine virtuelle.

      • Désactiver PartialFileOptimization : cela entraîne l’optimisation de toutes les sections d’un fichier ouvert plutôt que d’analyser les sections modifiées avec un âge minimal.

      • Définissez le paramètre MinFileAgeDays sur 0 : Avec PartialFileOptimization désactivé, MinFileAgeDays modifie son comportement afin que le déduplication considère uniquement les fichiers qui n’ont pas changé pendant ce nombre de jours. Dans la mesure où nous voulons que la déduplication commence à traiter les données de sauvegarde dans tous les fichiers VHDX de DPM sans délai, nous devons définir le paramètre MinFileAgeDays sur 0.

Pour plus d’informations sur la configuration de la déduplication, consultez Installer et configurer la duplication des données.

Configurer le stockage DPM

Pour éviter les problèmes de fragmentation et maintenir l'efficacité, le stockage DPM est alloué à l'aide de fichiers VHDX résidant sur les volumes dédupliqués. Dix fichiers VHDX dynamiques de 1 To chacun sont créés sur chaque volume et attachés à DPM. En outre, 3 To de surprovisionnement du stockage sont effectués pour tirer parti des économies de stockage produites par la déduplication. À mesure que la déduplication génère des économies de stockage supplémentaires, de nouveaux fichiers VHDX peuvent être créés sur ces volumes pour consommer l’espace enregistré. Nous avons testé le serveur DPM avec jusqu’à 30 fichiers VHDX attachés.

  1. Exécutez la commande suivante pour créer des disques durs virtuels qui seront ajoutés ultérieurement au serveur DPM :

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Ajoutez ensuite les disques durs virtuels créés au serveur DPM comme suit :

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Cette étape configure un pool de stockage comme disque ou disque sur lequel DPM stocke des réplicas et des points de récupération pour les données protégées. Ce pool fait partie de la configuration de DPM et est séparé du pool d'espaces de stockage utilisé pour créer les volumes de données décrits dans la section précédente. Pour plus d’informations sur les pools de stockage DPM, consultez Configurer le stockage sur disque et les pools de stockage.

Configurer le cluster Windows File Server

La déduplication requiert un ensemble spécial d'options de configuration pour prendre en charge le stockage DPM virtualisé en raison de l'échelle des données et de la taille des fichiers individuels. Ces options sont globales pour le cluster ou le nœud de cluster. La déduplication doit être activée et les paramètres de cluster doivent être configurés individuellement sur chaque nœud du cluster.

  1. Activer la déduplication sur le stockage Windows File Server : le rôle de déduplication doit être installé sur tous les nœuds du cluster Windows File Server. Pour ce faire, exécutez la commande PowerShell suivante sur chaque nœud du cluster :

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Paramétrez le traitement de déduplication pour les fichiers de données de sauvegarde : exécutez la commande PowerShell suivante pour définir l’optimisation sans délai et ne pas optimiser les écritures partielles de fichiers. Par défaut, les travaux de garbage collection (GC) sont planifiés chaque semaine, et chaque quatrième semaine, le travail GC s’exécute en mode « deep GC » pour une recherche plus exhaustive et intensive des données à supprimer. Pour la charge de travail DPM, ce mode « gc profond » n’entraîne pas de gains reconnaissants et réduit la durée pendant laquelle la déduplication peut optimiser les données. Nous désactivons donc ce mode profond.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Paramétrez les performances pour les opérations à grande échelle : exécutez le script PowerShell suivant :

    • désactiver le traitement et les E/S supplémentaires lors de l'exécution d'un nettoyage profond de la mémoire ;

    • réserver de la mémoire supplémentaire pour un traitement de hachage ;

    • activer l'optimisation de priorité pour permettre une défragmentation immédiate des fichiers volumineux.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Ces paramètres modifient les éléments suivants :

    • HashIndexFullKeyReservationPercent : cette valeur contrôle la quantité de mémoire du travail d’optimisation utilisée pour les hachages de blocs existants et les nouveaux hachages de bloc. À grande échelle, 70 % produit un meilleur débit d'optimisation que la valeur par défaut de 50 %.

    • EnablePriorityOptimization : avec les fichiers qui approchent de 1 To, la fragmentation d’un seul fichier peut accumuler suffisamment de fragments pour approcher la limite par fichier. Le traitement d'optimisation consolide ces fragments et empêche que cette limite soit atteinte. Si cette clé de Registre est définie, la déduplication ajoute un processus pour traiter les fichiers dédupliqués très fragmentés avec une priorité haute.

Configurer la planification de DPM et de déduplication

Les opérations de sauvegarde et de déduplication sont intenses en E/S. Si elles devaient s'exécuter simultanément, une charge supplémentaire pour basculer entre les opérations pourrait s'avérer coûteuse et entraîner une diminution du nombre de données sauvegardées ou dédupliquées quotidiennement. Nous vous recommandons de configurer des fenêtres de déduplication et de sauvegarde dédiées et distinctes. Cela permet de garantir que le trafic d'E/S pour chacune de ces opérations soit distribué efficacement durant l'opération système quotidienne. Les recommandations pour la planification sont les suivantes :

  • Fractionner les jours en fenêtres de sauvegarde et de déduplication ne se chevauchant pas.

  • Configurer des planifications de sauvegarde personnalisées.

  • Configurer des planifications de déduplication personnalisées.

  • Planifier l'optimisation dans la fenêtre de déduplication quotidienne.

  • Configurer les planifications de déduplication à effectuer le week-end séparément, en consacrant ce temps aux travaux de nettoyage et de nettoyage de la mémoire.

Vous pouvez configurer des planifications de DPM avec la commande PowerShell suivante :

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

Dans cette configuration, DPM est configuré pour sauvegarder les machines virtuelles entre 22 h 00 et 6 h 00. La déduplication est planifiée pendant les 16 heures restantes de la journée. L’heure de déduplication réelle que vous configurez dépend de la taille du volume. Pour plus d’informations, consultez Dimensionnement des volumes pour la déduplication des données. Une fenêtre de déduplication de 16 heures commençant à 6 h après la fin de la fenêtre de sauvegarde serait configurée comme suit à partir de n’importe quel nœud de cluster individuel :

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Chaque fois que la fenêtre de sauvegarde est modifiée, il est essentiel que la fenêtre de déduplication soit modifiée avec elle afin qu’elle ne se chevauche pas. La déduplication et la fenêtre de sauvegarde n’ont pas besoin de remplir les 24 heures complètes du jour ; Toutefois, il est vivement recommandé qu’ils permettent de modifier le temps de traitement en raison des modifications quotidiennes attendues des charges de travail et de l’évolution des données.

Implications relatives aux performances de sauvegarde

Une fois qu’un ensemble de fichiers a été dédupliqué, il peut y avoir un léger coût de performances lors de l’accès aux fichiers. Cela est dû au traitement supplémentaire requis pour accéder au format de fichier utilisé par les fichiers dédupliqués. Dans ce cas, les fichiers sont un ensemble de fichiers VHDX utilisés en continu par DPM pendant la fenêtre de sauvegarde. L’effet de la déduplication de ces fichiers signifie que les opérations de sauvegarde et de récupération peuvent être légèrement plus lentes que sans déduplication. Comme tout produit de sauvegarde, DPM est une charge de travail lourde en écriture, les opérations de lecture étant très importantes pendant les phases de restauration. Les recommandations liées aux implications en matière de performances de sauvegarde de la déduplication sont les suivantes :

  • Opérations de lecture et de restauration : les effets sur les opérations de lecture sont généralement négligeables et ne nécessitent pas de considérations spéciales dans la mesure où la fonctionnalité de déduplication met en cache les segments dédupliqués.

  • Opérations d’écriture/sauvegarde : planifiez une augmentation du temps de sauvegarde de 5 à 10 % lors de la définition de la fenêtre de sauvegarde. (Il s'agit d'une augmentation par rapport au temps de sauvegarde attendu lors de l'écriture sur des volumes non dédupliqués.)

Surveillance

La déduplication de données et DPM peuvent être surveillés pour s'assurer de ce qui suit :

  • Un espace disque suffisant est configuré pour stocker les données de sauvegarde.

  • Les travaux de sauvegarde de DPM s'achèvent normalement.

  • La déduplication est activée sur les volumes de sauvegarde.

  • Les planifications de déduplication sont correctement définies.

  • Le traitement de déduplication s'achève normalement chaque jour.

  • Le taux d'économies résultant de la déduplication correspond aux hypothèses formulées pour la configuration du système.

La réussite de la déduplication dépend des capacités matérielles du système dans son ensemble (vitesse de traitement du processeur, bande passante d'E/S, capacité de stockage), de la configuration système correcte, de la charge système moyenne et du volume quotidien de données modifiées.

Vous pouvez surveiller DPM à l'aide de la console centrale DPM. Voir Installation de la console centrale.

Vous pouvez surveiller la déduplication pour vérifier l’état de déduplication, le taux d’enregistrement et l’état de planification à l’aide des commandes PowerShell suivantes :

Obtenez l'état :

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Obtenez les économies :

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Obtenez l'état de la planification à l'aide de l'applet de commande Get-DedupSchedule.

Surveiller les événements

L'analyse du journal des événements peut aider à comprendre l'état et les événements de la déduplication.

  • Pour afficher les événements de déduplication, dans l' Explorateur de fichiers, accédez à Journaux des applications et des services>Microsoft>Windows>Déduplication.

  • Si la valeur LastOptimizationResult = 0x00000000 s'affiche dans les résultats de l'applet de commande Windows PowerShell Get-DedupStatus |fl, cela signifie que le jeu de fichiers entier a été traité par la tâche d'optimisation. Si tel n'est pas le cas, cela signifie que le système n'a pas pu terminer le traitement de déduplication et que vous devez peut-être vérifier les paramètres de configuration tels que la taille du volume.

Pour des exemples d'applet de commande plus détaillés, voir Analyse et rapports pour la déduplication des données.

Surveiller le stockage de sauvegarde

Dans notre exemple de configuration, les volumes de 7,2 To sont remplis de 10 To de données « logiques » (la taille des données lorsqu’elles ne sont pas dédupliquées) stockées dans 10 fichiers VHDX dynamiques x 1 To. À mesure que ces fichiers accumulent des données de sauvegarde supplémentaires, ils remplissent lentement le volume. Si le pourcentage d’économies résultant de la déduplication est suffisamment élevé, tous les 10 fichiers pourront atteindre leur taille logique maximale et s’adapteront toujours au volume de 7,2 To (il peut même y avoir un espace supplémentaire pour allouer des fichiers VHDX supplémentaires pour les serveurs DPM à utiliser). Toutefois, si les économies de taille de la déduplication ne sont pas suffisantes, l’espace sur le volume peut s’exécuter avant que les fichiers VHDX atteignent leur taille logique complète et que le volume soit plein. Pour éviter que les volumes ne soient saturés, nous vous recommandons les éléments suivants :

  • Soyez conservateur en ce qui concerne les exigences de taille de volume et prévoyez un certain sur-approvisionnement de stockage. Il est recommandé d’autoriser une mémoire tampon d’au moins 10 % lors de la planification de l’utilisation du stockage de sauvegarde pour permettre les variations attendues dans les économies de déduplication et l’attrition des données.

  • Analysez les volumes utilisés pour le stockage de sauvegarde afin de vous assurer que les taux d'utilisation de l'espace et d'économies résultant de la déduplication sont aux niveaux attendus.

Si le volume devient plein, les symptômes suivants se traduisent par :

  • La machine virtuelle DPM est mise en état critique de pause et aucun autre travail de sauvegarde ne peut plus être émis par cette machine virtuelle.

  • Tous les travaux de sauvegarde qui utilisent les fichiers VHDX figurant sur le volume entier échouent.

Pour récupérer à partir de cette condition et restaurer le système en fonctionnement normal, un stockage supplémentaire peut être provisionné et une migration de stockage de la machine virtuelle DPM ou de son VHDX peut être effectuée pour libérer de l’espace :

  1. Arrêtez le serveur DPM propriétaire des fichiers VHDX sur le partage de sauvegarde complet.

  2. Créez un volume et un partage de sauvegarde supplémentaire à l'aide de la configuration et des paramètres utilisés pour les partages existants, y compris les paramètres définis pour la déduplication et NTFS.

  3. Migrez le stockage pour la machine virtuelle DPM Server et migrez au moins un fichier VHDX du partage de sauvegarde complet vers le nouveau partage de sauvegarde créé à l’étape 2.

  4. Exécutez un nettoyage de la mémoire (GC) de déduplication des données sur le partage de sauvegarde source saturé. Le nettoyage de la mémoire doit réussir et permettre de récupérer de l'espace libre.

  5. Redémarrez la machine virtuelle du serveur DPM.

  6. Un travail de vérification de cohérence DPM est déclenché pendant la fenêtre de sauvegarde suivante pour toutes les sources de données qui ont échoué précédemment.

  7. Tous les travaux de sauvegarde doivent à présent réussir.

Résumé

La combinaison de la déduplication et de DPM permet de réaliser des substantielles. Cela permet d'obtenir des taux de rétention plus élevés, des sauvegardes plus fréquentes et un meilleur coût total de possession (TCO) pour le déploiement de DPM. Les instructions et recommandations figurant dans ce document devraient vous apporter les outils et connaissances nécessaires pour configurer la déduplication pour le stockage DPM et découvrir les avantages qui en résultent pour vous-même dans votre propre déploiement.

Questions courantes

Q : Les fichiers VHDX DPM doivent avoir une taille de 1 To. Cela signifie-t-il que DPM ne peut pas sauvegarder une machine virtuelle, une base de données SharePoint ou une base de données SQL ou un volume de fichiers de taille > de 1 To ?

R : Non. DPM regroupe plusieurs volumes en un seul pour stocker les sauvegardes. Par conséquent, la taille de fichier de 1 To n’a aucune incidence sur les tailles de source de données que DPM peut sauvegarder.

Q : il semble que les fichiers VHDX de stockage DPM doivent être déployés uniquement sur des partages de fichiers SMB distants. Que se passe-t-il si je stocke les fichiers VHDX de sauvegarde sur les volumes pour lesquels la déduplication est activée sur le système sur lequel la machine virtuelle DPM s'exécute ?

R : Comme indiqué ci-dessus, DPM, Hyper-V et déduup sont des opérations nécessitant beaucoup de stockage et de calcul. La combinaison des trois d’entre eux dans un seul système peut entraîner des opérations d’E/S et de processus gourmandes en charge qui peuvent priver Hyper-V et ses machines virtuelles. Si vous décidez d’expérimenter la configuration de DPM dans une machine virtuelle avec les volumes de stockage de sauvegarde sur le même ordinateur, vous devez surveiller attentivement les performances pour vous assurer qu’il y a suffisamment de bande passante d’E/S et de capacité de calcul pour maintenir les trois opérations sur le même ordinateur.

Q : vous recommandez des fenêtres de déduplication et de sauvegarde dédiées, distinctes. Pourquoi ne puis-je pas activer la déduplication pendant la sauvegarde de DPM ? Je dois sauvegarder ma base de données SQL toutes les 15 minutes.

R : Dedup et DPM sont des opérations gourmandes en stockage et leur exécution en même temps peut être inefficace et entraîner une faim d’E/S. Par conséquent, pour protéger les charges de travail plus d’une fois par jour (par exemple, SQL Server toutes les 15 minutes) et activer la déduplication en même temps, assurez-vous qu’il y a suffisamment de bande passante d’E/S et de capacité d’ordinateur pour éviter la pénurie de ressources.

Q : selon la configuration décrite, DPM doit être exécuté sur une machine virtuelle. Pourquoi ne puis-je pas activer la déduplication sur le volume de réplica et les volumes de cliché instantané directement plutôt que sur les fichiers VHDX ?

R : la déduplication opère par volume sur des fichiers individuels. Étant donné que la déduplication est optimisée au niveau du fichier, elle n’est pas conçue pour prendre en charge la technologie VolSnap utilisée par DPM pour stocker ses données de sauvegarde. En exécutant DPM sur une machine virtuelle, Hyper-V mappe les opérations de volume DPM au niveau de fichier VHDX, ce qui permet à la déduplication d'optimiser les données de sauvegarde et de générer des économies de stockage supérieures.

Q : L’exemple de configuration ci-dessus a créé uniquement des volumes de 7,2 To. Puis-je créer des volumes plus grands ou plus petits ?

R : la déduplication exécute un thread par volume. À mesure que la taille du volume augmente, la déduplication nécessite plus de temps pour accomplir l'optimisation. En revanche, avec de petits volumes, il y a moins de données dans lesquelles trouver des segments en double, ce qui peut entraîner une réduction des économies. Il est donc conseillé d’affiner la taille du volume en fonction de l’évolution totale et des fonctionnalités matérielles du système pour réaliser des économies optimales. Pour plus d'informations sur la détermination des tailles de volume utilisées avec la déduplication, voir Dimensionnement des volumes pour la déduplication dans Windows Server. Pour plus d’informations sur la détermination des tailles de volume utilisées avec la déduplication, consultez Dimensionnement des volumes pour la déduplication des données.