Desduplicar el almacenamiento DPM

Importante

Esta versión de Data Protection Manager (DPM) ha llegado al final del soporte técnico. Se recomienda actualizar a DPM 2022.

System Center Data Protection Manager (DPM) puede usar la desduplicación de los datos.

La desduplicación de datos (dedup) busca y quita datos duplicados en un volumen al tiempo que garantiza la corrección e integridad de esos datos. Obtenga más información sobre Planear la implementación de la desduplicación de datos.

  • La desdup reduce el consumo de almacenamiento. Aunque la cantidad de redundancia de un conjunto de datos dependerá de la carga de trabajo y del tipo de datos, normalmente los datos de copia de seguridad muestran un ahorro seguro cuando se usa la desdup.

  • La redundancia de datos puede reducirse aún más con la desduplicación si los datos de copia de seguridad de tipos y cargas de trabajo similares se procesan juntos.

  • Desdup está diseñado para instalarse en volúmenes de datos principales sin hardware dedicado adicional para que no afecte a la carga de trabajo principal en el servidor. La configuración predeterminada no esintrusiva, ya que permiten que los datos tengan una antigüedad durante cinco días antes de procesar un archivo determinado y tengan un tamaño de archivo mínimo predeterminado de 32 KB. La implementación está diseñada para un consumo bajo de CPU y memoria.

  • La desduplicación se puede implementar en las cargas de trabajo siguientes:

    • Recursos compartidos de archivos generales: publicación y uso compartido de contenido del grupo, carpetas principales del usuario y redirección de carpetas/archivos sin conexión

    • Recursos compartidos de implementación de software: archivos binarios, imágenes y actualizaciones de software

    • Bibliotecas de VHD: almacenamiento de archivos en discos duros virtuales (VHD) para el aprovisionamiento de hipervisores

    • Implementaciones de VDI (solo Windows Server 2012 R2): implementaciones de infraestructura de escritorio virtual (VDI) mediante Hyper-V

    • Copia de seguridad virtualizada: soluciones de copia de seguridad (como DPM que se ejecutan en una máquina virtual de Hyper-V) que guardan datos de copia de seguridad en archivos VHD/VHDX en un servidor de archivos de Windows

DPM y desduplicación

El uso de la desduplicación con DPM puede generar grandes ahorros. La cantidad de espacio que se ahorra con la desduplicación al optimizar los datos de copia de seguridad de DPM varía según el tipo de datos del que se realiza la copia de seguridad. Por ejemplo, una copia de seguridad de un servidor de base de datos cifrada puede producir un ahorro mínimo, ya que los datos duplicados están ocultos por el proceso de cifrado. Sin embargo, la copia de seguridad de una implementación de Infraestructura de escritorio virtual (VDI) grande puede provocar grandes ahorros en el intervalo de 70-90+%, ya que normalmente hay una gran cantidad de duplicación de datos entre los entornos de escritorio virtual. En la configuración descrita en el artículo, hemos ejecutado varias cargas de trabajo de prueba y hemos visto ahorros comprendidos entre el 50 % y el 90 %.

Para usar la desdup para el almacenamiento DPM, DPM debe ejecutarse en una máquina virtual de Hyper-V y almacenar los datos de copia de seguridad en discos duros virtuales en carpetas compartidas con la desdup de datos habilitada.

Para implementar DPM como una máquina virtual que realiza la copia de seguridad de datos en un volumen desduplicado, se recomienda la topología de implementación siguiente:

  • DPM ejecutándose en una máquina virtual en un clúster de hosts de Hyper-V.

  • Almacenamiento DPM que usa archivos VHD/VHDX almacenados en un recurso compartido de SMB 3.0 en un servidor de archivos.

  • Para nuestro ejemplo de prueba, se configuró el servidor de archivos como un servidor de archivos de escala horizontal (SOFS) implementado con volúmenes de almacenamiento configurados desde grupos de espacios de almacenamiento creados con unidades SAS de conexión directa. Esta implementación garantiza el rendimiento a escala.

Observe lo siguiente:

  • Esta implementación es compatible con DPM 2012 R2 y versiones posteriores y para todos los datos de carga de trabajo de los que DPM 2012 R2 puede realizar una copia de seguridad y versiones posteriores.

  • Todos los nodos de servidor de archivos de Windows en los que residen discos duros virtuales DPM y en los que se habilitará la desduplicación deben ejecutar Windows Server 2012 R2 con el paquete acumulativo de actualizaciones de noviembre de 2014 o una versión posterior.

  • Proporcionaremos recomendaciones generales e instrucciones para la implementación del escenario. Cada vez que se proporcionan ejemplos específicos del hardware, el hardware implementado en Microsoft Cloud Platform System (CPS) se utiliza como referencia.

  • Este ejemplo usa recursos compartidos de SMB 3.0 para almacenar los datos de copia de seguridad, por lo que los principales requisitos de hardware se centran en los nodos del servidor de archivos en lugar de en los nodos de Hyper-V. La siguiente configuración de hardware se usa en CPS para el almacenamiento de copia de seguridad y de producción. El hardware general se usa tanto para el almacenamiento de copia de seguridad como para el almacenamiento de producción, pero el número de unidades enumeradas en los gabinetes de unidad solo son los usados para la copia de seguridad.

    • Clúster de servidores de archivos de escalabilidad horizontal de cuatro nodos

    • Configuración por nodo

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 núcleos, 16 procesadores lógicos

      • Memoria RDIMM de 128 GB a 1333 MHz

      • Conexiones de almacenamiento: 2 puertos de SAS, 1 puerto de 10 GbE iWarp/RDMA

    • Cuatro gabinetes de unidades JBOD

      • 18 discos en cada JBOD: 16 x 4 TB HDD + 2 SSD de 800 GB

      • Ruta de acceso dual a cada unidad: directiva de equilibrio de carga de ruta de E/S múltiple establecida solo en conmutación por error

      • SSD configurados para la caché con reescritura (WBC) y el resto de unidades de diario dedicadas

Configurar los volúmenes de desduplicación

Veamos qué tamaño deben tener los volúmenes para admitir los archivos VHDX desduplicados que contienen datos DPM. En CPS, hemos creado volúmenes de 7,2 TB cada uno. El tamaño óptimo del volumen depende principalmente de la cantidad y la frecuencia de los cambios de volumen y de la capacidad de proceso del acceso a datos del subsistema de almacenamiento del disco. Es importante tener en cuenta que si el procesamiento de la desduplicación no puede mantenerse al día con la tasa de cambios diarios de datos (la renovación), la tasa de ahorro se eliminará hasta que se pueda completar el procesamiento. Para obtener información más detallada, consulte Ajuste de tamaño de volúmenes para desduplicación de datos. Se recomiendan las siguientes directrices generales para volúmenes de desdup:

  • Usar espacios de almacenamiento de paridad con reconocimiento de contenedores de almacenamiento y mayor uso del disco.

  • Formatee NTFS con unidades de asignación de 64 KB y segmentos de registro de archivos grandes para funcionar mejor con el uso de desdup de archivos dispersos.

  • En la configuración de hardware anterior al tamaño de volumen recomendado de 7,2 TB, los volúmenes se configurarán de la siguiente manera:

    • Paridad dual compatible con el gabinete de 7,2 TB + caché de reescritura de 1 GB

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (el rendimiento de paridad dual en intercalación de 64 KB es mucho menor que en la intercalación predeterminada de 256 KB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Large FRS

      Configure un nuevo disco virtual en el bloque de almacenamiento especificado como sigue:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Cada uno de estos volúmenes debe formatearse como:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      En la implementación de CPS, se configuran luego como CSV.

    • Dentro de estos volúmenes, DPM almacenará una serie de archivos VHDX para almacenar los datos de copia de seguridad. Habilite la desduplicación en el volumen después de aplicar el formato siguiente:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Este comando también modifica la siguiente configuración de desdup de nivel de volumen:

      • Definición de UsageType en HyperV: esto provoca que la desduplicación procese archivos abiertos, que son necesarios porque los archivos VHDX que DPM utiliza para el almacenamiento de copia de seguridad permanecen abiertos con DPM ejecutándose en su máquina virtual.

      • Deshabilitar PartialFileOptimization: esto hace que el desdup optimice todas las secciones de un archivo abierto en lugar de buscar secciones modificadas con una antigüedad mínima.

      • Establecimiento del parámetro MinFileAgeDays en 0: con PartialFileOptimization deshabilitado, MinFileAgeDays cambia su comportamiento para que la desduplicación solo considere los archivos que no han cambiado en esa cantidad de días. Puesto que deseamos que la desduplicación comience a procesar los datos de copia de seguridad de todos los archivos VHDX de DPM sin demora, es necesario establecer MinFileAgeDays en 0.

Para obtener más información sobre cómo configurar la desduplicación, consulte Instalación y configuración de la duplicación de datos.

Configuración del almacenamiento DPM

Para evitar problemas de fragmentación y mantener el nivel de eficacia, el almacenamiento DPM se asigna mediante archivos VHDX que residen en los volúmenes desduplicados. Cada uno de los diez archivos VHDX dinámicos de 1 TB se crean en cada volumen y se adjuntan a DPM. Además, se realizan 3 TB de sobreaprovisionamiento del almacenamiento para aprovechar los ahorros de almacenamiento generados por desduplicación. A medida que la desdup genera ahorros de almacenamiento adicionales, se pueden crear nuevos archivos VHDX en estos volúmenes para consumir el espacio guardado. Hemos probado el servidor DPM con hasta 30 archivos VHDX adjuntos.

  1. Ejecute el siguiente comando para crear discos duros virtuales que se agregarán más adelante al servidor DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Luego agregue los discos duros virtuales creados al servidor DPM como se indica a continuación:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    En este paso se configura un grupo de almacenamiento como el disco o los discos en los que DPM almacena réplicas y puntos de recuperación para datos protegidos. Este bloque forma parte de la configuración de DPM y es independiente del grupo de espacios de almacenamiento utilizado para crear los volúmenes de datos descritos en la sección anterior. Para más información sobre los grupos de almacenamiento de DPM, consulte Configuración del almacenamiento en disco y los grupos de almacenamiento.

Configurar el clúster de servidor de archivos de Windows

La desduplicación requiere un conjunto especial de opciones de configuración para admitir el almacenamiento DPM virtualizado debido a la escala de los datos y al tamaño de los archivos individuales. Estas opciones son globales para el clúster o el nodo de clúster. La desduplicación debe estar habilitada y la configuración del clúster debe definirse individualmente en cada nodo del clúster.

  1. Habilitar la desduplicación en el almacenamiento del servidor de archivos de Windows: el rol Desduplicación debe estar instalado en todos los nodos del clúster de servidor de archivos de Windows. Para ello, ejecute el siguiente comando de PowerShell en cada nodo del clúster:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ajuste del procesamiento de desdup para los archivos de datos de copia de seguridad: ejecute el siguiente comando de PowerShell para establecer la optimización de inicio sin retraso y no para optimizar las escrituras parciales de archivos. De forma predeterminada, los trabajos de recolección de elementos no utilizados (GC) se programan cada semana y cada cuarta semana, el trabajo de GC se ejecuta en modo "GC profundo" para obtener una búsqueda más exhaustiva y con un tiempo intensivo de los datos que se van a quitar. En el caso de la carga de trabajo DPM, este modo de "GC profundo" no da lugar a ganancias apreciativas y reduce la cantidad de tiempo en el que el desdup puede optimizar los datos. Por lo tanto, deshabilitaremos este modo profundo.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Ajuste el rendimiento de las operaciones a gran escala: ejecute el siguiente script de PowerShell para:

    • Deshabilitar el procesamiento adicional y la E/S cuando se ejecuta la recolección de elementos no utilizados en profundidad

    • Reservar memoria adicional para el procesamiento de hash

    • Habilitar la optimización de prioridad para permitir la desfragmentación inmediata de archivos grandes

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Esta configuración modifica lo siguiente:

    • HashIndexFullKeyReservationPercent: este valor controla la cantidad de memoria del trabajo de optimización que se usa para los hashes de fragmentos existentes frente a los nuevos hashes de fragmentos. A gran escala, un 70% da como resultado un mayor rendimiento de optimización que el valor predeterminado de 50%.

    • EnablePriorityOptimization: con archivos que se aproximan a 1 TB, la fragmentación de un único archivo puede acumular suficientes fragmentos para aproximarse al límite por archivo. El procesamiento de optimización consolida estos fragmentos y evita que se alcanza este límite. Al establecer esta clave del registro, la desduplicación agregará un proceso adicional para tratar los archivos desduplicados muy fragmentados con prioridad alta.

Configurar la programación de desduplicación y DPM

Las operaciones de copia de seguridad y desduplicación consumen una gran cantidad de E/S. Si fueran a ejecutarse al mismo tiempo, una sobrecarga adicional para cambiar entre las operaciones podría ser costosa y provocar una disminución de los datos desduplicados o de los que se crea una copia de seguridad diariamente. Se recomienda que configurar franjas de copia de seguridad y desduplicación dedicadas e independientes. Esto ayuda a garantizar que el tráfico de E/S para cada una de estas operaciones se distribuye eficazmente durante el funcionamiento diario del sistema. Las instrucciones recomendadas para la programación son:

  • Dividir los días en franjas de copia de seguridad y desduplicación que no se solapen.

  • Configurar programaciones de copia de seguridad personalizadas.

  • Configurar programaciones de desduplicación personalizadas.

  • Programar la optimización en la franja de desduplicación diaria.

  • Configurar las programaciones de desduplicación del fin de semana por separado, usando esa hora para la recopilación de elementos no utilizados y los trabajos de limpieza.

Puede configurar programaciones DPM con el siguiente comando de PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

En esta configuración, DPM está configurado para realizar copias de seguridad de máquinas virtuales entre las 22:00 y las 6:00. La desduplicación está programada para las 16 horas restantes del día. El tiempo de desdup real que configure dependerá del tamaño del volumen. Para obtener más información, consulte Sizing Volumes for Data Desduplication(Tamaño de volúmenes para desduplicación de datos). Una franja de desduplicación de 16 horas que empieza a las 6:00 a. m. cuando termina la franja de copia de seguridad se puede configurar como se indica a continuación desde cualquier nodo de clúster individual:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Cada vez que se modifica la ventana de copia de seguridad, es fundamental que la ventana de desduplicación se modifique junto con ella para que no se superpongan. La ventana de desduplicación y copia de seguridad no tienen que rellenar las 24 horas completas del día; Sin embargo, se recomienda encarecidamente permitir variaciones en el tiempo de procesamiento debido a los cambios diarios esperados en las cargas de trabajo y la renovación de datos.

Implicaciones del rendimiento de la copia de seguridad

Una vez desduplicado un conjunto de archivos, puede haber un ligero costo de rendimiento al acceder a los archivos. Esto se debe al procesamiento adicional necesario para acceder al formato de archivo utilizado por los archivos desduplicados. En este escenario, los archivos son un conjunto de archivos VHDX que experimentan el uso continuo por parte de DPM durante la franja de copia de seguridad. El efecto de tener estos archivos desduplicados significa que las operaciones de copia de seguridad y recuperación pueden ser ligeramente más lentas que sin desduplicación. Como sucede con cualquier producto de copia de seguridad, DPM es una carga de trabajo de escritura intensiva, en que las operaciones de lectura son más importantes durante las operaciones de restauración. Las recomendaciones para afrontar las implicaciones del rendimiento de la copia de seguridad debido a la desduplicación son:

  • Operaciones de lectura/restauración: los efectos en las operaciones de lectura son normalmente insignificantes y no requieren ninguna consideración especial, puesto que la característica de desduplicación almacena en caché los fragmentos desduplicados.

  • Operaciones de escritura y copia de seguridad: planee un aumento del tiempo de copia de seguridad del 5 al 10 % al definir la ventana de copia de seguridad. (Esto es un aumento en comparación con el tiempo de copia de seguridad previsto al escribir en volúmenes no desduplicados).

monitoring

La desduplicación de datos y DPM puede supervisarse para garantizar que:

  • El espacio en disco es suficiente para almacenar los datos de copia de seguridad

  • Los trabajos de copia de seguridad de DPM se completan con normalidad

  • La desduplicación se habilita en los volúmenes de copia de seguridad

  • Las programaciones de desduplicación se han establecido correctamente

  • El procesamiento de desduplicación se completa con normalidad diariamente

  • El porcentaje de ahorro de desduplicación coincide con los supuestos realizados para la configuración del sistema

El éxito de la desduplicación depende de las capacidades de hardware generales del sistema (incluyendo la velocidad de procesamiento de la CPU, el ancho de banda de E/S y la capacidad de almacenamiento), la configuración correcta del sistema, la carga media del sistema y la cantidad de datos modificados diariamente.

DPM se puede supervisar mediante la Consola central de DPM. Consulte Instalación de la Consola central.

Puede supervisar la desdup para comprobar el estado de desdup, la tasa de ahorro y el estado de programación mediante los siguientes comandos de PowerShell:

Obtener estado:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Obtener ahorro:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Obtener el estado de la programación mediante el cmdlet Get-DedupSchedule.

Supervisión de eventos

La supervisión del registro de eventos puede ayudar a comprender el estado y los eventos de desduplicación.

  • Para ver los eventos de desduplicación, en el Explorador de archivos, vaya a Registros de aplicaciones y serviciosMicrosoftWindowsDesduplicación.

  • Si el valor LastOptimizationResult = 0x00000000 aparece en los resultados de Windows PowerShell Get-DedupStatus |fl, el trabajo de optimización anterior procesó todo el conjunto de datos. De lo contrario, el sistema no pudo completar el procesamiento de desduplicación y es posible que desee comprobar las opciones de configuración como, por ejemplo, el tamaño del volumen.

Para obtener ejemplos de cmdlet detallados, consulte Monitor and Report for Data Deduplication (Supervisión e informes de desduplicación de datos.

Supervisión del almacenamiento de copia de seguridad

En nuestro ejemplo de configuración, los volúmenes de 7,2 TB se rellenan con 10 TB de datos "lógicos" (el tamaño de los datos cuando no se desduplica) almacenados en archivos VHDX dinámicos de 10 x 1 TB. Dado que estos archivos acumulan datos de copia de seguridad adicionales, rellenan el volumen lentamente. Si el porcentaje de ahorro resultante de la desduplicación es lo suficientemente alto, los 10 archivos podrán alcanzar su tamaño lógico máximo y seguirán cabendo en el volumen de 7,2 TB (posiblemente incluso haya espacio adicional para asignar archivos VHDX adicionales para que los servidores DPM los usen). Pero si el ahorro de tamaño de la desduplicación no es suficiente, el espacio en el volumen podría agotarse antes de que los archivos VHDX alcancen su tamaño lógico completo y el volumen estará lleno. Para evitar que los volúmenes se llenen, se recomienda lo siguiente:

  • Ser conservador en los requisitos de tamaño de volumen y dejar algún exceso de almacenamiento. Se recomienda permitir un búfer de al menos un 10 % al planear el uso del almacenamiento de copia de seguridad para permitir variaciones esperadas en el ahorro de desduplicación y la renovación de datos.

  • Supervisar los volúmenes utilizados para el almacenamiento de copia de seguridad a fin de garantizar que los porcentajes de uso de espacio y ahorro de la desduplicación se encuentran dentro de los niveles previstos.

Si el volumen se llena, se producirán los siguientes síntomas:

  • La máquina virtual DPM se colocará en un estado crítico de pausa y la máquina virtual no podrá emitir más trabajos de copia de seguridad.

  • Se producirá un error en todos los trabajos de copia de seguridad que utilicen los archivos VHDX del volumen completo.

Para recuperarse de esta condición y restaurar el sistema a un funcionamiento normal, se puede aprovisionar almacenamiento adicional y se puede realizar una migración de almacenamiento de la máquina virtual DPM o de su VHDX para liberar espacio:

  1. Detenga el servidor DPM que posee los archivos VHDX en el recurso compartido de copia de seguridad completa.

  2. Cree un volumen adicional y un recurso compartido de copia de seguridad con la misma configuración que los recursos compartidos existentes, incluidas las opciones para NTFS y desduplicación.

  3. Migre El almacenamiento de la máquina virtual del servidor DPM y migre al menos un archivo VHDX desde el recurso compartido de copia de seguridad completo al nuevo recurso compartido de copia de seguridad creado en el paso 2.

  4. Ejecute un trabajo de recopilación de elementos no utilizados (GC) de desduplicación de datos en el recurso compartido copia de seguridad de origen que estaba lleno. El trabajo de GC debe realizarse correctamente y recuperar el espacio libre.

  5. Reinicie la máquina virtual del servidor DPM.

  6. Se desencadenará un trabajo de comprobación de coherencia de DPM durante la siguiente ventana de copia de seguridad para todos los orígenes de datos que han producido un error anteriormente.

  7. Todos los trabajos de copia de seguridad deberían realizarse ahora correctamente.

Resumen

La combinación de desduplicación y DPM proporciona un ahorro de espacio considerable. Esto permite mayores tasas de retención, copias de seguridad más frecuentes y un TCO mejorado para la implementación de DPM. La orientación y las recomendaciones de este documento deben proporcionarle las herramientas y los conocimientos necesarios para configurar la desduplicación para el almacenamiento de DPM, así como para descubrir las ventajas por sí mismo en su propia implementación.

Preguntas frecuentes

Q: Los archivos VHDX de DPM deben tener un tamaño de 1 TB. ¿Esto significa que DPM no puede realizar una copia de seguridad de una máquina virtual o de una base de datos sql o una base de datos SQL o un volumen de archivos de tamaño > de 1 TB?

R: No. DPM acumula varios volúmenes en uno para almacenar las copias de seguridad. Por lo tanto, el tamaño de archivo de 1 TB no tiene ninguna implicación en los tamaños de origen de datos de los que DPM puede realizar una copia de seguridad.

P: Parece que los archivos VHDX de almacenamiento DPM deben implementarse solamente en recursos compartidos de archivos SMB remotos. ¿Qué sucederá si almaceno los archivos VHDX de copia de seguridad en volúmenes habilitados para la desduplicación en el mismo sistema donde se está ejecutando la máquina virtual DPM?

Un: Como se ha explicado anteriormente, DPM, Hyper-V y desdup son operaciones de almacenamiento y proceso intensivo. La combinación de las tres en un único sistema puede dar lugar a operaciones de E/S y de proceso intensivos que pueden estrellar Hyper-V y sus máquinas virtuales. Si decide experimentar con la configuración de DPM en una máquina virtual con los volúmenes de almacenamiento de copia de seguridad en la misma máquina, debe supervisar el rendimiento cuidadosamente para asegurarse de que hay suficiente ancho de banda de E/S y capacidad de proceso para mantener las tres operaciones en la misma máquina.

P: Se recomienda configurar ventanas de copia de seguridad y desduplicación dedicadas e independientes. ¿Por qué no puedo habilitar la desduplicación mientras DPM realiza copias de seguridad? Necesito realizar la copia de seguridad de mi base de datos SQL cada 15 minutos.

Un: Dedup y DPM son operaciones intensivas en almacenamiento y tener ambos ejecutándose al mismo tiempo puede ser ineficaz y provocar un colapso de E/S. Por lo tanto, para proteger las cargas de trabajo más de una vez al día (por ejemplo, SQL Server cada 15 minutos) y para habilitar la desdup al mismo tiempo, asegúrese de que haya suficiente ancho de banda de E/S y capacidad de equipo para evitar el colapso de los recursos.

P: Según la configuración descrita, DPM debe ejecutarse en una máquina virtual. ¿Por qué no puedo habilitar la desduplicación en el volumen de réplica y los volúmenes de instantáneas directamente en lugar de en archivos VHDX?

R: La desduplicación se realiza por volumen operativo en archivos individuales. Dado que el desdup se optimiza en el nivel de archivo, no está diseñado para admitir la tecnología VolSnap que DPM usa para almacenar sus datos de copia de seguridad. Al ejecutar DPM en una máquina virtual, Hyper-V asigna las operaciones de volumen DPM en el nivel de archivo VHDX, lo que permite que la desduplicación optimice los datos de copia de seguridad y proporcione un mayor ahorro de almacenamiento.

Q: La configuración de ejemplo anterior solo ha creado volúmenes de 7,2 TB. ¿Puedo crear volúmenes mayores o menores?

R: La desduplicación ejecuta un subproceso por volumen. Dado que el tamaño del volumen es mayor, la desduplicación requiere más tiempo para completar su optimización. Por otro lado, con volúmenes pequeños, hay menos datos en los que encontrar fragmentos duplicados, lo que puede dar lugar a un ahorro reducido. Por lo tanto, es aconsejable ajustar el tamaño del volumen en función de la renovación total y las capacidades de hardware del sistema para un ahorro óptimo. Para obtener más información acerca de cómo determinar los tamaños de los volúmenes con la desduplicación, consulte Sizing Volumes for Deduplication in Windows Server (Definición del tamaño de los volúmenes para la desduplicación en Windows Server). Para obtener información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación, consulte Tamaño de volúmenes para desduplicación de datos.