Compartir a través de


Desduplicar almacenamiento DPM

System Center Administrador de protección de datos (DPM) puede usar desduplicación de datos.

La desduplicación de datos (dedup) busca y quita datos duplicados en un volumen al tiempo que garantiza la corrección e integridad de esos datos. Obtenga más información sobre el planeamiento de desduplicación.

  • Desdup reduce el consumo de almacenamiento. Aunque la cantidad de redundancia de un conjunto de datos dependerá de la carga de trabajo y del tipo de datos, normalmente los datos de copia de seguridad muestran un ahorro seguro cuando se usa la desdup.

  • La redundancia de datos se puede reducir aún más con la desdup cuando se procesan juntos los datos de copia de seguridad de tipos y cargas de trabajo similares.

  • Desdup está diseñado para instalarse en volúmenes de datos principales sin hardware dedicado adicional para que no afecte a la carga de trabajo principal en el servidor. La configuración predeterminada no esintrusive, ya que permiten que los datos tengan una antigüedad durante cinco días antes de procesar un archivo determinado y tengan un tamaño de archivo mínimo predeterminado de 32 KB. La implementación está diseñada para un uso bajo de memoria y CPU.

  • La desdup se puede implementar en las siguientes cargas de trabajo:

    • Recursos compartidos de archivos generales: publicación y uso compartido de contenido de grupo, carpetas principales de usuario y redirección de carpetas y archivos sin conexión

    • Recursos compartidos de implementación de software: archivos binarios, imágenes y actualizaciones de software

    • Bibliotecas de VHD: almacenamiento de archivos en discos duros virtuales (VHD) para el aprovisionamiento de hipervisores

    • Implementaciones de VDI (solo Windows Server 2012 R2): implementaciones de Infraestructura de escritorio virtual (VDI) mediante Hyper-V

    • Copia de seguridad virtualizada: soluciones de copia de seguridad (como DPM que se ejecutan en una máquina virtual de Hyper-V) que guardan los datos de copia de seguridad en archivos VHD/VHDX en un servidor de archivos de Windows

DPM y desdup

El uso de desdup con DPM puede dar lugar a grandes ahorros. La cantidad de espacio guardado por desdup al optimizar los datos de copia de seguridad de DPM varía en función del tipo de datos de los que se realiza una copia de seguridad. Por ejemplo, una copia de seguridad de un servidor de base de datos cifrado puede dar lugar a un ahorro mínimo, ya que el proceso de cifrado oculta los datos duplicados. Sin embargo, la copia de seguridad de una implementación de Infraestructura de escritorio virtual (VDI) grande puede dar lugar a grandes ahorros en el intervalo de 70-90+%, ya que normalmente hay una gran cantidad de duplicación de datos entre los entornos de escritorio virtual. En la configuración descrita en el artículo, hemos ejecutado varias cargas de trabajo de prueba y hemos visto ahorros entre el 50 % y el 90 %.

Para usar la desdup para el almacenamiento DPM, DPM debe ejecutarse en una máquina virtual de Hyper-V y almacenar los datos de copia de seguridad en discos duros virtuales en carpetas compartidas con la desdup de datos habilitada.

Para implementar DPM como una máquina virtual que realiza una copia de seguridad de los datos en un volumen de desdupl, se recomienda la siguiente topología de implementación:

  • DPM que se ejecuta en una máquina virtual en un clúster de hosts de Hyper-V.

  • Almacenamiento DPM mediante archivos VHD/VHDX almacenados en un recurso compartido SMB 3.0 en un servidor de archivos.

  • Para nuestro ejemplo de prueba, se configuró el servidor de archivos como un servidor de archivos de escala horizontal (SOFS) implementado con volúmenes de almacenamiento configurados desde grupos de espacios de almacenamiento creados con unidades SAS de conexión directa. Esta implementación garantiza el rendimiento a escala.

Observe lo siguiente:

  • Esta implementación es compatible con DPM 2012 R2 y versiones posteriores y para todos los datos de carga de trabajo de los que DPM 2012 R2 y versiones posteriores pueden realizar copias de seguridad.

  • Todos los nodos de Windows File Server en los que residen los discos duros virtuales DPM y en los que se habilitará la desdup deben ejecutar Windows Server 2012 R2 con el paquete acumulativo de actualizaciones de noviembre de 2014 o posterior.

  • Proporcionaremos recomendaciones generales e instrucciones para la implementación del escenario. Cada vez que se proporcionan ejemplos específicos del hardware, el hardware implementado en el sistema de plataforma en la nube (CPS) de Microsoft se usa como referencia.

  • Este ejemplo usa recursos compartidos de SMB 3.0 para almacenar los datos de copia de seguridad, por lo que los principales requisitos de hardware se centran en los nodos del servidor de archivos en lugar de en los nodos de Hyper-V. La siguiente configuración de hardware se usa en CPS para el almacenamiento de copia de seguridad y producción. El hardware general se usa para el almacenamiento de copia de seguridad y producción, pero el número de unidades enumeradas en los gabinetes de unidades solo son los usados para la copia de seguridad.

    • Clúster de servidor de archivos de Escalabilidad horizontal de cuatro nodos

    • Configuración por nodo

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 núcleos, 16 procesadores lógicos

      • Memoria RDIMM de 1333 GB de 128 GB

      • Conexiones de almacenamiento: 2 puertos de SAS, 1 puerto de 10 GbE iWarp/RDMA

    • Cuatro gabinetes de unidad JBOD

      • 18 Discos en cada JBOD: 16 x 4 TB hdD + 2 SSD de 800 GB

      • Ruta de acceso dual a cada unidad: directiva de equilibrio de carga de ruta de E/S múltiple establecida solo en conmutación por error

      • SSD configurados para la caché con reescritura (WBC) y el resto de unidades de diario dedicadas

Configuración de volúmenes de desdup

Veamos cómo los grandes volúmenes deben ser compatibles con los archivos VHDX desduplicados que contienen datos DPM. En CPS, hemos creado volúmenes de 7,2 TB cada uno. El tamaño óptimo del volumen depende principalmente de la cantidad y la frecuencia con la que cambian los datos del volumen y de las tasas de rendimiento de acceso a datos del subsistema de almacenamiento en disco. Es importante tener en cuenta que si el procesamiento de desduplicación no puede mantenerse al día con la tasa de cambios diarios de datos (renovación), la tasa de ahorro se eliminará hasta que se pueda completar el procesamiento. Para obtener información más detallada, consulte Tamaño de volúmenes para desduplicación de datos. Se recomiendan las siguientes directrices generales para volúmenes de desdup:

  • Use parity Espacios de almacenamiento con reconocimiento del contenedor para lograr resistencia y un mayor uso de disco.

  • Dar formato a NTFS con unidades de asignación de 64 KB y segmentos de registros de archivos grandes para trabajar mejor con el uso de desdup de archivos dispersos.

  • En la configuración de hardware anterior al tamaño de volumen recomendado de 7,2 TB, los volúmenes se configurarán de la manera siguiente:

    • Paridad dual compatible con el gabinete de 7,2 TB + caché de reescritura de 1 GB

      • ResiliencySettingName == Parity

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (el rendimiento de paridad dual en intercalación de 64 KB es mucho menor que en la intercalación predeterminada de 256 KB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • FRS grandes

      Configure un nuevo disco virtual en el grupo de almacenamiento especificado de la siguiente manera:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Cada uno de estos volúmenes debe tener el formato siguiente:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      En la implementación de CPS, estos se configuran como CSV.

    • Dentro de estos volúmenes, DPM almacenará una serie de archivos VHDX para almacenar los datos de copia de seguridad. Habilite la desduplicación en el volumen después de aplicar el formato siguiente:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Este comando también modifica la siguiente configuración de desdup de nivel de volumen:

      • Establezca UsageType en HyperV: esto da como resultado el procesamiento de desdup de archivos abiertos, que son necesarios porque los archivos VHDX usados para el almacenamiento de copia de seguridad de DPM permanecen abiertos con DPM que se ejecuta en su máquina virtual.

      • Deshabilitar PartialFileOptimization: esto hace que el desdup optimice todas las secciones de un archivo abierto en lugar de buscar secciones modificadas con una antigüedad mínima.

      • Establezca el parámetro MinFileAgeDays en 0: con PartialFileOptimization deshabilitado, MinFileAgeDays cambia su comportamiento para que el desdup solo tenga en cuenta los archivos que no han cambiado en esos días. Dado que queremos desdup para comenzar a procesar los datos de copia de seguridad en todos los archivos VHDX de DPM sin ningún retraso, es necesario establecer MinFileAgeDays en 0.

Para obtener más información sobre cómo configurar la desduplicación, consulte Instalación y configuración de la duplicación de datos.

Configuración del almacenamiento DPM

Para evitar problemas de fragmentación y mantener la eficacia, el almacenamiento DPM se asigna mediante archivos VHDX que residen en los volúmenes desduplicados. Diez archivos VHDX dinámicos de 1 TB cada uno se crean en cada volumen y se adjuntan a DPM. Además, se realizan 3 TB de sobreaprovisionamiento del almacenamiento para aprovechar los ahorros de almacenamiento producidos por desdup. A medida que la desdup genera ahorros de almacenamiento adicionales, se pueden crear nuevos archivos VHDX en estos volúmenes para consumir el espacio guardado. Probamos el servidor DPM con hasta 30 archivos VHDX adjuntos.

  1. Ejecute el siguiente comando para crear discos duros virtuales que se agregarán más adelante al servidor DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. A continuación, se agregaron los discos duros virtuales creados al servidor DPM de la siguiente manera:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Este paso configura un grupo de almacenamiento como el disco o los discos en los que DPM almacena réplicas y puntos de recuperación para los datos protegidos. Este grupo forma parte de la configuración de DPM y es independiente del grupo de Espacios de almacenamiento que se usa para crear los volúmenes de datos descritos en la sección anterior. Para más información sobre los grupos de almacenamiento de DPM, consulte Configuración del almacenamiento en disco y los grupos de almacenamiento.

Configuración del clúster de Windows File Server

Desdup requiere un conjunto especial de opciones de configuración para admitir el almacenamiento DPM virtualizado debido a la escala de datos y el tamaño de los archivos individuales. Estas opciones son globales para el clúster o el nodo del clúster. La desdup debe estar habilitada y la configuración del clúster debe configurarse individualmente en cada nodo del clúster.

  1. Habilitar la desduplicación en el almacenamiento de Windows File Server: el rol Desduplicación debe instalarse en todos los nodos del clúster de Windows File Server. Para ello, ejecute el siguiente comando de PowerShell en cada nodo del clúster:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ajuste el procesamiento de desdup para los archivos de datos de copia de seguridad: ejecute el siguiente comando de PowerShell para establecer la optimización de inicio sin retraso y no para optimizar las escrituras parciales de archivos. De forma predeterminada, los trabajos de recolección de elementos no utilizados (GC) se programan cada semana y, cada cuarta semana, el trabajo de GC se ejecuta en modo "GC profundo" para una búsqueda más exhaustiva y con un tiempo intensivo de los datos que se van a quitar. En el caso de la carga de trabajo DPM, este modo de "GC profundo" no da lugar a mejoras apreciativas y reduce la cantidad de tiempo en el que el desdup puede optimizar los datos. Por lo tanto, deshabilitamos este modo profundo.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Ajuste el rendimiento de las operaciones a gran escala: ejecute el siguiente script de PowerShell para:

    • Deshabilitar el procesamiento adicional y la E/S cuando se ejecuta la recolección de elementos no utilizados profundos

    • Reserva de memoria adicional para el procesamiento hash

    • Habilitación de la optimización de prioridad para permitir la desfragmentación inmediata de archivos grandes

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Esta configuración modifica lo siguiente:

    • HashIndexFullKeyReservationPercent: este valor controla la cantidad de memoria del trabajo de optimización que se usa para los hashes de fragmentos existentes frente a los nuevos hashes de fragmentos. A gran escala, el 70 % da como resultado un mejor rendimiento de optimización que el valor predeterminado del 50 %.

    • EnablePriorityOptimization: con archivos que se aproximan a 1 TB, la fragmentación de un único archivo puede acumular suficientes fragmentos para aproximarse al límite por archivo. El procesamiento de optimización consolida estos fragmentos y evita que se alcance este límite. Al establecer esta clave del Registro, la desduplicación agregará un proceso adicional para tratar archivos desduplicados altamente fragmentados con prioridad alta.

Configuración de DPM y programación de desdup

Las operaciones de copia de seguridad y desduplicación consumen mucha E/S. Si se ejecutaran al mismo tiempo, la sobrecarga adicional para cambiar entre las operaciones podría ser costosa y provocar una copia de seguridad de menos datos o desduplicarse diariamente. Se recomienda configurar ventanas de desduplicación y copia de seguridad dedicadas y independientes. Esto ayuda a garantizar que el tráfico de E/S para cada una de estas operaciones se distribuya eficazmente durante la operación diaria del sistema. Las directrices recomendadas para la programación son:

  • Dividir días en ventanas de copia de seguridad y desdup no superpuestas.

  • Configurar programaciones de copia de seguridad personalizadas.

  • Configurar programaciones de desdup personalizadas.

  • Optimización de programación en la ventana de desdup diaria.

  • Configure las programaciones de desdup de fin de semana por separado, usando ese tiempo para la recolección de elementos no utilizados y los trabajos de limpieza.

Puede configurar programaciones de DPM con el siguiente comando de PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

En esta configuración, DPM está configurado para realizar copias de seguridad de máquinas virtuales entre las 10 p. m. y las 6:00. La desduplicación está programada para las 16 horas restantes del día. El tiempo de desdup real que configure dependerá del tamaño del volumen. Para obtener más información, consulte Tamaño de volúmenes para desduplicación de datos. Una ventana de desduplicación de 16 horas a partir de las 6 a.m. después de que finalice la ventana de copia de seguridad se configuraría como se indica a continuación desde cualquier nodo de clúster individual:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Cada vez que se modifica la ventana de copia de seguridad, es fundamental que la ventana de desduplicación se modifique junto con ella para que no se superpongan. La ventana de desduplicación y copia de seguridad no tienen que rellenar las 24 horas completas del día; Sin embargo, se recomienda encarecidamente permitir variaciones en el tiempo de procesamiento debido a los cambios diarios esperados en las cargas de trabajo y la renovación de datos.

Implicaciones para el rendimiento de la copia de seguridad

Una vez desduplicado un conjunto de archivos, puede haber un ligero costo de rendimiento al acceder a los archivos. Esto se debe al procesamiento adicional necesario para acceder al formato de archivo usado por los archivos desduplicados. En este escenario, los archivos son un conjunto de archivos VHDX que ven el uso continuo de DPM durante la ventana de copia de seguridad. El efecto de tener estos archivos desduplicados significa que las operaciones de copia de seguridad y recuperación pueden ser ligeramente más lentas que sin desduplicación. En cuanto a cualquier producto de copia de seguridad, DPM es una carga de trabajo intensiva de escritura con operaciones de lectura que son más importantes durante las operaciones de restauración. Las recomendaciones para abordar las implicaciones para el rendimiento de la copia de seguridad debido a la desduplicación son:

  • Operaciones de lectura/restauración: los efectos en las operaciones de lectura son normalmente insignificantes y no requieren ninguna consideración especial, puesto que la característica de desduplicación almacena en caché los fragmentos desduplicados.

  • Operaciones de escritura y copia de seguridad: planee un aumento del tiempo de copia de seguridad del 5 al 10 % al definir la ventana de copia de seguridad. (Este es un aumento en comparación con el tiempo de copia de seguridad esperado al escribir en volúmenes no desduplicados).

Supervisión

DPM y desduplicación de datos se pueden supervisar para asegurarse de que:

  • Se aprovisiona suficiente espacio en disco para almacenar los datos de copia de seguridad.

  • Los trabajos de copia de seguridad de DPM se completan normalmente

  • La desduplicación está habilitada en los volúmenes de copia de seguridad

  • Las programaciones de desduplicación se establecen correctamente

  • El procesamiento de desduplicación se completa normalmente a diario

  • La tasa de ahorro de desduplicación coincide con las suposiciones realizadas para la configuración del sistema

El éxito de la desduplicación depende de las funcionalidades generales del hardware del sistema (incluida la velocidad de procesamiento de CPU, el ancho de banda de E/S, la capacidad de almacenamiento), la configuración correcta del sistema, la carga media del sistema y la cantidad diaria de datos modificados.

Puede supervisar DPM mediante la consola central de DPM. Consulte Instalación de la consola central.

Puede supervisar la desdup para comprobar el estado de desdup, la tasa de ahorro y el estado de programación mediante los siguientes comandos de PowerShell:

Obtener el estado:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Obtener ahorros:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Obtenga el estado de la programación mediante el cmdlet Get-DedupSchedule.

Supervisión de eventos

La supervisión del registro de eventos puede ayudar a comprender los eventos y el estado de desduplicación.

  • Para ver los eventos de desduplicación, en Explorador de archivos, vaya a Registros de aplicaciones y servicios Desduplicación> de Microsoft>Windows.>

  • Si el valor LastOptimizationResult = 0x00000000 aparece en los resultados de Windows PowerShell Get-DedupStatus |fl, el trabajo de optimización anterior procesó todo el conjunto de datos. Si no es así, el sistema no pudo completar el procesamiento de desduplicación y es posible que quiera comprobar los valores de configuración, por ejemplo, el tamaño del volumen.

Para obtener ejemplos de cmdlets más detallados, consulte Supervisión e informe de desduplicación de datos.

Supervisión del almacenamiento de copia de seguridad

En nuestro ejemplo de configuración, los volúmenes de 7,2 TB se rellenan con 10 TB de datos "lógicos" (el tamaño de los datos cuando no se desduplica) almacenados en archivos VHDX dinámicos de 10 x 1 TB. A medida que estos archivos acumulan datos de copia de seguridad adicionales, rellenarán lentamente el volumen. Si el porcentaje de ahorro resultante de la desduplicación es lo suficientemente alto, los 10 archivos podrán alcanzar su tamaño lógico máximo y seguirán encajando en el volumen de 7,2 TB (posiblemente incluso haya espacio adicional para asignar archivos VHDX adicionales para que los servidores DPM los usen). Pero si el ahorro de tamaño de la desduplicación no es suficiente, el espacio en el volumen podría agotarse antes de que los archivos VHDX alcancen su tamaño lógico completo y el volumen estará lleno. Para evitar que los volúmenes se llenan, se recomienda lo siguiente:

  • Sea conservador en los requisitos de tamaño de volumen y permita un exceso de aprovisionamiento del almacenamiento. Se recomienda permitir un búfer de al menos un 10 % al planear el uso del almacenamiento de copia de seguridad para permitir variaciones esperadas en el ahorro de desduplicación y la renovación de datos.

  • Supervise los volúmenes usados para el almacenamiento de copia de seguridad para asegurarse de que la utilización del espacio y las tasas de ahorro de desduplicación se encuentran en los niveles esperados.

Si el volumen se llena, se producen los siguientes síntomas:

  • La máquina virtual DPM se colocará en un estado crítico para pausa y esa máquina virtual no podrá emitir más trabajos de copia de seguridad.

  • Se producirá un error en todos los trabajos de copia de seguridad que usan los archivos VHDX del volumen completo.

Para recuperarse de esta condición y restaurar el sistema a una operación normal, se puede aprovisionar almacenamiento adicional y se puede realizar una migración de almacenamiento de la máquina virtual DPM o su VHDX para liberar espacio:

  1. Detenga el servidor DPM que posee los archivos VHDX en el recurso compartido de copia de seguridad completo.

  2. Cree un volumen adicional y un recurso compartido de copia de seguridad con la misma configuración y configuración que se usa para los recursos compartidos existentes, incluida la configuración de NTFS y la desduplicación.

  3. Migre el almacenamiento de la máquina virtual del servidor DPM y migre al menos un archivo VHDX desde el recurso compartido de copia de seguridad completo al nuevo recurso compartido de copia de seguridad creado en el paso 2.

  4. Ejecute un trabajo de recolección de elementos no utilizados de desduplicación de datos (GC) en el recurso compartido de copia de seguridad de origen que estaba lleno. El trabajo de GC debe realizarse correctamente y reclamar el espacio libre.

  5. Reinicie la máquina virtual del servidor DPM.

  6. Se desencadenará un trabajo de comprobación de coherencia de DPM durante la siguiente ventana de copia de seguridad de todos los orígenes de datos que han producido un error anteriormente.

  7. Ahora todos los trabajos de copia de seguridad deben realizarse correctamente.

Resumen

La combinación de desduplicación y DPM proporciona ahorros de espacio considerables. Esto permite mayores tasas de retención, copias de seguridad más frecuentes y mejor TCO para la implementación de DPM. Las instrucciones y recomendaciones de este documento deben proporcionarle las herramientas y conocimientos para configurar la desduplicación para el almacenamiento DPM y ver las ventajas de su propia implementación.

Preguntas frecuentes

P: Los archivos VHDX de DPM deben tener un tamaño de 1 TB. ¿Esto significa que DPM no puede realizar una copia de seguridad de una máquina virtual o una base de datos sql o un volumen de archivos o base de datos SQL de tamaño > de 1 TB?

R: No. DPM agrega varios volúmenes en uno para almacenar copias de seguridad. Por lo tanto, el tamaño de archivo de 1 TB no tiene ninguna implicaciones para los tamaños de origen de datos de los que DPM puede realizar copias de seguridad.

P: Parece que los archivos VHDX de almacenamiento DPM deben implementarse solo en recursos compartidos de archivos SMB remotos. ¿Qué ocurrirá si almacene los archivos VHDX de copia de seguridad en volúmenes habilitados para desdup en el mismo sistema donde se ejecuta la máquina virtual DPM?

R: Como se ha explicado anteriormente, DPM, Hyper-V y desdup son operaciones de almacenamiento y proceso intensivo. Combinar los tres de ellos en un único sistema puede dar lugar a operaciones de E/S y proceso intensivo que pueden estrellar Hyper-V y sus máquinas virtuales. Si decide experimentar con la configuración de DPM en una máquina virtual con los volúmenes de almacenamiento de copia de seguridad en la misma máquina, debe supervisar el rendimiento cuidadosamente para asegurarse de que hay suficiente ancho de banda de E/S y capacidad de proceso para mantener las tres operaciones en la misma máquina.

P: Se recomienda la desduplicación y las ventanas de copia de seguridad dedicadas y independientes. ¿Por qué no puedo habilitar la desdup mientras DPM realiza la copia de seguridad? Necesito realizar una copia de seguridad de mi base de datos SQL cada 15 minutos.

R: Desdup y DPM son operaciones intensivas en almacenamiento y tener ambos ejecutándose al mismo tiempo puede ser ineficaz y provocar un colapso de E/S. Por lo tanto, para proteger las cargas de trabajo más de una vez al día (por ejemplo, SQL Server cada 15 minutos) y habilitar la desdup al mismo tiempo, asegúrese de que hay suficiente ancho de banda de E/S y capacidad de equipo para evitar el colapso de recursos.

P: En función de la configuración descrita, DPM debe ejecutarse en una máquina virtual. ¿Por qué no puedo habilitar la desdup en volúmenes de réplica y volúmenes de instantáneas directamente en lugar de en archivos VHDX?

R: Desduplicación realiza la desduplicación por volumen que funciona en archivos individuales. Dado que el desdup se optimiza en el nivel de archivo, no está diseñado para admitir la tecnología VolSnap que DPM usa para almacenar sus datos de copia de seguridad. Al ejecutar DPM en una máquina virtual, Hyper-V asigna las operaciones de volumen DPM al nivel de archivo VHDX, lo que permite la desdup para optimizar los datos de copia de seguridad y proporcionar un mayor ahorro de almacenamiento.

P: La configuración de ejemplo anterior solo ha creado volúmenes de 7,2 TB. ¿Puedo crear volúmenes más grandes o más pequeños?

R: Desdup ejecuta un subproceso por volumen. A medida que el tamaño del volumen aumenta, el desdup requiere más tiempo para completar su optimización. Por otro lado, con volúmenes pequeños, hay menos datos en los que encontrar fragmentos duplicados, lo que puede dar lugar a un ahorro reducido. Por lo tanto, es aconsejable ajustar el tamaño del volumen en función de la renovación total y las funcionalidades de hardware del sistema para un ahorro óptimo. Puede encontrar información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación en Tamaño de volúmenes para desduplicación en Windows Server. Para obtener información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación, consulte Tamaño de volúmenes para desduplicación de datos.