Desduplicar el almacenamiento de DPM
Administrador de protección de datos (DPM) de System Center puede usar desduplicación de datos.
La desduplicación de datos (dedup) busca y quita datos duplicados en un volumen al tiempo que garantiza la corrección e integridad de esos datos. Obtén más información sobre el planeamiento de desduplicación.
Desduplicación reduce el consumo de almacenamiento. Aunque la cantidad de redundancia de un conjunto de datos dependerá de la carga de trabajo y del tipo de datos, normalmente los datos de copia de seguridad muestran un ahorro seguro cuando se usa la desduplicación.
La redundancia de datos se puede reducir aún más con la desduplicación cuando se procesan juntos los datos de copia de seguridad de tipos y cargas de trabajo similares.
Desduplicación está pensada para instalarse en volúmenes de datos principales sin hardware dedicado adicional para que no afecte a la carga de trabajo principal en el servidor. La configuración predeterminada es no intrusiva porque permite que los datos alcancen una antigüedad de cinco días antes de procesar un archivo determinado, y tiene un tamaño mínimo de archivo predeterminado de 32 KB. La implementación está diseñada para un uso bajo de memoria y CPU.
La desduplicación se puede implementar en las siguientes cargas de trabajo:
Recursos compartidos de archivos generales: publicación y uso compartido de contenido de grupo, carpetas principales de usuario y redirección de carpetas y archivos sin conexión
Recursos compartidos de implementación de software: archivos binarios, imágenes y actualizaciones de software
Bibliotecas de VHD: almacenamiento de archivos en discos duros virtuales (VHD) para el aprovisionamiento de hipervisores
Implementaciones de VDI (solo Windows Server 2012 R2): implementaciones de Infraestructura de escritorio virtual (VDI) mediante Hyper-V
Copia de seguridad virtualizada: soluciones de copia de seguridad (como DPM que se ejecutan en una máquina virtual de Hyper-V) que guardan los datos de copia de seguridad en archivos VHD/VHDX en un servidor de archivos de Windows
DPM y desduplicación
El uso de la desduplicación con DPM puede dar lugar a grandes ahorros. La cantidad de espacio guardado por desduplicación al optimizar los datos de copia de seguridad de DPM varía en función del tipo de datos de los que se realiza una copia de seguridad. Por ejemplo, una copia de seguridad de un servidor de bases de datos cifrado puede dar lugar a un ahorro mínimo, ya que el proceso de cifrado oculta los datos duplicados. Sin embargo, la copia de seguridad de una implementación de infraestructura de escritorio virtual (VDI) de gran tamaño puede dar como resultado un gran ahorro en el intervalo del 70 % a más del 90 %, ya que suele haber una gran cantidad de duplicación de datos entre los entornos de escritorio virtuales. En la configuración descrita en el artículo, hemos ejecutado varias cargas de trabajo de prueba y hemos visto ahorros de entre el 50 % y el 90 %.
Para usar la desduplicación en el almacenamiento de DPM, DPM debe ejecutar una máquina virtual Hyper-V y almacenar los datos de la copia de seguridad en VHD ubicados en carpetas compartidas con la desduplicación de datos habilitada.
Implementación recomendada
Para implementar DPM como una máquina virtual que realiza una copia de seguridad de los datos en un volumen de desduplicación, se recomienda la siguiente topología de implementación:
DPM que se ejecuta en una máquina virtual en un clúster de hosts de Hyper-V.
Almacenamiento DPM mediante archivos VHD/VHDX almacenados en un recurso compartido SMB 3.0 en un servidor de archivos.
Para nuestro ejemplo de prueba, se configuró el servidor de archivos como un servidor de archivos de escala horizontal (SOFS) implementado con volúmenes de almacenamiento configurados desde grupos de espacios de almacenamiento creados con unidades SAS de conexión directa. Esta implementación garantiza el rendimiento a escala.
Observe lo siguiente:
Esta implementación es compatible con DPM 2012 R2 y versiones posteriores y para todos los datos de carga de trabajo de los que DPM 2012 R2 y versiones posteriores pueden realizar copias de seguridad.
Todos los nodos del servidor de archivos de Windows en los que residen los discos duros virtuales DPM y en los que se habilitará la desduplicación deben ejecutar Windows Server 2012 R2 con el paquete acumulativo de actualizaciones de noviembre de 2014 o posterior.
Proporcionaremos recomendaciones generales e instrucciones para la implementación del escenario. Cada vez que se proporcionan ejemplos específicos del hardware, el hardware implementado en el sistema de plataforma de Microsoft Cloud (CPS) se usa como referencia.
Este ejemplo usa recursos compartidos de SMB 3.0 para almacenar los datos de copia de seguridad, por lo que los principales requisitos de hardware se centran en los nodos del servidor de archivos en lugar de en los nodos de Hyper-V. La siguiente configuración de hardware se usa en CPS para el almacenamiento de copia de seguridad y producción. El hardware general se usa para el almacenamiento de copia de seguridad y producción, pero el número de unidades enumeradas en los gabinetes de unidades solo son los usados para la copia de seguridad.
Clúster de servidores de archivos de escalabilidad horizontal de cuatro nodos
Por configuración de nodo
2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00 GHz, 2001 MHz, 8 núcleos, 16 procesadores lógicos
Memoria RDIMM de 1333 MHz de 128 GB
Conexiones de almacenamiento: 2 puertos de SAS, 1 puerto de 10 GbE iWarp/RDMA
Cuatro gabinetes de unidad JBOD
18 discos en cada JBOD: 16 HDD de 4 TB + 2 SSD de 800 GB
Ruta de acceso dual a cada unidad: directiva de equilibrio de carga de ruta de E/S múltiple establecida solo en conmutación por error
SSD configurados para la caché con reescritura (WBC) y el resto de unidades de diario dedicadas
Configurar volúmenes de desduplicación
Veamos cómo los grandes volúmenes deben ser compatibles con los archivos VHDX desduplicados que contienen datos DPM. En CPS, hemos creado volúmenes de 7,2 TB cada uno. El tamaño óptimo del volumen depende principalmente de la cantidad y la frecuencia con la que cambian los datos del volumen y de las tasas de rendimiento de acceso a datos del subsistema de almacenamiento en disco. Es importante tener en cuenta que si el procesamiento de la desduplicación no puede mantener la capacidad de cambios de datos diarios (el abandono), el porcentaje de ahorro disminuirá hasta que se pueda completar el procesamiento. Para más información, consulta Dimensionamiento de volúmenes para desduplicación de datos. Se recomiendan las siguientes directrices generales para volúmenes de desduplicación:
Usa espacios de almacenamiento de paridad con reconocimiento del contenedor para lograr resistencia y un mayor uso de disco.
Da formato NTFS con unidades de asignación de 64 KB y segmentos de registros de archivos grandes para trabajar mejor con el uso de desduplicación de archivos dispersos.
En la configuración de hardware superior al tamaño de volumen recomendado de 7,2 TB, los volúmenes se configurarán de la manera siguiente:
Paridad dual con reconocimiento de contenedor de almacenamiento de 7,2 TB + caché de escritura diferida de 1 GB
ResiliencySettingName == Parity
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256 KB (el rendimiento de paridad dual en intercalación de 64 KB es mucho menor que en la intercalación predeterminada de 256 KB)
IsEnclosureAware == $true
AllocationUnitSize=64 KB
FRS grandes
Configura un nuevo disco virtual en el bloque de almacenamiento especificado de la siguiente manera:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Cada uno de estos volúmenes debe tener el formato siguiente:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
En la implementación de CPS, estos se configuran como CSV.
Dentro de estos volúmenes, DPM almacenará una serie de archivos VHDX para retener los datos de copia de seguridad. Habilita la desduplicación en el volumen después de aplicar el formato siguiente:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Este comando también modifica la siguiente configuración de desduplicación de nivel de volumen:
Establece Tipo de uso en HyperV: esto da como resultado el procesamiento de desduplicación de archivos abiertos, que son necesarios porque los archivos VHDX usados para el almacenamiento de copia de seguridad de DPM permanecen abiertos con DPM que se ejecuta en su máquina virtual.
Deshabilita PartialFileOptimization: esto hace que la desduplicación optimice todas las secciones de un archivo abierto en lugar de buscar secciones modificadas con una antigüedad mínima.
Establece el parámetro MinFileAgeDays en 0: con PartialFileOptimization deshabilitado, MinFileAgeDays cambia su comportamiento para que la desduplicación solo tenga en cuenta los archivos que no han cambiado en muchos días. Dado que queremos que la desduplicación comience a procesar los datos de copia de seguridad en todos los archivos VHDX de DPM sin ningún retraso, es necesario establecer MinFileAgeDays en 0.
Para obtener más información, consulta Instalación y configuración de duplicación de datos.
Configuración de almacenamiento DPM
Para evitar problemas de fragmentación y mantener la eficacia, el almacenamiento DPM se asigna mediante archivos VHDX que residen en los volúmenes desduplicados. Se crean diez archivos VHDX dinámicos de 1 TB cada uno en cada volumen y se adjuntan a DPM. Además, se realiza un sobreaprovisionamiento de almacenamiento de 3 TB para aprovechar los ahorros de almacenamiento producidos por la desduplicación. A medida que la desduplicación genera ahorros de almacenamiento adicionales, se pueden crear nuevos archivos VHDX en estos volúmenes para consumir el espacio ahorrado. Probamos el servidor DPM con hasta 30 archivos VHDX adjuntos.
Ejecuta el siguiente comando para crear discos duros virtuales que se agregarán más adelante al servidor DPM:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
A continuación, agrega los discos duros virtuales creados al servidor DPM de la siguiente manera:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
Este paso configura un bloque de almacenamiento como el disco o los discos en los que DPM almacena réplicas y puntos de recuperación para los datos protegidos. Este grupo forma parte de la configuración de DPM y es independiente del grupo de Espacios de almacenamiento que se usa para crear los volúmenes de datos descritos en la sección anterior. Para más información sobre bloques de almacenamiento DPM, consulta Configuración de almacenamiento en disco y bloques de almacenamiento.
Configuración del clúster de servidor de archivos de Windows.
La desduplicación requiere un conjunto especial de opciones de configuración para admitir el almacenamiento DPM virtualizado debido a la escala de datos y el tamaño de los archivos individuales. Estas opciones son globales para el clúster o el nodo del clúster. La desduplicación debe estar habilitada y la configuración del clúster debe configurarse individualmente en cada nodo del clúster.
Habilitar la desduplicación en el almacenamiento del servidor de archivos de Windows: el rol Desduplicación debe instalarse en todos los nodos del clúster del servidor de archivos de Windows. Para ello, ejecuta el siguiente comando de PowerShell en cada nodo del clúster:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Ajustar el procesamiento de desduplicación para los archivos de datos de copia de seguridad: ejecuta el siguiente comando de PowerShell para establecer la optimización de inicio sin retraso y no para optimizar las escrituras parciales de archivos. De forma predeterminada, los trabajos de recolección de elementos no utilizados (GC) se programan cada semana y, cada cuatro semanas, el trabajo de GC se ejecuta en modo de "GC profunda" para llevar a cabo una búsqueda más exhaustiva e intensiva de los datos que deben quitarse. Para la carga de trabajo de DPM, este modo de "GC profunda" no da lugar a mejoras apreciativas y reduce la cantidad de tiempo en el que la desduplicación puede optimizar los datos. Por lo tanto, deshabilitamos este modo profundo.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Ajustar el rendimiento de las operaciones a gran escala: ejecuta el siguiente script de PowerShell para:
Deshabilitar el procesamiento adicional y la E/S cuando se ejecuta la recolección de elementos no utilizados profunda
Reserva memoria adicional para procesar el hash
Habilita la optimización de prioridad para permitir la desfragmentación inmediata de archivos grandes
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Esta configuración modifica lo siguiente:
HashIndexFullKeyReservationPercent: este valor controla la cantidad de memoria del trabajo de optimización que se usa para los hashes de fragmentos existentes frente a los nuevos hashes de fragmentos. A gran escala, el 70 % da como resultado un mejor rendimiento de optimización que el valor predeterminado del 50 %.
EnablePriorityOptimization: con archivos que se aproximan a 1 TB, la fragmentación de un único archivo puede acumular suficientes fragmentos para aproximarse al límite por archivo. El procesamiento de optimización consolida estos fragmentos y evita que se alcance este límite. Al establecer esta clave del Registro, la desduplicación agregará un proceso adicional para tratar archivos desduplicados altamente fragmentados con prioridad alta.
Configurar DPM y la programación de la desduplicación
Las operaciones de copia de seguridad y desduplicación consumen mucha E/S. Si se ejecutaran al mismo tiempo, la sobrecarga adicional para cambiar entre las operaciones podría ser cara y provocar una copia de seguridad de menos datos o desduplicarse diariamente. Te recomiendamos que configures las ventanas de desduplicación y las copias de seguridad dedicadas y independientes. Esto garantiza que el tráfico de E/S en cada una de estas operaciones se distribuya eficazmente durante la operación diaria del sistema. Las directrices recomendadas para la programación son:
Dividir los días en ventanas de copias de seguridad y desduplicaciones no superpuestas.
Configura la programación de copia de seguridad personalizada.
Configura las programaciones de desduplicación personalizadas.
Programa la optimización en la ventana de desduplicación diaria.
Configura las programaciones de desduplicación del fin de semana por separado, usando ese tiempo para la recolección de elementos no utilizados y los trabajos de limpieza.
Puedes configurar la programación del DPM con el siguiente comando de PowerShell: .
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
En esta configuración, el DPM está configurado para realizar copias de seguridad de las máquinas virtuales entre las 10:00 p. m. y las 6:00 a. m. La desduplicación está programada para que se realice durante las 16 horas restantes del día. El tiempo de desduplicación real que configures dependerá del tamaño del volumen. Consulta la sección Dimensionamiento de los volúmenes para desduplicar los datos para obtener más información. Una ventana de desduplicación de 16 horas que empieza a las 6 a. m., después de que finalice la ventana de copia de seguridad, se configuraría como se indica a continuación desde cualquier nodo de clúster individual:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Cada vez que se modifica la ventana de copia de seguridad, es fundamental que la ventana de desduplicación se modifique junto con ella para que no se superpongan. La ventana de desduplicación y de copia de seguridad no tienen que rellenar las 24 horas completas del día. Sin embargo, se recomienda encarecidamente que se permitan variaciones en el tiempo de procesamiento debido a los cambios diarios esperados en las cargas de trabajo y el abandono de datos.
Implicaciones para el rendimiento de la copia de seguridad
Una vez desduplicado un conjunto de archivos, puede haber un ligero cesto de rendimiento al acceder a los archivos. Esto se debe al procesamiento adicional necesario para acceder al formato de archivo usado por los archivos desduplicados. En este escenario, los archivos corresponden con un conjunto de archivos VHDX que ven el uso continuo de DPM durante la ventana de copia de seguridad. El efecto de tener estos archivos desduplicados significa que las operaciones de copia de seguridad y recuperación pueden ser ligeramente más lentas que sin desduplicación. En cuanto a cualquier producto de copia de seguridad, DPM es una carga de trabajo intensiva de escritura con operaciones de lectura que son más importantes durante las operaciones de restauración. Las recomendaciones para abordar las implicaciones para el rendimiento de la copia de seguridad debido a la desduplicación son:
Operaciones de lectura/restauración: los efectos en las operaciones de lectura son normalmente insignificantes y no requieren ninguna consideración especial, puesto que la característica de desduplicación almacena en caché los fragmentos desduplicados.
Operaciones de escritura y copia de seguridad: planea un aumento del tiempo en cada copia de seguridad de entre el 5 y el 10 % al definir la ventana de copia de seguridad. (Es un aumento en comparación con el tiempo de copia de seguridad esperado al escribir en volúmenes no desduplicados).
Supervisión
Puedes supervisar DPM y la desduplicación de datos para asegurarte de que:
Se aprovisiona suficiente espacio en disco para almacenar los datos de copia de seguridad.
Los trabajos de copia de seguridad de DPM se completan normalmente
La desduplicación está habilitada en los volúmenes de copia de seguridad
Las programaciones de desduplicación se establecen correctamente
El procesamiento de desduplicación se completa normalmente y a diario
La tasa de ahorro de desduplicación coincide con las suposiciones realizadas para la configuración del sistema
El éxito de la desduplicación depende de las funcionalidades generales del hardware del sistema (incluida la velocidad de procesamiento de la CPU, el ancho de banda de E/S, la capacidad de almacenamiento), la configuración correcta del sistema, la carga media del sistema y la cantidad diaria de datos modificados.
Puedes supervisar el DPM con la consola central del DPM. Consulta Instalar la consola central.
Puedes supervisar la desduplicación para comprobar el estado de la misma, la tasa de ahorro y el estado de programación con los siguientes comandos de PowerShell:
Obtener estado:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Obtener ahorros:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Obtén el estado de programación mediante el cmdlet Get-DedupSchedule.
Supervisión de eventos
La supervisión del registro de eventos puede ayudar a comprender los eventos y el estado de desduplicación.
Para ver los eventos de desduplicación, en el Explorador de archivos, ve a Registros de aplicaciones y servicios Desduplicación>Microsoft>Windows>Desduplicación.
Si el valor LastOptimizationResult = 0x00000000 aparece en los resultados de Windows PowerShell Get-DedupStatus |fl, el trabajo de optimización anterior procesó todo el conjunto de datos. De lo contrario, el sistema no podría completar el procesamiento de desduplicación y es posible que quieras comprobar los valores de configuración, por ejemplo, el tamaño del volumen.
Para obtener ejemplos de cmdlets más detallados, consulta Supervisión e informe de desduplicación de datos.
Supervisión del almacenamiento de copia de seguridad
En nuestro ejemplo de configuración, los volúmenes de 7,2 TB se rellenan con 10 TB de datos "lógicos" (el tamaño de los datos cuando no se desduplica) almacenados en archivos VHDX dinámicos de 10 x 1 TB. A medida que estos archivos acumulan datos de copia de seguridad adicionales, rellenarán lentamente el volumen. Si el porcentaje de ahorro que resulta de la desduplicación es lo suficientemente alto, los 10 archivos podrán alcanzar su tamaño lógico máximo y seguirán encajando en el volumen de 7,2 TB (posiblemente incluso haya espacio adicional para asignar archivos VHDX adicionales para que los servidores DPM los usen). Pero si el ahorro de tamaño de la desduplicación no es suficiente, el espacio en el volumen podría agotarse antes de que los archivos VHDX alcancen su tamaño lógico completo y el volumen estará lleno. Para evitar que los volúmenes se llenen, se recomienda lo siguiente:
Sé conservador en los requisitos de tamaño de volumen y permite algo de sobreaprovisionamiento de almacenamiento. Se recomienda permitir un búfer de al menos un 10 % al planear el uso del almacenamiento de copia de seguridad para permitir variaciones esperadas en el ahorro de desduplicación y el abandono de datos.
Supervisa los volúmenes que se usan en el almacenamiento de la copia de seguridad para garantizar que la utilización del espacio y las tasas de ahorro de desduplicación se encuentran en los niveles esperados.
Si el volumen se llena, se producen los siguientes síntomas:
La máquina virtual DPM se colocará en un estado crítico de pausa y esa máquina virtual no podrá emitir más trabajos de copia de seguridad.
Se producirá un error en todos los trabajos de copia de seguridad que usan los archivos VHDX del volumen completo.
Para recuperarse de esta condición y restaurar el sistema al funcionamiento normal, se puede aprovisionar almacenamiento adicional y se puede realizar una migración de almacenamiento de la máquina virtual DPM o su VHDX para liberar espacio:
Detén el servidor DPM que posee los archivos VHDX en el recurso compartido de copia de seguridad completo.
Crea un volumen adicional y un recurso compartido de copia de seguridad con la misma configuración y ajustes que se usan para los recursos compartidos existentes, incluida la configuración de NTFS y la desduplicación.
Migra el almacenamiento de la máquina virtual del servidor DPM y migra al menos un archivo VHDX desde el recurso compartido de copia de seguridad completo al nuevo recurso compartido de copia de seguridad creado en el paso 2.
Ejecuta un trabajo de recolección de elementos no utilizados (GC) de desduplicación de datos en el recurso compartido de copia de seguridad de origen que estaba lleno. El trabajo de GC debe realizarse correctamente y reclamar el espacio libre.
Reinicia la máquina virtual del servidor DPM.
Se desencadenará un trabajo de comprobación de coherencia de DPM durante la siguiente ventana de copia de seguridad de todos los orígenes de datos que han producido un error anteriormente.
Todos los trabajos de copia de seguridad deben realizarse ahora correctamente.
Resumen
La combinación de desduplicación y DPM proporciona ahorros de espacio considerables. Esto permite mayores tasas de retención, copias de seguridad más frecuentes y mejor TCO para la implementación de DPM. Las instrucciones y recomendaciones de este documento deben proporcionarte las herramientas y los conocimientos para configurar la desduplicación para el almacenamiento DPM y ver las ventajas de tu propia implementación.
Preguntas frecuentes
P: Los archivos VHDX de DPM deben tener un tamaño de 1 TB. ¿Significa esto que DPM no puede realizar la copia de seguridad de una máquina virtual o base de datos o archivo de SharePoint o SQL de un volumen de tamaño de > 1 TB?
R: No. DPM agrega varios volúmenes en uno para almacenar copias de seguridad. Por lo tanto, el tamaño de archivo de 1 TB no tiene ninguna implicación para los tamaños de origen de datos de los que DPM puede realizar copias de seguridad.
P: Parece que los archivos VHDX de almacenamiento DPM deben implementarse solo en recursos compartidos de archivos SMB remotos. ¿Qué ocurrirá si almaceno los archivos VHDX de copia de seguridad en volúmenes habilitados para desduplicación en el mismo sistema donde se ejecuta la máquina virtual DPM?
R: Como se ha explicado anteriormente, DPM, Hyper-V y desduplicación son operaciones de almacenamiento y proceso intensivo. Combinar los tres procesos en un único sistema puede dar lugar a operaciones de E/S y proceso intensivo que pueden colapsar Hyper-V y sus máquinas virtuales. Si decides experimentar con la configuración de DPM en una máquina virtual con los volúmenes de almacenamiento de copia de seguridad en la misma máquina, debes supervisar el rendimiento cuidadosamente para asegurarte de que hay suficiente ancho de banda de E/S y capacidad de proceso para mantener las tres operaciones en la misma máquina.
P: Se recomiendan ventanas de desduplicación y copia de seguridad dedicadas e independientes. ¿Por qué no puedo habilitar la desduplicación mientras DPM realiza la copia de seguridad? Necesito realizar una copia de seguridad de mi base de datos SQL cada 15 minutos.
R: Desduplicación y DPM son operaciones intensivas en almacenamiento y tener ambas ejecutándose al mismo tiempo puede ser ineficaz y provocar un colapso de E/S. Por lo tanto, para proteger las cargas de trabajo más de una vez al día (por ejemplo, SQL Server cada 15 minutos) y habilitar la desduplicación al mismo tiempo, asegúrate de que hay suficiente ancho de banda de E/S y capacidad de equipo para evitar el colapso de recursos.
P: En función de la configuración descrita, DPM debe ejecutarse en una máquina virtual. ¿Por qué no puedo habilitar la desduplicación en volúmenes de réplica y volúmenes de instantáneas directamente en lugar de en archivos VHDX?
R: Dedup realiza la desduplicación por volumen que funciona en archivos individuales. Dado que la desdupliación se optimiza en el nivel de archivo, no está diseñada para admitir la tecnología VolSnap que DPM usa para almacenar sus datos de copia de seguridad. Al ejecutar DPM en una máquina virtual, Hyper-V asigna las operaciones de volumen DPM al nivel de archivo VHDX, lo que permite la desduplicación para optimizar los datos de copia de seguridad y proporcionar un mayor ahorro de almacenamiento.
P: La configuración de ejemplo anterior solo ha creado volúmenes de 7,2 TB. ¿Puedo crear volúmenes más grandes o más pequeños?
R: Dedup ejecuta un subproceso por volumen. A medida que el tamaño del volumen aumenta, la desduplicación requiere más tiempo para completar su optimización. Por otro lado, con volúmenes pequeños, hay menos datos en los que encontrar fragmentos duplicados, lo que puede dar lugar a un ahorro reducido. Por lo tanto, es aconsejable ajustar el tamaño del volumen en función de la renovación total y las funcionalidades de hardware del sistema para un ahorro óptimo. Puedes encontrar información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación en Tamaño de volúmenes para la desduplicación en Windows Server. Para obtener información más detallada sobre cómo determinar los tamaños de volumen usados con desduplicación, consulta Tamaño de volúmenes para desduplicación de datos.