删除重复 DPM 存储

 

发布时间: 2016年3月

本文介绍如何通过启用 DPM 存储上的删除重复以降低 DPM 的存储消耗。 在此方案中,DPM 在 Hyper-V 虚拟机中运行,并将备份数据存储到启用了重复数据删除的 Windows 文件服务器上共享文件夹中的 VHD。

概述

在当今环境下,正如 2020 年之前世界数据的 IDC 投影所示,IT 管理员面临着数据增长的巨大挑战。 企业数据的增长会导致备份的存储需求的增长。

DPM and deduplication

数据增长会增加维护和硬件成本。 如下所示,62%的 IT 管理员对持续增长的硬件/软件和维护成本表示担忧。 有关完整的调查,请在 Informatica 博客上参阅数据爆炸式增长是否会对你产生影响

DPM Deduplication

IT 管理员备份生产数据以满足操作恢复需求和组织符合性要求。 备份由其性质是一个高度存储密集型操作,而减少备份存储消耗是 IT 管理员的头等大事之一。

重复数据删除可满足减少存储消耗的需求。 当任何给定的一组数据的冗余量取决于工作负荷和使用的数据类型,并使用重复删除数据时,备份数据通常会显示强大的节能能力。 从使用集中处理的类似数据集的类似工作负荷备份数据时,将会导致重复数据删除带来的额外冗余和更多节省。 DPM 利用重复数据删除以提供这些优点。

DPM 概述

System Center Data Protection Manager 是一种企业备份解决方案,提供如下内容:

  • 应用程序感知的备份和恢复 — DPM 保护客户端、服务器、虚拟机、文件服务器数据和应用程序工作负载。 它提供了灵活的备份选项,包括以每隔 15 分钟的频率备份一些工作负荷的能力。 DPM 具有广泛的恢复能力。 例如,客户可以用较旧的副本替换当前的生产 SQL Server 数据库、将数据库恢复到另一个位置进行调查,或作为文件恢复向法律部门提供副本。 DPM 将帮助 IT 管理员挑选和选择所需的恢复类型。DPM 支持终端用户恢复。 例如,SQL 管理员、文件系统管理员或客户端用户可以直接恢复其所有数据而无需管理员的协助。

    动态环境中的生产服务器不断地创建新数据。 DPM 通过提供具有自动查找并配置由工作负荷创建的新的数据能力的实例级别保护,使你可以安心备份管理员。 这消除了手动查找新的数据实例并将其添加到备份配置以备份管理员的需求。

  • 企业缩放和集中管理:一台 DPM 服务器可以保护 80 TB 的生产数据或 100 台生产服务器。 你可以部署 DPM 中央控制台,可从一个集中位置管理多达 100 个 DPM 服务器。 将 DPM 中央报告用于所有 DPM 服务器的自定义报告的简单生成。

  • 高效的私有云保护 — 不论你的私有云数据中心是否配置为在独立服务器上或与 Windows 文件服务器上的 SMB 文件共享进行远程连接的 Windows 服务器上运行 HYPER-V 虚拟机,DPM 可以高效地备份使用 DPM 唯一的虚拟机备份技术的虚拟机。

    例如,DPM 检测到虚拟机迁移,将继续自动保护虚拟机,而不需要备份管理员任何主动的参与。 如果虚拟机在主机之间迁移,同一台 DPM 服务器将继续备份而无需任何 DPM 的修改或手动步骤。

  • 云集成的备份 -DPM 的灵活程度足以保护部署在 HYPER-V 私有云、Azure 公有云,或主机云的工作负荷。 在 Azure 上运行 Microsoft 工作负荷的公司可以利用在 Azure 上运行的 DPM 来保护这些工作负荷。 DPM 支持使用 Azure 备份服务来非现场备份到 Azure 中。 Azure 备份服务已集成到 DPM 保护和恢复工作流,使其轻松管理非现场备份设置和长久保留数据。 Azure 备份提供了具有非现场传送和所需的磁带维护的磁带备份的一种替代方法。 备份管理员现在可以完全免于受到磁带维护所带来的麻烦。

重复数据删除概述

重复数据删除 (Dedup) 作为 Windows Storage Server 2008 中的单实例存储 (SIS) 功能的下一代替换,已引入至 Windows Server 2012 中。 它使用高级、可变块大小分块算法来提供给每卷最大的重复数据删除节省。 后处理方法用来保留所有文件系统语义并确保对主数据路径性能可以忽略的影响。 有关详细信息,请参阅重复数据删除概述

重复数据删除功能在不添加其他专用硬件的情况下,安装在主数据的卷上,以使它不对服务器上的主工作负荷产生影响。 默认设置不会产生干扰,因为它们允许数据在处理特定文件之前保存五天时间,并且其默认最小文件大小为 32 KB。 本实现用于低内存和 CPU 使用率。 重复数据删除可在以下工作负荷上实现

  • 常规文件共享:组内容发布和共享、用户主文件夹和文件夹重定向/脱机文件

  • 软件部署共享:软件二进制文件、映像和更新

  • VHD 库:用于预配为虚拟机监控程序的虚拟硬盘 (VHD) 文件存储区

  • VDI 部署(仅 Windows Server 2012 R2):使用 Hyper-V 的虚拟桌面基础结构 (VDI) 部署

  • 虚拟化的备份:备份解决方案,(例如 Hyper-V 虚拟机中运行的 DPM)将备份数据保存到 Windows 文件服务器上的 VHD/VHDX 文件。

阅读更多有关重复数据删除规划

业务优点

与 DPM 一起使用重复数据删除可以导致较大的节省。 优化 DPM 备份数据时,重复数据删除节省的空间量的大小取决于需要备份的数据的类型。 例如,由于任何重复数据会被加密过程所隐藏,加密数据库服务器的备份可能会导致最低限度的节省。 但是,大型的虚拟桌面基础结构 (VDI) 部署的备份可能会导致 70-90 + %范围内的较大节省,因为通常虚拟桌面环境之间的重复数据的量很大。 本主题中所述的配置中,我们运行各种测试工作负荷并看到 50%到 90%之间的节省。

建议的部署

若要作为将数据备份到删除重复数据的卷的虚拟机来部署 DPM,我们建议以下部署拓扑:

  • DPM 在 HYPER-V 主机群集中的虚拟机中运行。

  • DPM 存储使用存储在文件服务器上的 SMB 3.0 共享的 VHD/VHDX 文件。

  • 此示例部署中,我们使用直接连接的 SAS 驱动器构建的存储空间池配置存储卷,将文件服务器配置为使用该存储卷部署的向外扩展文件服务器 (SOFS)。 请注意,此部署确保较大规模的性能。

Dedup and VHDX

请注意以下事项:

  • DPM 2012 R2 的支持方案

  • DPM 2012 R2 可以备份的数据的所有工作负荷的支持方案。

  • DPM 虚拟硬盘驻留和将启用重复数据删除的所有 Windows 文件服务器节点必须运行 2014 年 11 月的更新汇总的 Windows Server 2012 R2 。

我们将为方案部署提供常规建议和说明。 只要给出特定硬件的示例,则部署在 Microsoft 云平台系统 (CPS) 的硬件可以用于引用。

经测试的硬件

本方案使用远程 SMB 3.0 共享来存储备份的数据,因此主要硬件要求以文件服务器节点而不是 HYPER-V 节点为中心。下列硬件配置用于 CPS 中的备份和生产存储。 请注意,整体硬件同时用于备份和生产存储,但驱动器外壳中列出的驱动器数只用于备份。

  • 4 节点横向扩展文件服务器群集

  • 每个节点配置

    • 2 x Intel (R) Xeon(R) CPU E5-2650 0 @ 2.00GHz、2001 MHz、8 核、16 个逻辑处理器

    • 128 GB 1333 MHz RDIMM 内存

    • 存储连接:2 个 SAS 端口,1 个 10GbE iWarp/RDMA 端口

  • 4 JBOD 驱动器外壳

    • 每个 JBOD – 16 x 4TB HDDs + 2 x 800GB SSDs中有18 个磁盘

    • 每个驱动器的双路径 - 仅为故障转移设置的多路径 I/O 加载平衡策略

    • SSD 配置为回写缓存 (WBC) 和专用日志驱动器的其余部分

规划和设置删除重复数据的卷

让我们考虑一下卷应该多大来支持包含 DPM 数据的删除重复数据的 VHDX 文件。 在 CPS 中我们创建了每个 7.2 TB 的卷。 最佳的卷的大小主要取决于卷上的数据更改的多少、频率,以及磁盘存储子系统的数据访问吞吐率。 请务必注意,如果重复数据删除处理无法跟上日常的数据更改(改动),节省速率将在处理完成前下降。 有关更多详细信息,请参阅为重复数据删除调整卷的大小。 Dedup 卷建议遵循以下通用原则:

  • 将具有外壳识别功能的奇偶校验存储空间用于复原和增加磁盘利用率。

  • 64 KB 分配单元的 NTFS 格式和大型文件记录段使用 Dedup 的稀疏文件效果更好。

  • 硬件配置上的推荐使用的卷的大小是 7.2 TB 的卷,卷将按以下方式配置:

    • 外壳感知双重奇偶校验 7.2 TB + 1 GB 回写缓存

      • ResiliencySettingName = = 奇偶校验

      • PhysicalDiskRedundancy = = 2

      • NumberOfColumns = = 7

      • 交错 = = 256 KB (64 KB 的双重奇偶校验性能交错要远低于默认 256 KB 的交错)

      • IsEnclosureAware = = $true

      • AllocationUnitSize = 64 KB

      • 大型 FRS

      在指定的存储池中设置新的虚拟磁盘,如下所示:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • 每一个这类卷必须格式化为:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64KB –UseLargeFRS -Force
      

      在 CPS 部署中,这些配置为 CSV。

    • 在这些卷中,DPM 会存储一系列 VHDX 文件以保存备份的数据。 格式化后,启用卷上的重复数据删除,如下所示:

      Enable-DedupVolume –Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      此命令还会修改以下卷级别 Dedup 设置:

      • 将“UsageType”设置为“HyperV”:这会导致 Dedup 处理打开的文件,因为 DPM 在虚拟机中运行时,用于 DPM 备份存储的 VHDX 文件保持打开,因此这是必须的。

      • 禁用 PartialFileOptimization:这将导致 Dedup 优化打开的文件的所有部分而不是扫描最小存在时间的已更改部分。

      • 将 MinFileAgeDays 参数设置为 0:禁用 PartialFileOptimization 时,MinFileAgeDays 更改其行为以使 Dedup 只考虑此期间内尚未更改的文件。 由于我们希望 Dedup 立刻开始处理所有 DPM VHDX 文件中的备份数据,我们需要将 MinFileAgeDays 设置为 0。

有关设置重复数据删除的详细信息,请参阅安装和配置重复数据

计划和设置 DPM 存储

若要避免出现碎片问题并维护效率,DPM 存储使用驻留在删除了重复数据的卷上的 VHDX 文件来进行分配。 单个1 TB 大小的 10 个动态的 VHDX 文件都是在每个卷上创建并附加到 DPM。 请注意,3TB 的过度配置的存储空间是为了充分利用由 Dedup 节省的存储空间。 如同 Dedup 生成额外节省的存储空间,则可以在这些卷上创建新的 VHDX 文件以占用保存的空间。 我们用多达 30 个附加到它的 VHDX 文件测试 DPM 服务器。

  1. 运行以下命令以创建之后添加到 DPM 服务器的虚拟硬盘:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. 然后,将创建的虚拟硬盘添加到 DPM 服务器,如下所示:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool –
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    请注意,本步骤将存储池配置为磁盘,或供 DPM 存储受保护数据的副本和恢复点的磁盘。 此池是 DPM 配置的一部分,并且独立于用于创建上一部分中所述的数据卷的存储空间池。 有关 DPM 存储池的详细信息,请参阅配置磁盘存储和存储池

计划和设置 Windows 文件服务器群集

由于数据的小数位数和单独文件的大小,Dedup 需要一组特殊的配置选项来支持虚拟化的 DPM 存储。 这些选项是全局的群集或群集节点。 必须启用 Dedup,并且必须将群集设置单独配置到每个群集节点上。

  1. 在 Windows 文件服务器存储上启用 Dedup— 必须在 Windows 文件服务器群集的所有节点上安装重复数据删除角色。 若要执行,需在群集的每个节点上运行以下 PowerShell 命令:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. 为备份数据文件调整 Dedup 处理 — 运行以下 PowerShell 命令以立刻开始优化,并且不优化部分文件写入。 请注意,默认情况下每周安排垃圾回收 (GC) 作业。每第四个星期,在用于删除数据的更详尽的时间密集型搜索的"深层 GC"模式中运行 GC 作业。 对于 DPM 工作负荷,此"深层 GC"模式下不会导致任何收益,并会减少 Dedup 优化数据的时间。 我们因此禁用此深层模式。

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. 为大型操作调整性能 — 将下列 PowerShell 脚本运行至:

    • 当深入垃圾收集操作运行时,禁用其他处理和 I/O

    • 保留其他内存以进行哈希处理

    • 启用优先级优化以允许即时的大型文件的碎片整理

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    这些设置修改如下:

    • HashIndexFullKeyReservationPercent:此值控制有多少用于现有区块哈希而不是新区块哈希的优化作业内存。 在高缩放性上,70%会比50%的默认值导致更好的优化吞吐量 。

    • EnablePriorityOptimization:接近 1 TB 的文件,单个文件碎片会不断积累足够的片段以接近每个文件的限制。 优化处理将合并这些片段并防止接近此限制。 通过设置此注册表项,Dedup 将添加其他进程以高优先级处理高分段重复数据删除的文件。

规划和安装 DPM 和重复数据删除计划

备份和重复数据删除操作都大量占用 I/O。 如果他们准备在同一时间运行,操作之间进行切换的其他开销可能会非常昂贵,并会减少每日备份或重复数据删除的数据。 我们建议你配置专用和单独的重复数据删除和备份的窗口。 这有助于确保在每日系统操作期间有效地分发每个这些操作的 I/O 流量。 用于计划的建议准则是:

  • 将非重叠的备份和 Dedup 窗口按天拆分。

  • 设置自定义的备份计划。

  • 设置自定义的备份计划。

  • 在每日 Dedup 窗口中计划优化。

  • 使用垃圾回收和清理作业的时间来单独设置周末 Dedup 计划。

你可以用以下 PowerShell 命令设置 DPM 计划:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime –
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime –DurationInHours
$duration

在此配置中,DPM 配置为在晚上 10 点至早上 6 点之间备份虚拟机。 一天中剩余的 16 小时计划进行重复数据删除。 请注意,你配置的实际 Dedup 时间将取决于卷的大小。 有关详细信息,请参阅为重复数据删除调整卷的大小。 备份窗口结束后,一个 16 小时的重复数据删除窗口将在早上 6 点启动,并将配置为如下任何单个的群集节点:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

只要修改备份窗口,重复数据删除窗口也会随之修改,因此它们不会重叠,这一点至关重要。 重复数据删除和备份窗口不必填补全天 24 小时,但由于预期日常工作负荷和数据的改动,强烈建议他们允许处理时间的变化。

对备份性能的影响

重复数据删除一组文件后,当访问文件时可能会有略微的性能成本。 这是由于附加处理需要访问删除重复数据的文件所使用的文件格式。 在此方案中,这些文件是一组在备份窗口中观察到 DPM 连续使用的 VHDX 文件。 删除这些文件的重复数据的影响意味着备份和恢复操作可能会比不重复删除数据的情况下稍慢。 对于任何备份产品,DPM 是还原操作期间最重要具有读取操作的写为主的工作负荷。 解决由于重复数据删除产生的备份性能影响的建议如下:

  • 读取/还原操作:读取操作的效果通常可以忽略不计,由于重复数据删除功能缓存了删除了重复数据的区块而不需要任何特殊注意事项。

  • 写入/备份操作:定义备份时段时,计划大约 5%到 10%的备份时间的增加。 (写入非重复数据删除卷时,与预期备份时间相比的增加。)

监视

DPM 和重复数据删除可以进行监视以确保:

  • 设置了足够的磁盘空间以存储备份的数据

  • 正常完成 DPM 备份作业

  • 在备份卷上启用了重复数据删除

  • 正确设置了重复数据删除计划

  • 每天都正常完成了重复数据删除处理

  • 重复数据删除节省速率匹配系统配置所做的假设

重复数据删除的成功取决于整体系统硬件功能(包括 CPU 处理速度、I/O 带宽、存储容量),正确的系统配置、系统平均负载,和每日修改的数据量。

你可以使用 DPM 中央控制台监视 DPM。 请参阅安装中央控制台

你可以监视 Dedup 来检查 Dedup 的状态,并使用以下 PowerShell 命令来保存速率和计划的状态:

获取状态:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

获取节省:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

使用 Get-DedupSchedule cmdlet 获取计划状态。

监视事件

监视事件日志可帮助了解重复数据删除事件和状态。

  • 若要查看“文件资源管理器”中的重复数据删除事件,导航到“应用程序和服务日志” > “Microsoft” > “Windows” > “重复数据删除”。

  • 如果值“LastOptimizationResult = 0x00000000”显示在 Get DedupStatus |fl Windows PowerShell 结果中,则整个数据集已由以前的优化作业处理。 如果不是这样,那么系统无法完成重复数据删除处理,你可能要检查你的配置设置,例如卷的大小。

有关更详细的 cmdlet 示例,请参阅重复数据删除的监视和报告

监视备份存储

在我们的配置示例中,7.2 TB 的卷将填入 10 TB 的存储在 10 个 1 TB 动态 VHDX 文件的"逻辑"数据(不重复数据删除时的数据大小)。 因为这些文件会累积其他的备份数据,它们将慢慢地填满该卷。 如果因重复数据删除的节省百分比足够高,所有 10 个文件将能够达到其最大的逻辑大小,但仍能在 7.2 TB 卷中容纳(可能甚至会有额外空间来分配 DPM 服务器使用的其他 VHDX 文件)。 但如果从重复数据删除节省的大小不足够,VHDX 文件到达其完整逻辑大小之前,卷上的空间可能会用完。而卷也会填满。 若要防止卷变满我们建议:

  • 谨慎对待卷大小的要求,并允许存储一些超量配置。 建议当规划备份存储使用情况时,允许至少 10%的缓冲区以允许预期的重复数据删除节省和数据改动的变化。

  • 监视用于备份存储以确保在预期级别上的空间利用率和重复数据删除节省率的卷。

如果该卷已满并产生以下症状:

  • DPM 虚拟机将会处于暂停临界状态,该虚拟机不能进一步发布备份作业。

  • 所有在完整的卷上使用 VHDX 文件的备份作业将失败。

若要从这种情况中恢复并将系统还原到正常操作,可以设置额外的存储并可以执行 DPM 的虚拟机或其 VHDX 的存储迁移以释放空间:

  1. 停止在完整备份共享上拥有 VHDX 文件的 DPM 服务器。

  2. 创建其他卷和用于现有共享并使用相同配置和设置的备份共享,包括 NTFS 和重复数据删除设置。

  3. 用于 DPM 服务器虚拟机的“迁移存储”,并将至少一个 VHDX 文件从完整备份共享中迁移到步骤 2 中创建的新备份共享。

  4. 在已满的源备份共享上运行重复数据删除垃圾回收 (GC) 作业。 GC 作业应成功并回收可用空间。

  5. 重新启动 DPM 服务器虚拟机。

  6. 之前失败的所有数据源的下一个备份窗口期间,将会触发DPM 一致性检查作业。

  7. 所有备份作业现在应该成功。

结论

重复数据删除和 DPM 的组合提供了大量的空间节省。 这样能够提供更高的保持期率、更频繁地备份,并给予 DPM 部署更好的 TCO。 本文档中的指导和建议应为你提供工具和知识来为 DPM 存储配置重复数据删除,并在你的部署中为你查找优点。

FAQ

**问:**DPM VHDX 文件需要 1 TB 的大小。 这是否意味着DPM 不能备份虚拟机、SharePoint、SQL DB 或文件卷的大小 > 1 TB?

**答:**否。 DPM 将多个卷聚合为一个以用于存储备份。 因此,1 TB 的文件大小对 DPM 可以备份的数据源大小的没有任何影响。

**问:**DPM 存储的 VHDX 文件似乎只能部署在远程 SMB 文件共享上。 如果我在 DPM 虚拟机运行的相同系统上的 Dedup 启用卷上存储备份的 VHDX 文件将会发生什么情况?

**答:**如上所述,DPM、Hyper-V 和 Dedup 是存储和计算密集型操作。 将这三者合并到单个系统可能会导致需要 HYPER-V 和其虚拟机的 I/O 和进程密集型操作。 如果你决定在同一计算机上的备份存储卷的虚拟机中尝试配置 DPM,你应仔细地监视性能以确保有足够的 I/O 带宽和计算容量来维护同一计算机上的所有三个操作。

**问:**建议你采用专用单独的重复数据删除和备份时段。 为什么在 DPM 备份时不能启用 Dedup? 我需要每隔 15 分钟备份我的 SQL DB 。

**答:**Dedup 和 DPM 是存储密集型操作,同时运行它们会导致效率低下和 I/O 资源不足。 因此,每天需要至少保护工作负荷一次(例如 SQL Server 则是每隔 15 分钟),同时启用 Dedup 以确保有足够的 I/O 带宽和计算机容量来避免资源不足。

**问:**根据所述的配置,DPM 需要在虚拟机中运行。 为什么需要在 VHDX 文件上而不能在副本卷和卷影副本卷上直接启用 Dedup?

**答:**Dedup 在单独的文件上进行每个卷的重复数据删除操作。 由于Dedup在文件级别进行优化,它不是用于支持DPM 存储其备份数据的 VolSnap 技术。 通过在 VM 中运行 DPM,HYPER-V 将 DPM 卷操作映射到 VHDX 文件级别,允许 Dedup 优化备份数据并提供更大的存储节省空间。

**问:**上面的示例配置已创建了唯一的 7.2 TB 的卷。 我可以创建更大或更小的卷吗?

**答:**Dedup 在每个卷中运行一个线程。 随着卷的大小变得更大,Dedup 将需要更多时间才能完成其优化。 另一方面使用小的卷,其中查找重复区块的数据将减少,这可能会导致节省的降低。 因此基于改动项总数和最佳节省的系统硬件功能,建议微调卷的大小。 有关确定与重复数据删除一起使用的卷的大小的详细信息可以在为 Windows Server 中的重复数据删除调整卷的大小中进行查找。 有关确定与重复数据删除一起使用的卷的大小的详细信息,请查阅为重复数据删除调整卷的大小