共用方式為


刪除 DPM 存放集區的重複資料

 

發佈時間: 2016年3月

本文章說明如何藉由啟用 DPM 存放裝置的重複資料刪除以減少 DPM 存放裝置耗用量。 在此案例中,DPM 是在 HYPER-V 虛擬機器中執行,並且將備份資料儲存到已啟用重複資料刪除之 Windows 檔案伺服器上共用資料夾內的 VHD。

概觀

在現今的環境中,IT 系統管理員正面臨著資料成長的重大挑戰,如下方對於至 2020 年的全球資料 IDC 預測所示。 企業資料成長的增加會導致備份存放裝置需求的增加。

DPM and deduplication

資料成長會增加維護和硬體成本。 如下所示,62% 的 IT 系統管理員對於 HW/SW 成本及其維護成本的增加有疑慮。 如需完整的問卷調查,請參閱 Informatica 部落格上的資料爆炸對您是否有影響

DPM Deduplication

IT 系統管理員備份實際執行資料以符合操作的復原需求及組織法規遵循需求。 備份的本質是高度耗費存放裝置的作業,而減少備份存放裝置耗用量是 IT 系統管理員的其中一個最高優先順序作業。

重複資料刪除可以解決減少存放裝置耗用量的需求。 因為任何指定資料集的備援量相依於工作負載和使用的資料類型,所以當使用重複資料刪除時,經常可見備份資料顯現出節省的能力。 透過重複資料刪除的額外備援因而獲得額外節省,可以在將來自類似工作負載資料、使用類似資料集的資料一起備份時達成。 DPM 會利用重複資料刪除以提供這些優點。

DPM 概觀

System Center Data Protection Manager 是企業備份解決方案,提供:

  • 應用程式感知備份和復原 — DPM 會保護用戶端、伺服器、虛擬機器、檔案伺服器資料和應用程式工作負載。 它提供彈性的備份選項,包括每隔 15 分鐘備份某些工作負載的能力。 DPM 有廣泛的復原功能。 例如客戶可以使用較舊的複本來取代目前的實際執行 SQL Server 資料庫、將資料庫復原到另一個位置以進行調查,或復原檔案以提供複本給法務部門。 DPM 可協助 IT 系統管理員挑選他們所需的復原類型。DPM 支援使用者復原。 例如,SQL 系統管理員、檔案系統管理員或用戶端使用者可以直接復原其所有資料而不需要系統管理員協助。

    在動態環境中,實際執行伺服器會持續地建立新的資料。 DPM 會提供執行個體層級保護,以自動尋找並設定工作負載所建立的新資料,讓備份系統管理員安心使用。 這樣就不需要備份系統管理員手動尋找新的資料執行個體並將它們新增到備份設定。

  • 企業擴充與集中管理:單一 DPM 伺服器可以保護 80 TB 的實際執行資料或 100 部實際執行伺服器。 您可以部署 DPM 中央主控台,從一個集中位置管理多達 100 部 DPM 伺服器。 使用 DPM 中央報告,簡單產生所有 DPM 伺服器自的訂報表。

  • 有效率的私人雲端保護 — 無論您的私人雲端資料中心是設定為在獨立伺服器上或在可以遠端連線至 Windows 檔案伺服器上 SMB 檔案共用的 Windows 伺服器上執行 Hyper-V 虛擬機器,DPM 都可以使用 DPM 的獨特虛擬機器備份技術,有效地備份虛擬機器。

    例如,DPM 會偵測虛擬機器移轉然後繼續自動保護虛擬機器,不需要備份系統管理員主動介入。 如果虛擬機器在主機之間移轉,相同的 DPM 伺服器會繼續備份而不需要任何 DPM 修改或手動步驟。

  • 雲端整合式備份 — DPM 的靈活度足以保護在 Hyper-V 私人雲端、Azure 公用雲端或主機服務提供者雲端部署的工作負載。 在 Azure 上執行 Microsoft 工作負載的公司可以在 Azure 上運用 DPM 來保護這些工作負載。 DPM 支援使用 Azure 備份服務以異地備份至 Azure。 Azure 備份服務已整合至 DPM 保護與復原工作流程,以便輕鬆地管理異地備份設定,並且可以保留資料多年。 Azure 備份提供磁帶備份的替代方案,方法是提供所需的異地傳送和磁帶維護。 備份系統管理員現在完全沒有磁帶維護的問題。

重複資料刪除概觀

重複資料刪除 (dedup) 是在 Windows Server 2012 引進,做為 Windows Storage Server 2008 中儲存單一版本 (SIS) 功能的下一代替代。 它使用進階、變數區塊大小區塊處理演算法,來提供每個磁碟區的最大重複資料刪除節省量。 後續處理方法是用來保留所有檔案系統語意,以及確保對主要資料路徑效能影響不明顯。 如需詳細資訊,請參閱重複資料刪除概觀

重複資料刪除是設計成可在主要資料磁碟區上安裝,而不用新增額外專用硬體,使它不會影響伺服器上的主要工作負載。 預設設定不會造成干擾,因為允許在處理特定檔案之前讓資料存留 5 天,而且預設檔案大小下限為 32 KB。 實作是專為低記憶體及 CPU 使用率設計的。 重複資料刪除可以在下列工作負載上實作

  • 一般檔案共用:群組內容發佈及共用、使用者主資料夾,以及資料夾重新導向/離線檔案

  • 軟體部署共用:軟體二進位檔、映像及更新

  • VHD 程式庫:佈建到 Hypervisor 的虛擬硬碟 (VHD) 檔案儲存體

  • VDI 部署 (僅 Windows Server 2012 R2):使用 Hyper-V 的虛擬桌面基礎結構 (VDI) 部署

  • 虛擬備份:備份解決方案 (例如在 Hyper-V 虛擬機器中執行的 DPM) 會將備份資料儲存到 Windows 檔案伺服器上的 VHD/VHDX 檔案。

深入了解重複資料刪除規劃

商業優勢

使用重複資料刪除與 DPM 可以造就大量節約。 最佳化 DPM 備份資料時,重複資料刪除節省的空間量因備份的資料類型而有所不同。 例如,加密的資料庫伺服器的備份可能會造成最小節省,因為任何重複的資料都會被加密程序隱藏。 但是大型的虛擬桌面基礎結構 (VDI) 部署的備份可能會有非常大的節約,範圍在 70-90+% 內,因為虛擬桌面環境之間通常會有大量的資料重複。 在本主題所述的設定中,我們會執行各種不同的測試工作負載,並看到範圍介於 50% 到 90% 的節約。

建議部署

若要將 DPM 部署為虛擬機器,以將資料備份至重複資料刪除磁碟區,我們建議建議下列部署拓撲:

  • 在 Hyper-V 主機叢集中的虛擬機器中執行的 DPM。

  • 使用儲存在檔案伺服器上 SMB 3.0 共用上的 VHD/VHDX 檔案的 DPM 存放裝置。

  • 對於此範例部署,我們將檔案伺服器設定為向外擴充檔案伺服器 (SOFS),該檔案伺服器是使用從儲存空間集區 (使用直接連接的 SAS 磁碟機內建) 設定的存放磁碟區進行部署。 請注意,這個部署可確保大規模的效能。

Dedup and VHDX

請注意下列事項:

  • DPM 2012 R2 支援此案例

  • DPM 2012 R2 可以備份資料的所有工作負載都支援此案例。

  • DPM 虛擬硬碟所在及會啟用重複資料刪除的的所有 Windows 檔案伺服器節點,必須執行 Windows Server 2012 R2 2014 年 11 月更新彙總套件

我們將提供案例部署的一般建議和指示。 只要指定特定硬體範例,就會使用在 Microsoft 雲端平台系統 (CPS) 中部署的硬體做為參考。

已測試的硬體

此案例使用遠端 SMB 3.0 共用來儲存備份的資料,所以主要硬體需求集中於檔案伺服器節點而非 Hyper-V 節點。下列硬體組態在 CPS 中用於備份和實際執行存放裝置。 請注意,整體硬體用於備份和實際執行存放裝置,但是磁碟機箱中列出的磁碟機數目是只用於備份的磁碟機。

  • 4 節點向外擴充檔案伺服器叢集

  • 每個節點組態

    • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00GHz,2001 MHz,8 核心,16 個邏輯處理器

    • 128 GB 1333 MHz RDIMM 記憶體

    • 儲存體連線:2 個 SAS 連接埠,1 個 10GbE iWarp/RDMA 連接埠

  • 4 個 JBOD 磁碟機機箱

    • 每個 JBOD 中 18 個磁碟 – 16 x 4TB HDDs + 2 x 800GB SSDs

    • 每個磁碟機雙重路徑 - 多重路徑 I/O 負載平衡原則設為僅限容錯移轉

    • 針對回寫式快取 (WBC) 設定 SSD 及其餘針對專用的日誌磁碟機設定

規劃和設定重複資料刪除磁碟區

讓我們考量一下要有多大的磁碟區才能支援包含 DPM 資料的重複資料刪除 VHDX 檔案。 在 CPS 中我們建立了各為 7.2TB 的磁碟區。 最佳的磁碟區大小主要取決於磁碟區上資料變更的數量和頻率,以及磁碟存放裝置子系統的資料存取輸送量速率。 請務必注意重複資料刪除處理程序是否無法跟上每日資料變更 (變換) 的速率,節約速率會下降直到可以完成處理。 如需詳細資訊,請參閱調整重複資料刪除磁碟區的大小。 對於重複資料刪除磁碟區建議下列一般指導方針:

  • 使用具有機箱感知的同位檢查儲存空間以取得備援和更大的磁碟使用量。

  • 以 64 KB 配置單位和大型檔案記錄區段格式化 NTFS,以更適合用於疏鬆檔案的重複資料刪除。

  • 在上述硬體組態中,建議的磁碟區大小是 7.2TB,且磁碟區將會設定如下:

    • 機箱感知雙重同位檢查 7.2TB + 1GB 回寫式快取

      • ResiliencySettingName == 同位檢查

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • 交錯 == 256KB (64KB 交錯的雙重同位檢查效能遠低於預設的 256KB 交錯)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64KB

      • 大型 FRS

      在指定的存放集區中設定新虛擬磁碟,如下所示:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • 接著每個此類磁碟區必須格式化為:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64KB –UseLargeFRS -Force
      

      在 CPS 部署中,接著設定成 CSV。

    • 在這些磁碟區中,DPM 會存放一系列的 VHDX 檔案來保留備份資料。 在格式化磁碟區之後啟用重複資料刪除,如下所示:

      Enable-DedupVolume –Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      此命令也會修改下列磁碟區層級重複資料刪除設定:

      • UsageType 設為 HyperV:這會導致重複資料刪除進行處理開啟檔案,其為必要項目,原因是 DPM 用於備份儲存體的 VHDX 檔案,在 DPM 於其虛擬機器中執行時會保持開啟狀態。

      • 停用 PartialFileOptimization:這會使重複資料刪除將開啟檔案的所有區段最佳化,而非掃描具有最短使用期限的已變更區段。

      • 將 MinFileAgeDays 參數設為 0:停用 PartialFileOptimization 後,MinFileAgeDays 會變更其行為,因此重複資料刪除只會將該天數中未變更的檔案列入考量。 因為我們想要重複資料刪除開始處理所有 DPM VHDX 檔案的備份資料,沒有任何延遲,所以我們需要將 MinFileAgeDays 設為 0。

如需設定重複資料刪除的詳細資訊,請參閱安裝和設定資料重複

規劃及設定 DPM 存放裝置

若要避免分散問題及維護效率,DPM 存放裝置是使用重複資料刪除磁碟區上的 VHDX 檔案進行配置。 在每個磁碟區上每 1TB 建立 10 個動態 VHDX 檔案,並且附加至 DPM。 請注意,3TB 的存放裝置過度佈建已完成,以利用重複資料刪除所產生的存放裝置節省。 當重複資料刪除產生額外的存放裝置節省,可以在這些磁碟區上建立新的 VHDX 檔案以使用節省的空間。 我們所測試的 DPM 伺服器最多有 30 個附加到上面的 VHDX 檔案。

  1. 執行下列命令以建立後續會新增至 DPM 伺服器的虛擬硬碟:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. 然後將建立的虛擬硬碟新增至 DPM 伺服器,如下所示:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool –
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    請注意,此步驟會將存放集區設定為 DPM 儲存受保護資料之複本和復原點的所在磁碟。 這個集區是 DPM 組態的一部分,與上一節所述之用來建立資料磁碟區的儲存空間集區分隔開來。 如需 DPM 存放集區的詳細資訊,請參閱設定磁碟存放裝置和存放集區

規劃和設定 Windows 檔案伺服器叢集

重複資料刪除需要一組特殊的組態選項,以支援虛擬化的 DPM 存放裝置,原因是資料規模和個別檔案的大小。 這些選項對於叢集或叢集節點是全域的。 必須啟用重複資料刪除且叢集設定必須在每個叢集節點上個別設定。

  1. 在 Windows 檔案伺服器存放裝置上啟用重複資料刪除 — 重複資料刪除角色必須安裝在 Windows 檔案伺服器叢集的所有節點上。 若要完成這項操作,請在叢集的每個節點上執行下列 PowerShell 命令:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. 針對備份資料檔案微調重複資料刪除處理 — 執行下列 PowerShell 命令來設定啟動最佳化且沒有延遲,並且不最佳化部分檔案寫入。 請注意,預設記憶體回收 (GC) 工作排定為每週執行,且每四個星期 GC 工作會以「深層 GC」模式執行,花費大量時間更徹底搜尋要移除的資料。 對於 DPM 工作負載,此「深層 GC」模式不會導致任何令人激賞的效益以及減少重複資料刪除可以最佳化資料的時間量。 因此我們停用此深層模式。

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. 針對大規模作業微調效能 — 執行下列 PowerShell 指令碼:

    • 執行深層記憶體回收時停用其他處理和 I/O

    • 保留額外記憶體以進行雜湊處理

    • 啟用優先順序最佳化以允許立即重組大型檔案

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    這些設定會修改下列項目:

    • HashIndexFullKeyReservationPercent:這個值會控制針對現有區塊雜湊所使用的最佳化工作記憶體數量 (與新的區塊雜湊相比)。 在大規模作業中,70% 會導致比預設的 50% 更佳的最佳化輸送量。

    • EnablePriorityOptimization:當檔案接近 1TB 時,單一檔案的片段可以累積至足夠的片段,以接近每個檔案的限制。 最佳化處理會合併這些片段並防止到達此限制。 藉由設定這個登錄機碼,重複資料刪除會加入額外的處理序以應付具有高優先順序的高度分散重複資料刪除檔案。

規劃和設定 DPM 和重複資料刪除排程

備份及重複資料刪除作業都需要大量 I/O。 如果在相同時間執行,在作業之間切換的額外負擔可能會很耗費資源,並且導致每天的備份或重複資料刪除的資料較少。 我們建議您設定專用和個別的重複資料刪除和備份時段。 這有助於確保每個此類作業的 I/O 流量在每日系統作業期間有效率地分散。 排程的建議指導方針:

  • 將天數分成非重疊的備份及重複資料刪除時段。

  • 設定自訂的備份排程。

  • 設定自訂的重複資料刪除排程。

  • 在每日重複資料刪除時段排程最佳化。

  • 個別設定週末重複資料刪除排程,使用該時間進行記憶體回收和清除工作。

您可以使用下列 PowerShell 命令設定 DPM 排程:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime –
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime –DurationInHours
$duration

在此設定中,DPM 設定為在下午 10 點和上午 6 點之間備份虛擬機器。 重複資料刪除排程為在一天的剩餘 16 小時中進行。 請注意,您所設定的實際重複資料刪除時間取決於磁碟區大小。 如需詳細資訊,請參閱調整重複資料刪除磁碟區的大小。 16 小時的重複資料刪除時段從備份時段結束之後的上午 6 點開始,從任何個別的叢集節點上設定如下:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

每當備份時段修改時,一定要同時修改重複資料刪除時段,才不會重疊。 重複資料刪除和備份時段沒有填滿完整的一天 24 小時,但是強烈建議您讓它們填滿 24 小時,以允許預期的工作負載和資料變換每日變更所造成的處理時間變化。

備份效能的影響

一組檔案進行重複資料刪除之後,存取檔案時會有輕微的效能成本。 這是因為存取重複資料刪除檔案使用的檔案格式所需的額外處理。 在此案例中,檔案是一組 VHDX 檔案,在備份時段期間查看 DPM 的連續使用量。 讓這些檔案進行重複資料刪除的影響表示備份和復原作業會比沒有重複資料刪除時稍微慢一點。 對於任何備份產品,DPM 是寫入繁重工作負載,在還原作業期間最重要的是讀取作業。 解決由於重複資料刪除造成的備份效能影響的建議事項為:

  • 讀取/還原作業:對於讀取作業的影響通常可以忽略且不需要任何特殊考量,原因是重複資料刪除功能會快取重複資料刪除區塊。

  • 寫入/備份作業:定義備份期間時,規劃增加大約 5% 到 10% 的備份時間。 (這是相較於寫入非重複資料刪除磁碟區時預期備份時間的增加。)

監視

可以監視 DPM 和重複資料刪除以確定:

  • 佈建足夠的磁碟空間以儲存備份的資料

  • DPM 備份作業正常完成

  • 在備份磁碟區上啟用重複資料刪除

  • 已正確設定重複資料刪除排程

  • 每日正常完成重複資料刪除處理

  • 重複資料刪除節省率符合對系統組態所做的假設

重複資料刪除的成功與否取決於整體系統硬體功能 (包括 CPU 處理速度、I/O 頻寬、儲存容量)、正確的系統組態、平均系統負載和每日的已修改資料量。

您可以使用 DPM 中央主控台監視 DPM。 請參閱安裝中央主控台

您可以使用下列 PowerShell 命令監視重複資料刪除以檢查重複資料刪除狀態、節省率和排程狀態:

取得狀態:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

取得節省:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

使用 Get-DedupSchedule Cmdlet 取得排程狀態。

監視事件

監視事件記錄檔可以協助您了解重複資料刪除事件和狀態。

  • 若要檢視重複資料刪除事件,在[檔案總管 中,瀏覽至 [應用程式及服務記錄檔] > [Microsoft] > [Windows] > [重複資料刪除]。

  • 如果值 LastOptimizationResult = 0x00000000 出現在 Get-DedupStatus |fl Windows PowerShell 結果中,則整個資料集是由先前的最佳化作業處理。 如果沒有,則系統無法完成重複資料刪除處理程序,您可能想要檢查您的組態設定,例如磁碟區大小。

如需詳細的 Cmdlet 範例,請參閱監視和報告重複資料刪除

監視備份存放區

在我們的組態範例中,7.2 TB 磁碟區會填入儲存在 10 x 1 TB 動態 VHDX 檔案的 10 TB「邏輯性」資料 (不重複資料刪除時的資料大小)。 因為這些檔案會累積額外的備份資料,它們會慢慢填滿磁碟區。 如果從重複資料刪除產生的節省百分比夠高,所有 10 個檔案都會達到其最大的邏輯大小,但是仍然符合 7.2 TB 磁碟區 (可能甚至會有額外的空間可以配置額外的 VHDX 檔案讓 DPM 伺服器使用)。 但是如果重複資料刪除的節省大小不足,磁碟區上的空間可能會在 VHDX 檔案到達其完整邏輯大小之前即用盡,此時磁碟區就已填滿。 若要避免磁碟區填滿,我們建議下列事項:

  • 對於磁碟區大小需求持保守態度,以及允許某些過度佈建的存放裝置。 建議您在規劃備份存放區使用量時允許至少 10% 的緩衝區,以便允許重複資料刪除節省和資料變換時的預期變化。

  • 監視用於備份存放區的磁碟區,以確定空間使用量和重複資料刪除節省率是在預期的層級。

如果磁碟區已滿,則會產生下列徵兆:

  • DPM 虛擬機器將會進入重大暫停狀態,該 VM 無法發行進一步的備份作業。

  • 使用已滿磁碟區上 VHDX 檔案的所有備份作業將會失敗。

若要從此狀況復原並且將系統還原至正常運作,可以佈建額外的存放裝置,並且執行 DPM 虛擬機器或其 VHDX 的存放裝置移轉以釋出空間:

  1. 停止擁有已滿磁碟區共用上 VHDX 檔案的 DPM 伺服器。

  2. 建立額外的磁碟區和備份共用,方法是使用與用於現有共用相同的組態和設定,包括 NTFS 和重複資料刪除的設定。

  3. 針對 DPM 伺服器虛擬機器移轉存放裝置,並將至少一個 VHDX 檔案從已滿備份共用移轉到步驟 2 中建立的新的備份共用。

  4. 在已滿的來源備份共用上執行重複資料刪除記憶體回收 (GC) 作業。 GC 工作應該會成功並且回收可用空間。

  5. 重新啟動 DPM 伺服器虛擬機器

  6. DPM 一致性檢查作業會在先前失敗的所有資料來源的下一個備份時段期間觸發。

  7. 所有備份作業現在應該都會成功。

結論

重複資料刪除和 DPM 的組合提供大量空間節省。 如此可提供較高的保留率、更頻繁的備份以及 DPM 部署的更佳 TCO。 本文件的指引和建議應該會提供您工具和知識,以設定 DPM 存放裝置的重複資料刪除,並且親自體驗優點。

常見問題 (FAQ)

**問:**DPM VHDX 檔案大小必須為 1TB。 是否表示 DPM 無法備份大小 > 1TB 的 VM 或 SharePoint 或 SQL DB 或檔案磁碟區?

**答:**否。 DPM 會將多個磁碟區彙總為一個以儲存備份。 所以,1TB 的檔案大小對於 DPM 可以備份的資料來源大小沒有任何影響。

**問:**DPM 存放集區 VHDX 檔案好像只能部署在遠端 SMB 檔案共用上。 如果我在執行 DPM 虛擬機器所在的相同系統上的已啟用重複資料刪除磁碟區儲存備份的 VHDX 檔案,會發生什麼事?

**答:**如同前面所討論,DPM、Hyper-V 和重複資料刪除為儲存體與計算密集型的作業。 將這三者結合在單一系統中,會導致需要大量 I/O 和處理的作業,讓 Hyper-V 及其 VM 無資源可用。 如果您決定嘗試在相同機器上具有備份存放區的 VM 中設定 DPM,您應該謹慎監視效能以確保有足夠的 I/O 頻寬和計算容量以維護相同機器上的所有三項作業。

**問:**您建議使用專用且個別的重複資料刪除以及備份期間。 為何我在 DPM 備份時無法啟用重複資料刪除? 我需要每隔 15 分鐘備份我的 SQL DB。

**答:**重複資料刪除和 DPM 為需要大量儲存體的作業,同時執行兩者可能會沒有效率並導致 I/O 資源用盡。 因此,若要保護工作負載一天一次以上 (例如,SQL Server 每隔 15 分鐘),並且同時啟用重複資料刪除,請確保有足夠 I/O 頻寬和電腦容量以避免資源耗盡。

**問:**根據所述的設定,DPM 需要在虛擬機器中執行。 為何我無法在複本磁碟區和陰影複製磁碟區上直接啟用重複資料刪除,而是必須在 VHDX 檔案上啟用?

**答:**重複資料刪除會對每個磁碟區的個別檔案進行重複資料刪除。 因為重複資料刪除在檔案層級效果最佳,它並不是設計來支援 VolSnap 技術,DPM 利用該技術來儲存其備份資料。 藉由在 VM 中執行 DPM,Hyper-V 會將 DPM 磁碟區作業對應至 VHDX 檔案層級,允許重複資料刪除最佳化備份資料,並且提供更大的存放裝置節省。

**問:**上述的範例設定僅建立 7.2TB 的磁碟區。 可以建立更大或更小的磁碟區嗎?

**答:**重複資料刪除在每個磁碟區皆只執行一個執行緒。 當磁碟區大小變得更大時,重複資料刪除需要更多時間來完成其最佳化。 另一方面,若是較小的磁碟區,則要在其中尋找重複區塊的資料較少,如此會導致減少的節省量。 因此,建議您根據變換總計和適用於最佳節省的系統硬體功能微調磁碟區大小。 如需關於判斷用於重複資料刪除的磁碟區大小的詳細資訊,請參閱「調整 Windows Server 中重複資料刪除磁碟區的大小」。 如需關於判斷用於重複資料刪除的磁碟區大小的詳細資訊,請參閱調整重複資料刪除磁碟區的大小