Compartilhar via


Eliminar duplicados no armazenamento do DPM

Importante

Esta versão do Data Protection Manager (DPM) chegou ao fim do suporte. Recomendamos que atualize para o DPM 2022.

O System Center Data Protection Manager (DPM) pode utilizar a eliminação de dados duplicados.

A eliminação de dados duplicados (eliminação de duplicados) localiza e remove dados duplicados num volume, garantindo que os dados permanecem corretos e concluídos. Obter mais informações sobre planeamento de eliminação de duplicados.

  • A eliminação de duplicados reduz o consumo de armazenamento. Embora a quantidade de redundância para um conjunto de dados dependa da carga de trabalho e do tipo de dados, normalmente os dados de cópia de segurança mostram uma poupança forte quando a eliminação de duplicados é utilizada.

  • A redundância de dados pode ser reduzida ainda mais com a eliminação de duplicados quando os dados de cópia de segurança de tipos e cargas de trabalho semelhantes são processados em conjunto.

  • A eliminação de dados foi concebida para ser instalada em volumes de dados primários sem hardware dedicado adicional para que não afete a carga de trabalho primária no servidor. As predefinições não são intrusivas, uma vez que permitem a idade dos dados durante cinco dias antes do processamento de um ficheiro específico e têm um tamanho de ficheiro mínimo predefinido de 32 KB. A implementação foi desenvolvida de modo a utilizar pouca memória e CPU.

  • A eliminação de duplicados pode ser implementada nas seguintes cargas de trabalho:

    • Partilhas de ficheiros gerais: publicação e partilha de conteúdos de grupo, pastas raiz do utilizador e redirecionamento de pastas/ficheiros Offline

    • Partilhas de implementação de software: binários, imagens e atualizações de Software

    • Bibliotecas de VHD: armazenamento de ficheiros de disco rígido virtual (VHD) para aprovisionamento dos hipervisores

    • Implementações do VDI (apenas no Windows Server 2012 R2): implementações de Infraestrutura de Ambiente de Trabalho Virtual (VDI) através de Hyper-V

    • Cópia de segurança virtualizada: soluções de cópia de segurança (como o DPM em execução numa máquina virtual Hyper-V) que guardam dados de cópia de segurança em ficheiros VHD/VHDX num Servidor de Ficheiros do Windows

DPM e eliminação de duplicados

A utilização da eliminação de duplicados com o DPM pode resultar em reduções significativas. A quantidade de espaço que a eliminação de duplicados permite poupar aquando da otimização dos dados de cópia de segurança do DPM varia consoante o tipo de dados cuja cópia de segurança se pretende criar. Por exemplo, a cópia de segurança de um servidor de bases de dados encriptado poderá resultar numa redução mínima, uma vez que os dados duplicados são ocultados pelo próprio processo de encriptação. No entanto, a cópia de segurança de uma grande implementação da Infraestrutura de Ambiente de Trabalho Virtual (VDI) pode resultar em grandes poupanças no intervalo de 70-90+%, uma vez que normalmente existe uma grande quantidade de duplicação de dados entre os ambientes de trabalho virtual. Na configuração descrita no artigo, executámos várias cargas de trabalho de teste e vimos poupanças entre 50% e 90%.

Para utilizar a eliminação de duplicados para o armazenamento do DPM, o DPM deve estar em execução numa máquina virtual hyper-V e armazenar dados de cópia de segurança em VHDs em pastas partilhadas com a eliminação de dados ativada.

Para implementar o DPM como uma máquina virtual que cria cópias de segurança de dados para um volume de eliminação de duplicados, recomendamos a seguinte topologia de implementação:

  • DPM em execução numa máquina virtual de um cluster anfitrião de Hyper-V.

  • O armazenamento do DPM utiliza ficheiros VHD/VHDX armazenados uma partilha do SMB 3.0 num servidor de ficheiros.

  • Para o nosso exemplo de teste, configurámos o servidor de ficheiros como um servidor de ficheiros de escalamento horizontal (SOFS) implementado com volumes de armazenamento configurados a partir de Espaços de Armazenamento conjuntos criados com unidades SAS diretamente ligadas. Esta implementação garante o desempenho em escala.

Tenha em atenção que:

  • Esta implementação é suportada para o DPM 2012 R2 e posterior e para todos os dados da carga de trabalho que podem ser cópias de segurança do DPM 2012 R2 e posterior.

  • Todos os nós do Windows File Server nos quais residem discos rígidos virtuais do DPM e nos quais a eliminação de duplicados será ativada têm de estar a ser executados Windows Server 2012 R2 com o Update Rollup novembro de 2014 ou posterior.

  • Iremos fornecer recomendações gerais e instruções para a implementação do cenário. Sempre que forem fornecidos exemplos de hardware específico, o hardware implementado no Microsoft Cloud Platform System (CPS) será utilizado como referência.

  • Este exemplo utiliza partilhas remotas do SMB 3.0 para armazenar os dados de cópia de segurança, pelo que os requisitos de hardware primários centram-se nos nós do Servidor de Ficheiros em vez dos nós do Hyper-V. A seguinte configuração de hardware é utilizada no CPS para armazenamento de cópias de segurança e de produção. O hardware geral é utilizado tanto para a cópia de segurança como para o armazenamento de produção, mas o número de unidades listadas nos bastidores da unidade são apenas as utilizadas para cópia de segurança.

    • Cluster de Servidor de Ficheiros de Escalamento Horizontal de Quatro nós

    • Por configuração de nó

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 núcleos, 16 processadores lógicos

      • 128 GB de memória RDIMM de 1333 MHz

      • Ligações de armazenamento: 2 portas de SAS, 1 porta de 10 GbE iWarp/RDMA

    • Quatro bastidores de unidade JBOD

      • 18 Discos em cada JBOD - 16 x 4 HDDs TB + 2 x 800 GB de SSDs

      • Caminho duplo para cada unidade – Política de balanceamento de carga multipath I/O definida para ativação pós-falha apenas

      • SSDs configurados para cache write-back (WBC) e o resto para unidades de diário dedicadas

Configurar volumes com eliminação de duplicados

Vejamos o tamanho que os volumes deverão ter para suportar os ficheiros VHDX com eliminação de duplicados que contêm dados do DPM. No CPS, criámos volumes de 7,2 TB cada. O tamanho de volume ideal depende principalmente da quantidade e frequência com que os dados são alterados no volume e das taxas de débito no acesso aos dados do subsistema de armazenamento em disco. É importante ter em atenção que, se o processamento da eliminação de duplicados não conseguir acompanhar a taxa de alterações diárias de dados (a taxa de abandono), a taxa de poupança diminuirá até que o processamento possa ser concluído. Para obter informações mais detalhadas, veja Dimensionar Volumes para Eliminação de Dados Duplicados. As seguintes diretrizes gerais são recomendadas para volumes de eliminação de duplicados:

  • Utilize Espaços de Armazenamento de Paridade com deteção de compartimento para efeitos de resiliência e maior utilização do disco.

  • Formate o NTFS com unidades de alocação de 64 KB e segmentos de registo de ficheiros grandes para funcionar melhor com a utilização de eliminação de ficheiros dispersos.

  • Na configuração de hardware acima do tamanho de volume recomendado de volumes de 7,2 TB, os volumes serão configurados da seguinte forma:

    • Paridade dupla com suporte para bastidores 7,2 TB + 1 GB Cache de repetição de escrita

      • ResiliencySettingName == Paridade

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (o desempenho da paridade dupla a 64 KB entrelaçar é muito inferior à intercalação predefinida de 256 KB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • FRS grande

      Configure um novo disco virtual no agrupamento de armazenamento especificado da seguinte forma:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • De seguida, cada um destes volumes deverá ser formatado assim:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Aquando da implementação do CPS, estes serão configurados como CSVs.

    • Nestes volumes, o DPM irá armazenar uma série de ficheiros VHDX para armazenar os dados de cópia de segurança. Ative a eliminação de duplicados no volume após formatá-la da seguinte formatação:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Este comando também modifica as seguintes definições de eliminação de duplicados ao nível do volume:

      • Definir UsageType como HyperV: isto resulta no processamento de duplicados de ficheiros abertos, que são necessários porque os ficheiros VHDX utilizados para o armazenamento de cópias de segurança pelo DPM permanecem abertos com o DPM em execução na máquina virtual.

      • Desativar PartialFileOptimization: isto faz com que a eliminação de duplicados otimize todas as secções de um ficheiro aberto em vez de procurar secções alteradas com uma idade mínima.

      • Defina o parâmetro MinFileAgeDays como 0: Com PartialFileOptimization desativado, o MinFileAgeDays altera o seu comportamento para que a eliminação de duplicados considere apenas os ficheiros que não foram alterados nesses dias. Uma vez que o que se pretende é que a eliminação de duplicados dê início ao processamento dos dados de cópia de segurança em todos os ficheiros VHDX do DPM sem demora, é preciso definir o parâmetro MinFileAgeDays como 0.

Para obter mais informações sobre como configurar a eliminação de duplicados, veja Instalar e Configurar a Duplicação de Dados.

Configurar o armazenamento do DPM

Para evitar problemas de fragmentação e manter a eficiência, o armazenamento do DPM é alocado mediante a utilização de ficheiros VHDX que residem nos volumes com eliminação de duplicados. São criados dez ficheiros VHDX dinâmicos de 1 TB em cada volume e anexados ao DPM. Além disso, é feito 3 TB de sobreaprovisionamento do armazenamento para tirar partido das poupanças de armazenamento produzidas pela eliminação de duplicados. À medida que a eliminação de duplicados produz poupanças de armazenamento adicionais, podem ser criados novos ficheiros VHDX nestes volumes para consumir o espaço guardado. Testámos o servidor DPM com até 30 ficheiros VHDX anexados ao mesmo.

  1. Execute o seguinte comando para criar discos rígidos virtuais, que serão adicionados mais tarde ao servidor DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Em seguida, adicione os discos rígidos virtuais criados ao servidor DPM da seguinte forma:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Este passo configura um agrupamento de armazenamento como o disco ou discos nos quais o DPM armazena réplicas e pontos de recuperação para dados protegidos. Este conjunto faz parte da configuração do DPM e está separado do conjunto Espaços de Armazenamento utilizado para criar os volumes de dados descritos na secção anterior. Para obter mais informações sobre os agrupamentos de armazenamento do DPM, veja Configurar o armazenamento de discos e os agrupamentos de armazenamento.

Configurar o cluster do Servidor de Ficheiros Windows

A eliminação de duplicados precisa de um conjunto especial de opções de configuração para suportar o armazenamento do DPM virtualizado devido à escala dos dados e ao tamanho dos ficheiros individuais. Estas opções são globais para o cluster ou nó de cluster. A eliminação de duplicados tem de estar ativada e as definições de cluster devem estar configuradas individualmente em cada nó do cluster.

  1. Ativar a eliminação de duplicados no armazenamento do Windows File Server – a função Eliminação de Duplicados tem de ser instalada em todos os nós do cluster do Windows File Server. Para tal, execute o seguinte comando do PowerShell em cada nó do cluster:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Otimizar o processamento de eliminação de duplicados para ficheiros de dados de cópia de segurança – execute o seguinte comando do PowerShell para definir como iniciar a otimização sem demora e não otimizar as escritas parciais de ficheiros. Por predefinição, as tarefas de Libertação da Memória (GC) são agendadas todas as semanas e, a cada quarta semana, a tarefa gc é executada no modo "GC profundo" para uma pesquisa mais exaustiva e intensiva de tempo para que os dados sejam removidos. Para a carga de trabalho do DPM, este modo "GC profundo" não resulta em ganhos apreciáveis e reduz a quantidade de tempo em que a eliminação de duplicados pode otimizar os dados. É por este motivo que desativamos este modo de pesquisa avançada.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Otimizar o desempenho das operações de grande escala – execute o seguinte script do PowerShell para:

    • Desativar o processamento adicional e as E/S quando a libertação da memória avançada é executada

    • Reservar memória adicional para o processamento de hash

    • Ativar a otimização de prioridades de modo a permitir a desfragmentação imediata de ficheiros grandes

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Estas definições modificam o seguinte:

    • HashIndexFullKeyReservationPercent: este valor controla a quantidade de memória da tarefa de otimização utilizada para hashes de segmento existentes versus novos hashes de segmentos. Numa escala elevada, o patamar de 70% resulta num débito de otimização melhor do que o patamar predefinido de 50%.

    • EnablePriorityOptimization: com ficheiros que se aproximam de 1 TB, a fragmentação de um único ficheiro pode acumular fragmentos suficientes para se aproximar do limite por ficheiro. O processamento da otimização consolida estes fragmentos e impede que este limite seja atingido. Ao definir esta chave de registo, a eliminação de duplicados adicionará um processo suplementar para lidar com os ficheiros com eliminação de duplicados altamente fragmentados com alta prioridade.

Configurar o DPM e o agendamento de eliminação de duplicados

As operações de cópia de segurança e eliminação de duplicados são ambas intensivas em termos de E/S. Se fossem executadas ao mesmo tempo, o overhead adicional necessário para alternar entre estas operações poderia revelar-se dispendioso e resultar na cópia de segurança ou eliminação de duplicados de um menor número de dados por dia. Recomendamos que configure períodos de eliminação de duplicados e de cópia de segurança dedicados e separados. Isto ajuda a assegurar uma distribuição eficiente do tráfego de E/S para cada uma destas operações durante o funcionamento quotidiano do sistema. Seguem-se as diretrizes recomendadas para o agendamento:

  • Dividir os dias em períodos de cópia de segurança e eliminação de duplicados não sobrepostos.

  • Configurar agendas de cópia de segurança personalizadas.

  • Configurar agendas de eliminação de duplicados personalizadas.

  • Agendar a otimização no período de eliminação de duplicados diário.

  • Configurar agendas de eliminação de duplicados separadas ao fim de semana, utilizando esse tempo para executar tarefas de limpeza e libertação da memória.

Pode configurar as agendas do DPM com o seguinte comando do PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

Nesta configuração, o DPM está configurado para fazer a cópia de segurança das máquinas virtuais entre as 22:00 e as 6:00. A eliminação de duplicados está agendada para as restantes 16 horas do dia. O tempo real de eliminação de duplicados que configurar dependerá do tamanho do volume. Para obter mais informações, veja Dimensionar Volumes para Eliminação de Dados Duplicados. Uma janela de eliminação de duplicados de 16 horas a partir das 6:00 após o fim da janela de cópia de segurança seria configurada da seguinte forma a partir de qualquer nó de cluster individual:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Sempre que a janela de cópia de segurança é modificada, é vital que a janela de eliminação de duplicados seja modificada juntamente com a mesma para que não se sobreponham. A janela de eliminação de duplicados e cópias de segurança não tem de preencher as 24 horas completas do dia; no entanto, é altamente recomendado que o façam para permitir variações no tempo de processamento devido às alterações diárias esperadas nas cargas de trabalho e alterações de dados.

Implicações em termos de desempenho da cópia de segurança

Após a eliminação de duplicados de um conjunto de ficheiros, pode haver um ligeiro custo de desempenho ao aceder aos ficheiros. Isto acontece devido ao processamento adicional necessário para aceder ao formato de ficheiro utilizado pelos ficheiros com eliminação de duplicados. Neste cenário, os ficheiros são um conjunto de ficheiros VHDX utilizados de forma contínua pelo DPM durante o período de cópia de segurança. O efeito de eliminação de duplicados destes ficheiros significa que as operações de cópia de segurança e recuperação podem ser ligeiramente mais lentas do que sem eliminação de duplicados. À semelhança de qualquer outro produto de cópia de segurança, o DPM caracteriza-se por uma carga de trabalho cuja ênfase recai nas operações de escrita, sendo as operações de leitura mais importantes durante as operações de restauro. Seguem-se as recomendações para fazer face às implicações que a eliminação de duplicados tem sobre o desempenho da cópia de segurança:

  • Operações de leitura/restauro: os efeitos nas operações de leitura são normalmente insignificantes e não requerem considerações especiais, uma vez que a funcionalidade de eliminação de duplicados coloca em cache segmentos com eliminação de duplicados.

  • Operações de escrita/cópia de segurança: planeie um aumento do tempo de cópia de segurança de 5 a 10% ao definir a janela de cópia de segurança. (Este é um aumento comparado com o tempo de cópia de segurança esperado nas operações de escrita em volumes sem eliminação de duplicados.)

Monitorização

O DPM e a eliminação de dados duplicados podem ser monitorizados para garantir que:

  • Existe espaço em disco suficiente aprovisionado para armazenar os dados de cópia de segurança

  • A conclusão das tarefas de cópia de segurança do DPM está a decorrer com normalidade

  • A eliminação de duplicados está ativada nos volumes de cópia de segurança

  • As agendas de eliminação de duplicados estão definidas corretamente

  • A conclusão do processamento da eliminação de duplicados está a decorrer com normalidade, todos os dias

  • A taxa de reduções da eliminação de duplicados corresponde aos pressupostos estabelecidos para a configuração do sistema

O êxito da eliminação de duplicados depende das capacidades globais do hardware do sistema (incluindo a velocidade de processamento da CPU, a largura de banda de E/S e a capacidade de armazenamento), da correta configuração do sistema, da carga média do sistema e da quantidade diária de dados modificados.

Pode monitorizar o DPM utilizando a Consola Central do DPM. Consulte o artigo Instalar a Consola Central.

Pode monitorizar a eliminação de duplicados para verificar o estado da eliminação de duplicados, a taxa de poupança e o estado de agendamento com os seguintes comandos do PowerShell:

Obtenção do estado:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Obtenção de reduções:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Obtenha o estado da agenda com o cmdlet Get-DedupSchedule.

Monitorizar eventos

A monitorização do registo de eventos pode ajudar a compreender os eventos e o estado da eliminação de duplicados.

  • Para ver eventos de eliminação de duplicados, no Explorador de Ficheiros, navegue para Registos de Serviços e Aplicações>Microsoft>Windows>Eliminação de Duplicados.

  • Se o valor LastOptimizationResult = 0x00000000 for apresentado na Get-DedupStatus |resultados Windows PowerShell fl, todo o conjunto de dados foi processado pela tarefa de otimização anterior. Caso contrário, significa que o sistema não conseguiu concluir o processamento da eliminação de duplicados, pelo que convirá verificar as definições da configuração, por exemplo, o tamanho do volume.

Para obter exemplos de cmdlets mais detalhados, consulte o artigo Monitorizar e Criar Relatórios para a Eliminação de Dados Duplicados(em inglês).

Monitorizar o armazenamento de cópias de segurança

No nosso exemplo de configuração, os volumes de 7,2 TB são preenchidos com 10 TB de dados "lógicos" (o tamanho dos dados quando não são duplicados) armazenados em ficheiros VHDX dinâmicos de 1 TB. À medida que estes ficheiros acumulam dados de cópia de segurança adicionais, vão lentamente preenchendo o volume. Se a percentagem de poupança resultante da eliminação de duplicados for suficientemente elevada, todos os 10 ficheiros poderão atingir o tamanho lógico máximo e continuar a caber no volume de 7,2 TB (potencialmente, poderá haver espaço adicional para alocar ficheiros VHDX adicionais para os servidores DPM utilizarem). No entanto, se as poupanças de tamanho da eliminação de duplicados não forem suficientes, o espaço no volume poderá esgotar-se antes de os ficheiros VHDX atingirem o tamanho lógico total e o volume ficar cheio. Para evitar que os volumes fiquem cheios, recomendamos o seguinte:

  • Seja prudente quanto aos requisitos de tamanho de volume e contemple algum aprovisionamento extra em termos de armazenamento. Recomenda-se que permita uma memória intermédia de, pelo menos, 10% ao planear a utilização do armazenamento de cópias de segurança para permitir variações esperadas na poupança de eliminação de duplicados e alterações a dados.

  • Monitorize os volumes utilizados no armazenamento de cópias de segurança para garantir que a utilização do espaço e as taxas de reduções da eliminação de duplicados se apresentam nos níveis esperados.

Se o volume ficar cheio, os seguintes sintomas resultam:

  • A máquina virtual do DPM será colocada num estado crítico de pausa e não poderá emitir mais tarefas de cópia de segurança.

  • Todas as tarefas de cópia de segurança que utilizam ficheiros VHDX no volume cheio não serão bem-sucedidas.

Para recuperar desta condição e restaurar o sistema para o funcionamento normal, pode ser aprovisionado armazenamento adicional e pode ser efetuada uma migração de armazenamento da máquina virtual do DPM ou do respetivo VHDX para libertar espaço:

  1. Pare o Servidor DPM a que pertencem os ficheiros VHDX na partilha de cópia de segurança completa.

  2. Crie um volume adicional e uma partilha de cópia de segurança utilizando a mesma configuração e definições que as utilizadas pelas partilhas existentes, incluindo as definições para NTFS e eliminação de duplicados.

  3. Migre o Armazenamento para a máquina virtual do Servidor DPM e migre pelo menos um ficheiro VHDX da partilha de cópia de segurança completa para a nova partilha de cópia de segurança criada no passo 2.

  4. Execute uma tarefa de libertação da memória (GC) de Eliminação de Dados Duplicados na partilha de cópia de segurança de origem que estava cheia. A tarefa de GC deverá ser bem-sucedida e recuperar o espaço livre.

  5. Reinicie a máquina virtual do Servidor DPM.

  6. Será acionada uma tarefa de verificação de consistência do DPM durante a próxima janela de cópia de segurança para todas as origens de dados que falharam anteriormente.

  7. Agora, todas as tarefas de cópia de segurança deverão ser bem-sucedidas.

Resumo

Em conjunto, a eliminação de duplicados e o DPM proporcionam reduções de espaço substanciais. Isto permite taxas de retenção mais elevadas, cópias de segurança mais frequentes e um TCO mais vantajoso para a implementação do DPM. As orientações e recomendações contidas neste documento deverão fornecer as ferramentas e os conhecimentos de que precisa para configurar a eliminação de duplicados para o armazenamento do DPM e comprovar os benefícios em primeira mão na sua própria implementação.

Perguntas comuns

P: Os ficheiros VHDX do DPM têm de ter um tamanho de 1 TB. Isto significa que o DPM não pode criar cópias de segurança de uma VM, do SharePoint ou da BD SQL ou do volume de ficheiros de tamanho > 1 TB?

R: Não, não. O DPM agrega vários volumes num só para armazenar cópias de segurança. Assim, o tamanho do ficheiro de 1 TB não tem quaisquer implicações para tamanhos de origem de dados que o DPM pode fazer cópia de segurança.

Q: Pelo que é dado a entender, os ficheiros VHDX de armazenamento do DPM devem ser implementados em partilhas de ficheiros do SMB remotas apenas. O que acontecerá se armazenar os ficheiros VHDX de cópia de segurança em volumes preparados para a eliminação de duplicados no mesmo sistema em que a máquina virtual do DPM está em execução?

R: Conforme abordado acima, o DPM, o Hyper-V e a eliminação de duplicados são operações de armazenamento e computação intensivas. Combinar os três num único sistema pode levar a operações de E/S e processos intensivos que podem causar fome no Hyper-V e nas respetivas VMs. Se decidir experimentar a configuração do DPM numa VM com os volumes de armazenamento de cópias de segurança no mesmo computador, deve monitorizar cuidadosamente o desempenho para garantir que existe largura de banda e capacidade de computação de E/S suficientes para manter as três operações no mesmo computador.

P: São recomendados períodos de eliminação de duplicados e cópia de segurança dedicados e separados. Por que motivo não devo ativar a eliminação de duplicados enquanto decorre a cópia de segurança do DPM? Preciso de fazer uma cópia de segurança da minha BD SQL a cada 15 minutos.

R: A eliminação de duplicados e o DPM são operações de armazenamento intensivo e ter ambos em execução ao mesmo tempo pode ser ineficiente e levar à fome de E/S. Por conseguinte, para proteger cargas de trabalho mais do que uma vez por dia (por exemplo, SQL Server a cada 15 minutos) e para ativar a eliminação de duplicados ao mesmo tempo, certifique-se de que existe largura de banda e capacidade de computador suficientes para evitar a falta de recursos.

P: Com base na configuração descrita, o DPM precisa de estar em execução numa máquina virtual. Por que motivo não posso ativar a eliminação de duplicados diretamente nos volumes de réplica e nos volumes de cópia sombra em vez de nos ficheiros VHDX?

R: A eliminação de duplicados é efetuada por volume em ficheiros individuais. Uma vez que a eliminação de duplicados é otimizada ao nível do ficheiro, não foi concebida para suportar a tecnologia de VolSnap que o DPM utiliza para armazenar os respetivos dados de cópia de segurança. Ao executar o DPM numa VM, o Hyper-V mapeia as operações de volume do DPM para o nível de ficheiro VHDX, o que permite à eliminação de duplicados otimizar os dados de cópia de segurança e proporcionar maiores reduções de armazenamento.

P: A configuração de exemplo acima criou apenas volumes de 7,2 TB. Posso criar volumes maiores ou mais pequenos?

R: A eliminação de duplicados executa um thread por volume. À medida que o tamanho do volume vai ficando maior, a eliminação de duplicados precisa de mais tempo para concluir a otimização. Por outro lado, com volumes pequenos, existem menos dados para encontrar segmentos duplicados, o que pode resultar numa redução da poupança. Por isso, é aconselhável ajustar o tamanho do volume com base no total de alterações e capacidades de hardware do sistema para uma poupança ideal. Pode encontrar informações mais detalhadas sobre como determinar os tamanhos de volume utilizados com a eliminação de duplicados no artigo Dimensionar volumes para a Eliminação de Duplicados no Windows Server (em inglês). Para obter informações mais detalhadas sobre como determinar os tamanhos de volume utilizados com a eliminação de duplicados, veja Dimensionar Volumes para Eliminação de Dados Duplicados.