Eliminar duplicação de armazenamento DPM

Importante

Esta versão do DPM (Data Protection Manager) chegou ao fim do suporte. Recomendamos que você atualize para o DPM 2022.

O System Center Data Protection Manager (DPM) pode usar eliminação de duplicação de dados.

A Eliminação de Duplicação de Dados (ou deduplicação) localiza e remove dados duplicados em um volume, garantindo a correção e completude dos dados. Saiba mais sobre o planejamento de eliminação de duplicação.

  • A eliminação de deduções reduz o consumo de armazenamento. Embora a quantidade de redundância para um conjunto de dados dependa da carga de trabalho e do tipo de dados, normalmente os dados de backup mostram uma economia forte quando a eliminação de dados é usada.

  • A redundância de dados pode ser ainda mais reduzida com a eliminação de duplicatas quando os dados de backup de tipos semelhantes e as cargas de trabalho são processados em conjunto.

  • O Dedup foi projetado para ser instalado em volumes de dados primários sem hardware dedicado adicional para que não afete a carga de trabalho primária no servidor. As configurações padrão não são intrusivas, pois permitem que os dados envelhecem por cinco dias antes de processar um arquivo específico e têm um tamanho de arquivo mínimo padrão de 32 KB. A implementação foi criada para pouco uso da memória e da CPU.

  • A eliminação de duplicatas pode ser implementada nas seguintes cargas de trabalho:

    • Compartilhamentos de arquivos gerais: publicação e compartilhamento de conteúdo de grupo, pastas base do usuário e Arquivos Offline/de Redirecionamento de Pasta

    • Compartilhamentos de implantações de software: Binários de software, imagens e atualizações

    • Bibliotecas de VHD: armazenamento de arquivos do VHD (disco rígido virtual) para provisionamento em hipervisores

    • Implantações de VDI (somente Windows Server 2012 R2): implantações de VDI (Virtual Desktop Infrastructure) usando Hyper-V

    • Backup virtualizado: soluções de backup (como o DPM em execução em uma máquina virtual Hyper-V) que salvam dados de backup em arquivos VHD/VHDX em um Servidor de Arquivos do Windows

DPM e eliminação de duplicatas

O uso da eliminação de duplicatas com o DPM pode resultar em grandes economias. A quantidade de espaço poupado pela eliminação de duplicatas ao otimizar o backup de dados do DPM varia dependendo do tipo de dados de backup. Por exemplo, um backup de um servidor de banco de dados criptografado pode resultar em uma economia mínima, pois todos os dados duplicados são ocultados pelo processo de criptografia. No entanto, o backup de uma implantação de VDI (Virtual Desktop Infrastructure grande) pode resultar em uma grande economia no intervalo de 70 a 90%, pois normalmente há uma grande quantidade de duplicação de dados entre os ambientes de área de trabalho virtual. Na configuração descrita no artigo, realizamos várias cargas de trabalho de teste e vimos economias variando entre 50% e 90%.

Para usar a eliminação de problemas para o armazenamento do DPM, o DPM deve estar em execução em uma máquina virtual hyper-V e armazenar dados de backup em VHDs em pastas compartilhadas com a eliminação de dados habilitada.

Para implantar o DPM como uma máquina virtual que faz o backup dos dados para um volume com eliminação de duplicação, recomendamos a seguinte topologia de implantação:

  • DPM em execução em uma máquina virtual em um cluster de host do Hyper-V.

  • Armazenamento do DPM usando arquivos VHD/VHDX armazenados em um compartilhamento SMB 3.0 em um servidor de arquivos.

  • Para o nosso exemplo de teste, configuramos o servidor de arquivos como um SOFS (Servidor de Arquivos de Escalabilidade Horizontal) implantado usando volumes de armazenamento configurados a partir de pools de espaços de armazenamento construídos usando drives SAS conectados diretamente. Essa implantação garante o desempenho em escala.

Observe que:

  • Essa implantação tem suporte para o DPM 2012 R2 e posterior e para todos os dados de carga de trabalho que podem ser copiados em backup pelo DPM 2012 R2 e posterior.

  • Todos os nós do Servidor de Arquivos do Windows em que os discos rígidos virtuais do DPM residem e nos quais a eliminação de duplicatas será habilitada devem estar executando o Windows Server 2012 R2 com o Pacote cumulativo de atualizações de novembro de 2014 ou posterior.

  • Forneceremos recomendações e instruções gerais para a implantação do cenário. Sempre que são fornecidos exemplos específicos de hardware, o hardware implantado no Sistema de Plataforma de Nuvem da Microsoft (CPS) é usado para referência.

  • Este exemplo usa compartilhamentos SMB 3.0 remotos para armazenar os dados de backup de forma que os requisitos de hardware principais se concentrem nos nós do servidor de arquivos em vez dos nós do Hyper-V. A seguinte configuração de hardware é usada no CPS para armazenamento de backup e de produção. O hardware geral é usado para backup e armazenamento de produção, mas o número de unidades listadas nos compartimentos de unidade são apenas aquelas usadas para backup.

    • Cluster do Servidor de Arquivos de Escalabilidade Horizontal de quatro nós

    • Configuração por nó

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 núcleos, 16 processadores lógicos

      • Memória RDIMM de 128 GB, 1333 MHz

      • Conexões de armazenamento: 2 portas de SAS, 1 porta de 10 GbE iWarp/RDMA

    • Quatro compartimentos de unidade JBOD

      • 18 discos em cada JBOD – HDDs de 16 x 4 TB + 2 x 800 GB de SSDs

      • Caminho duplo para cada unidade - política de balanceamento de carga Multipath I/O definida para failover apenas

      • SSDs configurados para WBC (cache com write-back) e o restante para unidades de diário dedicadas

Configurar volumes de eliminação de duplicatas

Vamos considerar qual deve ser o tamanho dos volumes para darem suporte aos arquivos VHDX com eliminação de duplicação que contenham dados do DPM. No CPS, criamos volumes de 7,2 TB cada. O tamanho do volume ideal depende, principalmente, da intensidade e da frequência das alterações dos dados no volume e nas taxas de transferência de acesso dos dados do subsistema de armazenamento do disco. É importante observar que, se o processamento de eliminação de duplicação não puder acompanhar a taxa de alterações diárias de dados (a rotatividade), a taxa de economia cairá até que o processamento possa ser concluído. Para obter informações mais detalhadas, consulte Dimensionando volumes para eliminação de duplicação de dados. As seguintes diretrizes gerais são recomendadas para volumes de eliminação de deduções:

  • Use espaços de armazenamento de paridade com reconhecimento de compartimento para aumentar a resiliência e a utilização do disco.

  • Formate o NTFS com unidades de alocação de 64 KB e segmentos de registro de arquivo grandes para funcionar melhor com o uso de arquivos esparsos.

  • Na configuração de hardware acima do tamanho de volume recomendado de volumes de 7,2 TB, os volumes serão configurados da seguinte maneira:

    • Paridade dupla com reconhecimento de compartimento de 7,2 TB + 1 GB de cache de write-back

      • ResiliencySettingName == Paridade

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Intercalar == 256 KB (o desempenho de paridade dupla em intercalação de 64 KB é muito menor do que no intercalamento padrão de 256 KB)

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • FRS grande

      Configure um novo disco virtual no pool de armazenamento especificado da seguinte maneira:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Cada um desses volumes deve ser formatado como:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Na implantação do CPS, eles são configurados como CSVs.

    • Nesses volumes, o DPM armazenará uma série de arquivos VHDX para armazenar os dados de backup. Habilite a eliminação de duplicação no volume depois de formatá-la da seguinte maneira:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Esse comando também modifica as seguintes configurações de eliminação de deduções no nível do volume:

      • Defina UsageType como HyperV: Isso resulta na eliminação de duplicação do processamento de arquivos abertos, que é necessária porque os arquivos VHDX usados para armazenamento de backup pelo DPM permanecem abertos com o DPM em execução em sua máquina virtual.

      • Desabilitar PartialFileOptimization: isso faz com que o dedup otimize todas as seções de um arquivo aberto em vez de verificar seções alteradas com uma idade mínima.

      • Defina o parâmetro MinFileAgeDays como 0: Com PartialFileOptimization desabilitado, o MinFileAgeDays altera seu comportamento para que a eliminação de duplicação só considere arquivos que não tenham sido alterados nessa quantidade de dias. Como queremos que a eliminação de duplicação comece a processar os dados de backup em todos os arquivos VHDX DPM sem atraso, precisamos definir MinFileAgeDays como 0.

Para obter mais informações sobre como configurar a eliminação de duplicação, consulte Instalar e configurar a duplicação de dados.

Configurar o armazenamento do DPM

Para evitar problemas de fragmentação e manter a eficiência, o armazenamento do DPM é alocado usando arquivos VHDX que residem em volumes com eliminação de duplicação. Dez arquivos VHDX dinâmicos de 1 TB são criados em cada volume e anexados ao DPM. Além disso, 3 TB de superprovisionamento de armazenamento é feito para aproveitar as economias de armazenamento produzidas pela eliminação de disponibilidade. À medida que a eliminação de memória produz economias de armazenamento adicionais, novos arquivos VHDX podem ser criados nesses volumes para consumir o espaço salvo. Nós testamos o servidor do DPM com até 30 arquivos VHDX anexados a ele.

  1. Execute o seguinte comando para criar discos rígidos virtuais que serão adicionados posteriormente ao servidor DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Depois, adicione os discos rígidos virtuais criados no servidor DPM da seguinte maneira:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Esta etapa configura um pool de armazenamento como o disco ou discos nos quais o DPM armazena réplicas e pontos de recuperação para dados protegidos. Esse pool é parte da configuração do DPM e é separado do pool de espaços de armazenamento usado para criar os volumes de dados descritos na seção anterior. Para obter mais informações sobre pools de armazenamento do DPM, consulte Configurar pools de armazenamento e armazenamento em disco.

Configurar o cluster do Servidor de Arquivos do Windows

A eliminação de duplicação requer um conjunto especial de opções de configuração para dar suporte ao armazenamento virtualizado do DPM devido à escala de dados e ao tamanho dos arquivos individuais. Essas opções são globais para o cluster ou o nó do cluster. A eliminação de duplicação deve estar habilitada e as configurações de cluster devem ser configuradas individualmente em cada nó do cluster.

  1. Habilitar a eliminação de duplicatas no armazenamento do Servidor de Arquivos do Windows— A função da eliminação de duplicação deve ser instalada em todos os nós do cluster do Servidor de Arquivos do Windows. Para fazer isso, execute o seguinte comando do PowerShell em cada nó do cluster:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ajustar o processamento de eliminação de problemas para arquivos de dados de backup – execute o comando do PowerShell a seguir para definir para iniciar a otimização sem demora e não para otimizar gravações parciais de arquivos. Por padrão, os trabalhos de GC (Coleta de Lixo) são agendados toda semana e, a cada quarta semana, o trabalho do GC é executado no modo "GC profundo" para uma pesquisa mais exaustiva e demorada para que os dados sejam removidos. Para a carga de trabalho do DPM, esse modo "GC profundo" não resulta em ganhos de apreciação e reduz a quantidade de tempo em que a eliminação de dados pode otimizar os dados. Portanto, nós desabilitamos esse modo profundo.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Ajustar o desempenho para operações de grande escala – Execute o seguinte script do PowerShell para:

    • Desativar o processamento adicional e de E/W ao executar a coleta de lixo profunda

    • Reservar memória adicional para processamento de hash

    • Habilitar a otimização de prioridade para permitir a desfragmentação imediata de arquivos grandes

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Essas configurações modificam o seguinte:

    • HashIndexFullKeyReservationPercent: esse valor controla quanto da memória do trabalho de otimização é usada para hashes de partes existentes versus hashes de nova parte. Em alta escala, 70% resulta em uma melhor taxa de transferência de otimização do que o padrão de 50%.

    • EnablePriorityOptimization: com arquivos se aproximando de 1 TB, a fragmentação de um único arquivo pode acumular fragmentos suficientes para se aproximar do limite por arquivo. O processamento de otimização consolida esses fragmentos e impede que esse limite seja atingido. Ao configurar essa chave do Registro, a eliminação de duplicação adiciona mais um processo para lidar com arquivos com eliminação de duplicação altamente fragmentados com alta prioridade.

Configurar o DPM e o agendamento da eliminação de duplicatas

As operações de backup e eliminação de duplicação têm E/S intensivas. Se forem executadas ao mesmo tempo, uma sobrecarga adicional para alternar entre as operações pode ser cara e resultar em menos dados submetidos a backup ou com eliminação de duplicação diariamente. É recomendável configurar a eliminação de duplicação e janelas de backup separadas e dedicadas. Isso ajuda a garantir que o tráfego de E/S para cada uma dessas operações seja distribuído com eficiência durante a operação do sistema diariamente. As diretrizes recomendadas para o agendamento são:

  • Dividir dias em janelas de backup e eliminação de duplicação não sobrepostas.

  • Configurar agendas de backup personalizadas.

  • Configurar agendas de eliminação de duplicação personalizadas.

  • Agende a otimização na janela de eliminação de duplicação diária.

  • Defina os agendamentos da eliminação de duplicação separadamente, usando esse tempo para trabalhos de coleta de lixo e depuração de fim de semana.

Você pode configurar agendamentos do DPM com o seguinte comando do PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

Nessa configuração, o DPM está configurado para fazer backup de máquinas virtuais entre 22h00 e 6h00. A eliminação de duplicação é agendada para as 16 horas restantes do dia. O tempo real de dedução configurado dependerá do tamanho do volume. Para obter mais informações, consulte Dimensionamento de volumes para eliminação de duplicação de dados. Uma janela de eliminação de duplicação de 16 horas, começando às 6h, após o término da janela de backup, será configurada da seguinte maneira em qualquer nó de cluster individual:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Sempre que a janela de backup é modificada, é vital que a janela de eliminação de duplicação seja modificada junto com ela para que elas não se sobreponham. A janela de eliminação de duplicação e backup não precisa preencher as 24 horas completas do dia; no entanto, é altamente recomendável que eles permitam variações no tempo de processamento devido a alterações diárias esperadas em cargas de trabalho e rotatividade de dados.

Implicações de desempenho do backup

Depois que um conjunto de arquivos tiver sido duplicado, poderá haver um pequeno custo de desempenho ao acessar os arquivos. Isso ocorre devido ao processamento adicional necessário para acessar o formato do arquivo usado por arquivos com eliminação de duplicação. Nesse cenário, os arquivos são um conjunto de arquivos VHDX que veem um uso contínuo pelo DPM durante a janela de backup. O efeito de ter esses arquivos duplicados significa que as operações de backup e recuperação podem ser um pouco mais lentas do que sem eliminação de duplicação. Para qualquer produto de backup, o DPM é uma carga de trabalho pesada de gravação, sendo as suas operações de leitura, sendo as mais importantes durante operações de restauração. As recomendações para lidar com as implicações de desempenho do backup devido a eliminação de duplicação são:

  • Operações de leitura/restauração: os efeitos nas operações de leitura são geralmente muito importantes e não requerem considerações especiais, pois o recurso de eliminação de duplicação armazena em cache as partes com eliminação de duplicação.

  • Operações de gravação/backup: planeje um aumento no tempo de backup de 5 a 10% ao definir a janela de backup. (isso é um aumento comparado ao tempo de backup esperado ao gravar em volumes sem eliminação de duplicação).

Monitoramento

A eliminação de duplicação de dados e o DPM pode ser monitorada para garantir que:

  • Seja provisionado um espaço em disco suficiente para armazenar os dados de backup

  • Os trabalhos de backup do DPM sejam concluídos normalmente

  • A eliminação de duplicação seja habilitada nos volumes de backup

  • Os agendamentos de eliminação de duplicação sejam definidos corretamente

  • O processamento de eliminação de duplicação diário seja concluído normalmente

  • A taxa de economia de eliminação de duplicação corresponda às suposições feitas para a configuração do sistema

O sucesso da eliminação de duplicação depende dos recursos gerais do hardware do sistema (incluindo a capacidade de armazenamento, largura de banda de E/S, velocidade de processamento da CPU), da configuração correta do sistema, da carga média do sistema e da quantidade diária de dados modificados.

Você pode monitorar o DPM com o Console Central do DPM. Consulte Instalar o Console Central.

Você pode monitorar o dedup para marcar o status de eliminação de status, a taxa de economia e a status de agendamento usando os seguintes comandos do PowerShell:

Obter status:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Obter economia:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Obtenha o status de agendamento usando o cmdlet Get-DedupSchedule.

Monitorar eventos

Monitorar o log de eventos pode ajudar a entender os eventos da eliminação de duplicação e seus status.

  • Para exibir eventos de eliminação de duplicação, no Explorador de Arquivos, navegue até Logs de Aplicativos e Serviços>Microsoft>Windows>Eliminação de Duplicação.

  • Se o valor LastOptimizationResult = 0x00000000 aparecer nos resultados de Get-DedupStatus | fl Windows PowerShell, todo o conjunto de dados foi processado pelo trabalho de otimização anterior. Caso contrário, o sistema não conseguiu concluir o processamento de eliminação de duplicação e você talvez queira verificar as configurações, como o tamanho do volume.

Para obter mais exemplos de cmdlets, consulte Monitorar e relatar a eliminação de duplicação de dados.

Monitorar o armazenamento de backup

Em nosso exemplo de configuração, os volumes de 7,2 TB são preenchidos com 10 TB de dados "lógicos" (o tamanho dos dados quando não são duplicados) armazenados em arquivos VHDX dinâmicos de 10 x 1 TB. À medida que esses arquivos acumularem dados de backup adicionais, eles ocuparão lentamente todo o volume. Se o percentual de economia resultante da eliminação de duplicação for alto o suficiente, todos os 10 arquivos poderão atingir seu tamanho lógico máximo e ainda se ajustarão ao volume de 7,2 TB (potencialmente, pode até haver espaço adicional para alocar arquivos VHDX adicionais para os servidores DPM usarem). Mas se a economia de tamanho da eliminação de duplicação não for suficiente, o espaço no volume poderá se esgotar antes que os arquivos VHDX atinjam o tamanho lógico completo e o volume fique cheio. Para evitar que os volumes fiquem cheios, recomendamos o seguinte:

  • Seja conservador nos requisitos de tamanho do volume e deixe espaço para provisionar armazenamento. É recomendável permitir um buffer de pelo menos 10% ao planejar o uso do armazenamento de backup para permitir variações esperadas na economia de eliminação de duplicação e na rotatividade de dados.

  • Monitore os volumes usados para armazenamento de backup para garantir que taxas de economia eliminação de duplicação e a utilização de espaço fiquem nos níveis esperados.

Se o volume ficar cheio, os seguintes sintomas resultarão:

  • A máquina virtual DPM entrará em um estado de pausa crítica e nenhum outro trabalho de backup pode ser emitidos por essa VM.

  • Todos os trabalhos de backup que usam os arquivos VHDX no volume completo falharão.

Para recuperar essa condição e restaurar o sistema para a operação normal, o armazenamento adicional pode ser provisionado e uma migração de armazenamento da máquina virtual DPM ou seu VHDX pode ser executada para liberar espaço:

  1. Pare o servidor DPM que possui os arquivos VHDX no compartilhamento de backup completo.

  2. Crie um compartilhamento adicional de volume e backup usando a mesma configuração e definições usadas para os compartilhamentos existentes, incluindo definições para NTFS e eliminação de duplicação.

  3. Migre o Armazenamento para a máquina virtual do Servidor DPM e migre pelo menos um arquivo VHDX do compartilhamento de backup completo para o novo compartilhamento de backup criado na etapa 2.

  4. Execute um trabalho de coleta de lixo (GC) de eliminação de duplicação de dados no compartilhamento de backup original que estava cheio. O trabalho do GC deve ter êxito e recuperar o espaço livre.

  5. Reinicie a máquina virtual do servidor DPM.

  6. Uma consistência do DPM marcar trabalho será disparada durante a próxima janela de backup para todas as fontes de dados que falharam anteriormente.

  7. Todos os trabalhos de backup agora devem ser bem-sucedidos.

Resumo

A combinação de eliminação de duplicação e do DPM proporciona uma economia de espaço significativa. Isso permite que o melhor custo total de propriedade para a implantação do DPM, backups mais frequentes e taxas mais altas de retenção. As diretrizes e recomendações deste documento devem lhe dar as ferramentas e o conhecimento necessário para configurar a eliminação de duplicação para o armazenamento do DPM e ver os benefícios individuais na sua própria implantação.

Perguntas comuns

Q: Os arquivos VHDX do DPM precisam ter 1 TB de tamanho. Isso significa que o DPM não pode fazer backup de uma VM ou do SharePoint ou do BD SQL ou do volume de arquivos de tamanho > 1 TB?

R: Não. O DPM agrega vários volumes em um só para armazenar backups. Portanto, o tamanho do arquivo de 1 TB não tem implicações para tamanhos de fonte de dados que o DPM pode fazer backup.

P: Parece que arquivos VHDX de armazenamento do DPM só devem ser implantados em compartilhamentos de arquivo SMB remotos. O que acontecerá se eu armazenar os arquivos VHDX de backup em volumes habilitados para eliminação de duplicação no mesmo sistema em que a máquina virtual DPM está operando?

Um: Conforme discutido acima, DPM, Hyper-V e dedup são operações de armazenamento e com uso intensivo de computação. A combinação de todos os três em um único sistema pode levar a operações de E/S e de processo intensivo que podem criar fome do Hyper-V e de suas VMs. Se você decidir testar a configuração do DPM em uma VM com os volumes de armazenamento de backup no mesmo computador, deverá monitorar o desempenho cuidadosamente para garantir que haja largura de banda e capacidade de computação suficientes para manter as três operações no mesmo computador.

P: É recomendável configurar janelas separadas dedicadas de eliminação de duplicação e backup separadas. Por que não é possível habilitar a eliminação de duplicatas enquanto o DPM estiver fazendo backup? Preciso fazer backup de meu banco de dados SQL a cada 15 minutos.

Um: O Dedup e o DPM são operações com uso intensivo de armazenamento e ter ambos em execução ao mesmo tempo pode ser ineficiente e levar à fome de E/S. Portanto, para proteger cargas de trabalho mais de uma vez por dia (por exemplo, SQL Server a cada 15 minutos) e habilitar a eliminação de problemas ao mesmo tempo, verifique se há largura de banda de E/S suficiente e capacidade do computador para evitar a fome de recursos.

P: Com base na configuração descrita, o DPM precisa ser executado em uma máquina virtual. Por que não é possível habilitar a eliminação de duplicatas no volume da réplica e nos volumes de cópia de sombra diretamente em vez de em arquivos VHDX?

R: A eliminação de duplicação ocorre por volume operando em arquivos individuais. Como o dedup otimiza no nível do arquivo, ele não foi projetado para dar suporte à tecnologia VolSnap que o DPM usa para armazenar seus dados de backup. Ao executar o DPM em uma VM, o Hyper-V direciona as operações de volume do DPM para o nível de arquivo VHDX, permitindo que a eliminação de duplicação otimize o backup de dados e proporcione maior economia de armazenamento.

Q: A configuração de exemplo acima criou apenas volumes de 7,2 TB. É possível criar volumes maiores ou menores?

R: A eliminação de duplicação executa um thread por volume. À medida que o tamanho do volume aumenta, a eliminação de duplicação precisa de mais tempo para concluir a otimização. Por outro lado, com volumes pequenos, há menos dados nos quais encontrar partes duplicadas, o que pode resultar em economia reduzida. Portanto, é aconselhável ajustar o tamanho do volume com base na rotatividade total e nas funcionalidades de hardware do sistema para uma economia ideal. Informações mais detalhadas sobre como determinar os tamanhos de volume usados com a eliminação de duplicação podem ser encontradas em Dimensionando volumes para eliminação de duplicação no Windows Server. Para obter informações mais detalhadas sobre como determinar os tamanhos de volume usados com eliminação de duplicação, confira Dimensionamento de volumes para eliminação de duplicação de dados.