Partilhar via


Eliminar a duplicação do armazenamento do DPM

O System Center Data Protection Manager (DPM) pode usar a desduplicação de dados.

A desduplicação de dados (dedup) localiza e remove dados duplicados em um volume, garantindo que os dados permaneçam corretos e completos. Saiba mais sobre o planeamento de deduplicação .

  • O Dedup reduz o consumo de armazenamento. Embora a quantidade de redundância para um conjunto de dados dependa da carga de trabalho e do tipo de dados, normalmente os dados de backup mostram grandes economias quando a deduplicação é usada.

  • Redundância de dados pode ser ainda mais reduzida com a desduplicação quando são processados em conjunto dados de backup de tipos semelhantes e cargas de trabalho.

  • O Dedup foi projetado para ser instalado em volumes de dados primários sem hardware dedicado adicional para que não afete a carga de trabalho principal no servidor. As configurações padrão não são intrusivas, pois permitem que os dados envelhecem por cinco dias antes de processar um determinado arquivo e têm um tamanho mínimo padrão de arquivo de 32 KB. A implementação é projetada para baixo uso de memória e CPU.

  • O Dedup pode ser implementado nas seguintes cargas de trabalho:

    • Compartilhamentos de arquivos gerais: publicação e compartilhamento de conteúdo de grupo, pastas base do usuário e Redirecionamento de pasta/arquivos offline

    • Compartilhamentos de implantação de software: binários, imagens e atualizações de software

    • Bibliotecas VHD: armazenamento de arquivos VHD (disco rígido virtual) para provisionamento para hipervisores

    • Implantações de VDI (somente Windows Server 2012 R2): implantações de VDI (Virtual Desktop Infrastructure) usando Hyper-V

    • Backup virtualizado: soluções de backup (como o DPM em execução em uma máquina virtual Hyper-V) que salvam dados de backup em arquivos VHD/VHDX em um servidor de arquivos do Windows

DPM e deduplicação

Usar o dedup com o DPM pode resultar em grandes economias. A quantidade de espaço economizada pela eliminação de duplicação ao otimizar os dados de backup do DPM varia dependendo do tipo de dados que estão sendo copiados. Por exemplo, um backup de um servidor de banco de dados criptografado pode resultar em economias mínimas, uma vez que quaisquer dados duplicados são ocultos pelo processo de criptografia. No entanto, o backup de uma grande implantação de VDI (Virtual Desktop Infrastructure) pode resultar em grandes economias na faixa de 70-90+%, uma vez que normalmente há uma grande quantidade de duplicação de dados entre os ambientes de área de trabalho virtual. Na configuração descrita no artigo, executamos várias cargas de trabalho de teste e obtivemos economias que variaram entre 50% e 90%.

Para utilizar a deduplicação para armazenamento do DPM, o DPM deve estar a ser executado numa máquina virtual Hyper-V e armazenar dados de backup em VHDs em pastas partilhadas com deduplicação de dados ativada.

Para implantar o DPM como uma máquina virtual fazendo backup de dados em um volume dedupl, recomendamos a seguinte topologia de implantação:

  • DPM em execução em uma máquina virtual em um cluster de host Hyper-V.

  • Armazenamento do DPM usando ficheiros VHD/VHDX armazenados numa partilha SMB 3.0 num servidor de ficheiros.

  • Para nosso exemplo de teste, configuramos o servidor de arquivos como um SOFS (servidor de arquivos expandido) implantado usando volumes de armazenamento configurados a partir de pools de Espaços de Armazenamento criados usando unidades SAS diretamente conectadas. Essa implantação garante o desempenho em escala.

Note-se que:

  • Essa implantação é suportada para o DPM 2012 R2 e posterior e para todos os dados de carga de trabalho cujo backup pode ser feito pelo DPM 2012 R2 e posterior.

  • Todos os nós do Servidor de Arquivos do Windows nos quais os discos rígidos virtuais do DPM residem e nos quais a eliminação de duplicação será habilitada devem estar executando o Windows Server 2012 R2 com Pacote Cumulativo de Atualizações de novembro de 2014 ou posterior.

  • Forneceremos recomendações gerais e instruções para a implantação do cenário. Sempre que exemplos específicos de hardware são fornecidos, o hardware implantado no Microsoft Cloud Platform System (CPS) é usado como referência.

  • Este exemplo usa compartilhamentos SMB 3.0 remotos para armazenar os dados de backup, portanto, os requisitos de hardware primários se concentram nos nós do Servidor de Arquivos em vez dos nós Hyper-V. A seguinte configuração de hardware é usada no CPS para armazenamento de backup e produção. O hardware global é usado tanto para backup quanto para armazenamento de produção, mas o número de unidades listadas nos gabinetes de unidades é apenas as usadas para backup.

    • Cluster de servidor de arquivos de expansão de quatro nós

    • Configuração por cada nó

      • 2x CPU Intel(R) Xeon(R) E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 núcleos, 16 processadores lógicos

      • 128 GB de memória RDIMM de 1333 MHz

      • Conexões de armazenamento: 2 portas de SAS, 1 porta de 10 GbE iWarp/RDMA

    • Quatro gabinetes de discos JBOD

      • 18 discos em cada JBOD - 16 HDDs x 4 TB + 2 x SSDs de 800 GB

      • Caminho duplo para cada unidade - Política de balanceamento de carga de E/S de vários caminhos definida apenas para failover

      • Unidades SSD configuradas para cache write-back (WBC) e o restante para discos de registo dedicados

Configurar volumes de deduplicação

Vamos considerar quão grandes os volumes devem ser para suportar os arquivos VHDX desduplicados que contêm dados do DPM. Na CPS, criámos volumes de 7,2 TB cada um. O tamanho ideal do volume depende principalmente de quanto e com que frequência os dados no volume mudam e das taxas de transferência de acesso aos dados do subsistema de armazenamento em disco. É importante notar que, se o processamento de desduplicação não conseguir acompanhar a taxa de alterações diárias de dados (a rotatividade), a taxa de poupança irá diminuir até que o processamento seja concluído. Para obter informações mais detalhadas, consulte Dimensionamento de Volumes para a Deduplicação de Dados. Recomendam-se as seguintes orientações gerais para volumes de descodificação:

  • Use espaços de armazenamento de paridade com reconhecimento de compartimento para resiliência e maior utilização do disco.

  • Formate NTFS com unidades de alocação de 64 KB e segmentos de registo de ficheiros grandes para otimizar o uso de deduplicação de ficheiros esparsos.

  • Na configuração de hardware acima do volume recomendado de 7,2 TB, os volumes serão configurados da seguinte forma:

    • Paridade dupla com reconhecimento de compartimento 7,2 TB + 1 GB de cache de escrita em memória buffer

      • ResiliencySettingName == Paridade

      • Redundância do Disco Físico == 2

      • NúmerodeColunas == 7

      • Interleave == 256 KB (O desempenho de paridade dupla na interleave de 64 KB é muito menor do que na interleave padrão de 256 KB)

      • IsEnclosureAware == $true

      • TamanhoDaUnidadeDeAlocação=64 KB

      • FRS grande

      Configure um novo disco virtual no pool de armazenamento especificado da seguinte maneira:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Cada um desses volumes deve então ser formatado como:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Na implantação do CPS, eles são configurados como CSVs.

    • Dentro desses volumes, o DPM armazenará uma série de arquivos VHDX para armazenar os dados de backup. Habilite a desduplicação no volume depois de formatá-lo da seguinte maneira:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Este comando também modifica as seguintes configurações de deduplicação ao nível de volume:

      • Defina UsageType para HyperV: Isso faz com que o processamento de eliminação de duplicação ocorra em arquivos abertos, os quais são necessários porque os arquivos VHDX usados para armazenamento de backup pelo DPM permanecem abertos com o DPM em execução na sua máquina virtual.

      • Desativar PartialFileOptimization: Isso faz com que o dedup otimize todas as seções de um arquivo aberto em vez de verificar seções alteradas com uma idade mínima.

      • Defina o parâmetro MinFileAgeDays como 0: Com PartialFileOptimization desabilitado, MinFileAgeDays muda seu comportamento para que o dedup considere apenas os arquivos que não foram alterados em tantos dias. Como queremos que o dedup comece a processar os dados de backup em todos os arquivos VHDX do DPM sem qualquer atraso, precisamos definir MinFileAgeDays como 0.

Para obter mais informações sobre como configurar a desduplicação, consulte Install and Configure Data Duplication.

Configurar o armazenamento do DPM

Para evitar problemas de fragmentação e manter a eficiência, o armazenamento do DPM é alocado usando arquivos VHDX que residem nos volumes desduplicados. Dez arquivos VHDX dinâmicos de 1 TB cada são criados em cada volume e anexados ao DPM. Além disso, 3 TB de superprovisionamento de armazenamento são feitos para aproveitar a economia de armazenamento produzida pelo dedup. Como o dedup produz economias adicionais de armazenamento, novos arquivos VHDX podem ser criados nesses volumes para consumir o espaço economizado. Testamos o servidor DPM com até 30 arquivos VHDX anexados a ele.

  1. Execute o seguinte comando para criar discos rígidos virtuais que serão adicionados posteriormente ao servidor DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Em seguida, adicionou os discos rígidos virtuais criados ao servidor DPM da seguinte maneira:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Esta etapa configura um pool de armazenamento como o disco ou discos nos quais o DPM armazena réplicas e pontos de recuperação para dados protegidos. Esse pool faz parte da configuração do DPM e é separado do pool de Espaços de Armazenamento usado para criar os volumes de dados descritos na seção anterior. Para obter mais informações sobre pools de armazenamento do DPM, consulte Configurar armazenamento em disco e pools de armazenamento.

Configurar o cluster do Servidor de Arquivos do Windows

O Dedup requer um conjunto especial de opções de configuração para suportar o armazenamento DPM virtualizado devido à escala de dados e ao tamanho de arquivos individuais. Essas opções são globais para o cluster ou o nó do cluster. O Dedup deve ser habilitado e as configurações do cluster devem ser configuradas individualmente em cada nó do cluster.

  1. Habilitar a desduplicação no armazenamento do Windows File Server- A função de Desduplicação deve ser instalada em todos os nós do cluster do Windows File Server. Para fazer isso, execute o seguinte comando do PowerShell em cada nó do cluster:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Ajustar o processamento de deduplicação para ficheiros de backup- Execute o seguinte comando do PowerShell para iniciar a otimização sem demora e não otimizar gravações parciais de ficheiros. Por padrão, os trabalhos de coleta de lixo (GC) são agendados todas as semanas e, a cada quatro semanas, o trabalho de GC é executado no modo "GC profundo" para uma pesquisa mais exaustiva e demorada de dados a serem removidos. Para a carga de trabalho do DPM, este modo de "deep GC" não resulta em nenhum ganho significativo e reduz a quantidade de tempo em que a duplicação de dados pode ser otimizada. Portanto, desativamos este modo profundo.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Ajuste o desempenho para operações de grande escala- Execute o seguinte script do PowerShell para:

    • Desative o processamento adicional e a E/S quando a coleta de lixo em profundidade é executada

    • Reservar memória adicional para processamento de hash

    • Habilite a otimização de prioridade para permitir a desfragmentação imediata de arquivos grandes

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Essas configurações modificam o seguinte:

    • HashIndexFullKeyReservationPercent: esse valor controla quanto da memória de trabalho de otimização é usada para hashes de bloco existentes versus hashes de bloco novos. Em grande escala, 70% resulta em maior eficiência de otimização do que o padrão de 50%.

    • EnablePriorityOptimization: Com arquivos se aproximando de 1 TB, a fragmentação de um único arquivo pode acumular fragmentos suficientes para se aproximar do limite por arquivo. O processamento de otimização consolida esses fragmentos e impede que esse limite seja atingido. Ao definir essa chave do Registro, o dedup adicionará um processo adicional para lidar com arquivos dedupedos altamente fragmentados com alta prioridade.

Configurar o agendamento do DPM e da eliminação de duplicação

As operações de backup e de desduplicação são altamente intensivas em E/S. Se eles fossem executados ao mesmo tempo, uma sobrecarga adicional para alternar entre as operações poderia ser cara e resultar em menos backup ou desduplicação de dados diariamente. Recomendamos que você configure janelas dedicadas e separadas de desduplicação e backup. Isso ajuda a garantir que o tráfego de E/S para cada uma dessas operações seja distribuído de forma eficiente durante a operação diária do sistema. As orientações recomendadas para o agendamento são:

  • Divida os dias em janelas de backup e deduplicação não sobrepostas.

  • Configure agendamentos de backup personalizados.

  • Defina agendas de deduplicação personalizadas.

  • Agende a otimização na janela diária de dedup.

  • Configure horários de eliminação de fim de semana separadamente, usando esse tempo para trabalhos de coleta de lixo e limpeza.

Você pode configurar agendas do DPM com o seguinte comando do PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

Nessa configuração, o DPM é configurado para fazer backup de máquinas virtuais entre 22h e 6h. A deduplicação está programada para as restantes 16 horas do dia. O tempo real de desduplicação que definir dependerá do tamanho do volume. Para obter mais informações, consulte Dimensionamento de Volumes para Desduplicação de Dados. Uma janela de desduplicação de 16 horas, a iniciar às 6h, após o término da janela de backup, seria configurada da maneira seguinte a partir de qualquer nó de cluster individual:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Sempre que a janela de backup é modificada, é vital que a janela de desduplicação seja modificada junto com ela para que elas não se sobreponham. A janela de desduplicação e backup não precisa preencher as 24 horas completas do dia; no entanto, é altamente recomendável que tenham para permitir variações no tempo de processamento devido às mudanças diárias esperadas nas cargas de trabalho e nas alterações nos dados.

Implicações para o desempenho do backup

Depois que um conjunto de arquivos tiver sido desduplicado, pode haver um pequeno custo de desempenho ao acessar os arquivos. Isso se deve ao processamento adicional necessário para acessar o formato de arquivo usado por arquivos desduplicados. Nesse cenário, os arquivos são um conjunto de arquivos VHDX que veem o uso contínuo pelo DPM durante a janela de backup. O efeito de ter esses arquivos desduplicados significa que as operações de backup e recuperação podem ser um pouco mais lentas do que sem desduplicação. Como para qualquer produto de backup, o DPM é uma carga de trabalho de gravação pesada, com operações de leitura sendo mais importantes durante as operações de restauração. As recomendações para lidar com as implicações para o desempenho de backup devido à desduplicação são:

  • Operações de leitura/restauração: os efeitos nas operações de leitura são normalmente insignificantes e não requerem considerações especiais, uma vez que o recurso de desduplicação armazena em cache partes desduplicadas.

  • Operações de gravação/backup: planeje um aumento no tempo de backup de 5 a 10% ao definir a janela de backup. (Este é um aumento em relação ao tempo de backup esperado ao escrever em volumes não deduplicados.)

Monitorização

O DPM e a desduplicação de dados podem ser monitorados para garantir que:

  • Espaço em disco suficiente é provisionado para armazenar os dados de backup

  • Os trabalhos de backup do DPM estão sendo concluídos normalmente

  • A desduplicação está habilitada nos volumes de backup

  • As programações de desduplicação estão configuradas corretamente

  • O processamento de desduplicação é concluído normalmente diariamente

  • A taxa de economia de desduplicação corresponde às suposições feitas para a configuração do sistema

O sucesso da desduplicação depende dos recursos gerais de hardware do sistema (incluindo velocidade de processamento da CPU, largura de banda de E/S, capacidade de armazenamento), da configuração correta do sistema, da carga média do sistema e da quantidade diária de dados modificados.

Você pode monitorar o DPM usando o Console Central do DPM. Consulte Instalar o Console Central.

Você pode monitorar o dedup para verificar o status do dedup, a taxa de salvamento e o status do agendamento usando os seguintes comandos do PowerShell:

Verificar estado:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Obtenha poupanças:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Obtenha o status da agenda usando o cmdlet Get-DedupSchedule.

Monitorar eventos

O monitoramento do log de eventos pode ajudar a entender os eventos e o status da desduplicação.

  • Para visualizar eventos de desduplicação, no Explorador de Arquivos , navegue até Logs de Aplicativos e Serviços>Microsoft>Windows>Desduplicação.

  • Se o valor LastOptimizationResult = 0x00000000 aparecer nos resultados do Windows PowerShell Get-DedupStatus |fl, todo o conjunto de dados foi processado pelo trabalho de otimização anterior. Caso contrário, o sistema não conseguiu concluir o processamento de desduplicação e você pode querer verificar suas definições de configuração, por exemplo, o tamanho do volume.

Para obter exemplos de cmdlets mais detalhados, consulte Monitor e Relatório para Eliminação de Duplicação de Dados.

Monitorar o armazenamento de backup

Em nosso exemplo de configuração, os volumes de 7,2 TB são preenchidos com 10 TB de dados "lógicos" (o tamanho dos dados quando não são desduplicados) armazenados em arquivos VHDX dinâmicos de 10 x 1 TB. À medida que esses arquivos acumulam dados de backup adicionais, eles preencherão lentamente o volume. Se a porcentagem de economia resultante da desduplicação for alta o suficiente, todos os 10 arquivos poderão atingir seu tamanho lógico máximo e ainda caber no volume de 7,2 TB (potencialmente pode até haver espaço adicional para alocar arquivos VHDX adicionais para os servidores DPM usarem). Mas se a economia de tamanho da desduplicação não for suficiente, o espaço no volume pode acabar antes que os arquivos VHDX atinjam seu tamanho lógico total e o volume esteja cheio. Para evitar que os volumes fiquem cheios, recomendamos o seguinte:

  • Seja conservador nos requisitos de tamanho de volume e permita algum provisionamento excessivo de armazenamento. Recomenda-se permitir um buffer de pelo menos 10% ao planejar o uso do armazenamento de backup para permitir variações esperadas na economia de desduplicação e na rotatividade de dados.

  • Monitore os volumes usados para armazenamento de backup para garantir que as taxas de utilização de espaço e redução de duplicação estejam nos níveis esperados.

Se o volume ficar cheio, os seguintes sintomas resultam:

  • A máquina virtual do DPM será colocada em um estado crítico de pausa e nenhum outro trabalho de backup poderá ser emitido por essa VM.

  • Todos os trabalhos de backup que usam os arquivos VHDX no volume completo falharão.

Para recuperar dessa condição e restaurar o sistema para a operação normal, o armazenamento adicional pode ser provisionado e uma migração de armazenamento da máquina virtual do DPM ou de seu VHDX pode ser executada para liberar espaço:

  1. Pare o Servidor DPM que possui os arquivos VHDX no compartilhamento de backup completo.

  2. Crie um volume adicional e um compartilhamento de backup usando a mesma configuração e definições usadas para os compartilhamentos existentes, incluindo configurações para NTFS e desduplicação.

  3. Migrar armazenamento para a máquina virtual do servidor DPM e migrar pelo menos um ficheiro VHDX do compartilhamento de backup completo para o novo compartilhamento de backup criado na etapa 2.

  4. Execute um trabalho GC (coleta de lixo de desduplicação de dados) no compartilhamento de backup de origem que estava cheio. O trabalho de GC deve ter sucesso e recuperar o espaço livre.

  5. Reinicie a máquina virtual do Servidor DPM.

  6. Um trabalho de verificação de consistência do DPM será acionado durante a próxima janela de backup para todas as fontes de dados que falharam anteriormente.

  7. Todos os trabalhos de backup agora devem ser bem-sucedidos.

Resumo

A combinação de desduplicação e DPM proporciona economias substanciais de espaço. Isso permite taxas de retenção mais altas, backups mais frequentes e melhor TCO para a implantação do DPM. As diretrizes e recomendações neste documento devem fornecer-lhe as ferramentas e o conhecimento para configurar a desduplicação para o armazenamento do DPM e ver por si mesmo os benefícios na sua própria implementação.

Perguntas frequentes

P: arquivos VHDX do DPM precisam ter 1 TB de tamanho. Isso significa que o DPM não pode fazer backup de uma VM ou SharePoint ou banco de dados SQL ou volume de arquivo de tamanho > 1 TB?

R: Não. O DPM agrega vários volumes em um para armazenar backups. Portanto, o tamanho do arquivo de 1 TB não tem implicações para os tamanhos de fonte de dados dos quais o DPM pode fazer backup.

P: Parece que os arquivos VHDX de armazenamento do DPM devem ser implantados apenas em compartilhamentos de arquivos SMB remotos. O que acontecerá se eu armazenar os arquivos VHDX de backup em volumes habilitados para dedup no mesmo sistema em que a máquina virtual do DPM está sendo executada?

R: Como discutido acima, DPM, Hyper-V e dedup são operações de armazenamento e computação intensivas. A combinação dos três em um único sistema pode levar a operações intensivas de E/S e processos que podem causar falta de recursos para Hyper-V e suas VMs. Se você decidir experimentar configurar o DPM em uma VM com os volumes de armazenamento de backup na mesma máquina, deverá monitorar o desempenho cuidadosamente para garantir que haja largura de banda de E/S e capacidade de computação suficientes para manter as três operações na mesma máquina.

P: Você recomenda janelas separadas e dedicadas para desduplicação e backup. Por que não consigo habilitar o dedup enquanto o DPM está fazendo backup? Preciso fazer backup do meu banco de dados SQL a cada 15 minutos.

R: Dedup e DPM são operações intensivas em armazenamento e ter ambos funcionando ao mesmo tempo pode ser ineficiente e levar à fome de E/S. Portanto, para proteger cargas de trabalho mais de uma vez por dia (por exemplo, SQL Server a cada 15 minutos) e habilitar a deduplicação ao mesmo tempo, assegure-se de que haja capacidade de I/O e capacidade computacional suficiente para evitar a escassez de recursos.

P: Com base na configuração descrita, o DPM precisa estar em execução em uma máquina virtual. Por que não consigo habilitar o dedup no volume de réplica e nos volumes de cópia de sombra diretamente em vez de em arquivos VHDX?

R: Dedup faz a desduplicação por volume operando em ficheiros individuais. Como o dedup otimiza no nível do arquivo, ele não foi projetado para suportar a tecnologia VolSnap que o DPM usa para armazenar seus dados de backup. Ao executar o DPM em uma VM, o Hyper-V mapeia as operações de volume do DPM para o nível de arquivo VHDX, permitindo que o dedup otimize os dados de backup e proporcione maiores economias de armazenamento.

P: A configuração de exemplo acima criou apenas volumes de 7,2 TB. Posso criar volumes maiores ou menores?

R: Dedup executa um thread por volume. À medida que o tamanho do volume aumenta, a desduplicação requer mais tempo para concluir a otimização. Por outro lado, com volumes pequenos, há menos dados para encontrar pedaços duplicados, o que pode resultar em economias reduzidas. Portanto, é aconselhável ajustar o tamanho do volume com base na rotatividade total e nos recursos de hardware do sistema para obter economias ideais. Informações mais detalhadas sobre como determinar tamanhos de volume usados com desduplicação podem ser encontradas em Dimensionamento de volumes para desduplicação no Windows Server. Para obter informações mais detalhadas sobre como determinar tamanhos de volume usados com a desduplicação, consulte Dimensionamento de volumes para desduplicação de dados.