Eliminar a duplicação do armazenamento do DPM
O System Center Data Protection Manager (DPM) pode usar a eliminação de duplicação de dados.
A Eliminação de Duplicação de Dados (ou deduplicação) localiza e remove dados duplicados em um volume, garantindo a correção e completude dos dados. Saiba mais sobre o planejamento de desduplicação.
A desduplicação reduz o consumo de armazenamento. Embora a quantidade de redundância para um conjunto de dados dependa da carga de trabalho e do tipo de dados, normalmente os dados de backup mostram uma grande economia quando a eliminação de duplicatas é usada.
A redundância de dados pode ser reduzida ainda mais com a eliminação de duplicatas quando dados de backup de tipos e cargas de trabalho semelhantes são processados juntos.
A eliminação de duplicatas foi projetada para ser instalada em volumes de dados primários sem hardware dedicado adicional para que não afete a carga de trabalho primária no servidor. As configurações padrão não são intrusivas, pois permitem que os dados envelheçam por cinco dias antes de processar um arquivo específico e têm um tamanho mínimo de arquivo padrão de 32 KB. A implementação foi criada para pouco uso da memória e da CPU.
A eliminação de duplicação pode ser implementada nas seguintes cargas de trabalho:
Compartilhamentos de arquivos gerais: publicação e compartilhamento de conteúdo de grupo, pastas base do usuário e Arquivos Offline/de Redirecionamento de Pasta
Compartilhamentos de implantação de software: binários, imagens e atualizações de software
Bibliotecas de VHD: armazenamento de arquivos do VHD (disco rígido virtual) para provisionamento em hipervisores
Implantações de VDI (somente Windows Server 2012 R2): implantações de VDI (Virtual Desktop Infrastructure) usando Hyper-V
Backup virtualizado: soluções de backup (como o DPM em execução em uma máquina virtual Hyper-V) que salvam dados de backup em arquivos VHD/VHDX em um Servidor de Arquivos do Windows
DPM e eliminação de duplicação
O uso da eliminação de duplicação com o DPM pode resultar em grandes economias. A quantidade de espaço economizada pela eliminação de duplicatas ao otimizar os dados de backup do DPM varia de acordo com o tipo de dados que está sendo copiado. Por exemplo, um backup de um servidor de banco de dados criptografado pode resultar em uma economia mínima, pois todos os dados duplicados são ocultados pelo processo de criptografia. No entanto, o backup de uma grande implantação de VDI (Virtual Desktop Infrastructure) pode resultar em grandes economias na faixa de 70 a 90+%, já que normalmente há uma grande quantidade de duplicação de dados entre os ambientes de desktop virtual. Na configuração descrita no artigo, executamos várias cargas de trabalho de teste e vimos economias variando entre 50% e 90%.
Para usar a eliminação de duplicação para armazenamento do DPM, o DPM deve estar em execução em uma máquina virtual Hyper-V e armazenar dados de backup em VHDs em pastas compartilhadas com a eliminação de duplicação de dados habilitada.
Implantação recomendada
Para implantar o DPM como uma máquina virtual fazendo backup de dados em um volume dedupl, recomendamos a seguinte topologia de implantação:
DPM em execução em uma máquina virtual em um cluster de host do Hyper-V.
Armazenamento do DPM usando arquivos VHD/VHDX armazenados em um compartilhamento SMB 3.0 em um servidor de arquivos.
Para o nosso exemplo de teste, configuramos o servidor de arquivos como um SOFS (Servidor de Arquivos de Escalabilidade Horizontal) implantado usando volumes de armazenamento configurados a partir de pools de espaços de armazenamento construídos usando drives SAS conectados diretamente. Essa implantação garante o desempenho em escala.
Observe que:
Essa implantação tem suporte para o DPM 2012 R2 e posterior e para todos os dados de carga de trabalho que podem ser copiados pelo DPM 2012 R2 e posterior.
Todos os nós do Servidor de Arquivos do Windows nos quais os discos rígidos virtuais do DPM residem e nos quais a eliminação de duplicatas será habilitada devem estar executando o Windows Server 2012 R2 com Pacote Cumulativo de Atualizações de novembro de 2014 ou posterior.
Forneceremos recomendações e instruções gerais para a implantação do cenário. Sempre que são fornecidos exemplos específicos de hardware, o hardware implantado no Sistema de Plataforma de Nuvem da Microsoft (CPS) é usado para referência.
Este exemplo usa compartilhamentos SMB 3.0 remotos para armazenar os dados de backup de forma que os requisitos de hardware principais se concentrem nos nós do servidor de arquivos em vez dos nós do Hyper-V. A configuração de hardware a seguir é usada no CPS para armazenamento de backup e produção. O hardware geral é usado para armazenamento de backup e produção, mas o número de unidades listadas nos gabinetes de unidade são apenas aquelas usadas para backup.
Cluster de servidor de arquivos de expansão de quatro nós
Configuração por nó
2 CPUs Intel(R) Xeon(R) E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 núcleos, 16 processadores lógicos
Memória RDIMM de 128 GB e 1333 MHz
Conexões de armazenamento: 2 portas SAS, 1 porta de iWarp/RDMA de 10 GbE
Quatro gabinetes de unidade JBOD
18 discos em cada JBOD - 16 HDDs de 4 TB + 2 SSDs de 800 GB
Caminho duplo para cada unidade - política de balanceamento de carga Multipath I/O definida para failover apenas
SSDs configurados para WBC (cache com write-back) e o restante para unidades de diário dedicadas
Configurar volumes de eliminação de duplicação
Vamos considerar o tamanho dos volumes para dar suporte aos arquivos VHDX com eliminação de duplicação que contêm dados do DPM. No CPS, criamos volumes de 7,2 TB cada. O tamanho do volume ideal depende, principalmente, da intensidade e da frequência das alterações dos dados no volume, e nas taxas de produtividade de acesso dos dados do subsistema de armazenamento do disco. É importante observar que, se o processamento de eliminação de duplicação não puder acompanhar a taxa de alterações diárias de dados (a rotatividade), a taxa de economia cairá até que o processamento possa ser concluído. Para obter informações mais detalhadas, consulte Dimensionando volumes para eliminação de duplicação de dados. As seguintes diretrizes gerais são recomendadas para volumes de eliminação de duplicação:
Use espaços de armazenamento de paridade com reconhecimento de compartimento para aumentar a resiliência e a utilização do disco.
Formate NTFS com unidades de alocação de 64 KB e segmentos de registro de arquivo grandes para funcionar melhor com o uso de eliminação de duplicação de arquivos esparsos.
Na configuração de hardware acima do tamanho de volume recomendado de volumes de 7,2 TB, os volumes serão configurados da seguinte maneira:
Paridade dupla com reconhecimento de gabinete 7,2 TB + cache de write-back de 1 GB
ResiliencySettingName == Paridade
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Intercalação == 256 KB (o desempenho de paridade dupla na intercalação de 64 KB é muito menor do que na intercalação padrão de 256 KB)
IsEnclosureAware == $true
AllocationUnitSize=64 KB
FRS grande
Configure um novo disco virtual no pool de armazenamento especificado da seguinte maneira:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Cada um desses volumes deve ser formatado como:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
Na implantação do CPS, eles são configurados como CSVs.
Dentro desses volumes, o DPM armazenará uma série de arquivos VHDX para armazenar os dados de backup. Habilite a eliminação de duplicação no volume depois de formatá-lo da seguinte maneira:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Esse comando também modifica as seguintes configurações de eliminação de duplicação no nível do volume:
Defina UsageType como HyperV: isso resulta no processamento de eliminação de duplicatas de arquivos abertos, que são necessários porque os arquivos VHDX usados para armazenamento de backup pelo DPM permanecem abertos com o DPM em execução em sua máquina virtual.
Desabilitar PartialFileOptimization: Isso faz com que a eliminação de duplicatas otimize todas as seções de um arquivo aberto em vez de verificar se há seções alteradas com uma idade mínima.
Defina o parâmetro MinFileAgeDays como 0: com PartialFileOptimization desabilitado, MinFileAgeDays altera seu comportamento para que a eliminação de duplicatas considere apenas os arquivos que não foram alterados em tantos dias. Como queremos que a eliminação de duplicação comece a processar os dados de backup em todos os arquivos VHDX DPM sem atraso, precisamos definir MinFileAgeDays como 0.
Para obter mais informações sobre como configurar a eliminação de duplicação, consulte Instalar e configurar a duplicação de dados.
Configurar o armazenamento do DPM
Para evitar problemas de fragmentação e manter a eficiência, o armazenamento do DPM é alocado usando arquivos VHDX que residem em volumes com eliminação de duplicação. Dez arquivos VHDX dinâmicos de 1 TB cada são criados em cada volume e anexados ao DPM. Além disso, 3 TB de superprovisionamento de armazenamento são feitos para aproveitar a economia de armazenamento produzida pela eliminação de duplicação. À medida que a eliminação de duplicação produz economia de armazenamento adicional, novos arquivos VHDX podem ser criados nesses volumes para consumir o espaço economizado. Testamos o servidor DPM com até 30 arquivos VHDX anexados a ele.
Execute o seguinte comando para criar discos rígidos virtuais que serão adicionados posteriormente ao servidor DPM:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
Depois, adicione os discos rígidos virtuais criados no servidor DPM da seguinte maneira:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
Esta etapa configura um pool de armazenamento como o disco ou discos nos quais o DPM armazena réplicas e pontos de recuperação para dados protegidos. Esse pool é parte da configuração do DPM e é separado do pool de espaços de armazenamento usado para criar os volumes de dados descritos na seção anterior. Para obter mais informações sobre pools de armazenamento do DPM, consulte Configurar armazenamento em disco e pools de armazenamento.
Configurar o cluster do Servidor de Arquivos do Windows
A eliminação de duplicação requer um conjunto especial de opções de configuração para dar suporte ao armazenamento virtualizado do DPM devido à escala de dados e ao tamanho dos arquivos individuais. Essas opções são globais para o cluster ou o nó do cluster. A eliminação de duplicação deve estar habilitada e as configurações de cluster devem ser configuradas individualmente em cada nó do cluster.
Habilitar a eliminação de duplicação no armazenamento do Servidor de Arquivos do Windows – a função de Eliminação de Duplicação deve ser instalada em todos os nós do cluster do Servidor de Arquivos do Windows. Para fazer isso, execute o seguinte comando do PowerShell em cada nó do cluster:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Ajustar o processamento de eliminação de duplicação para arquivos de dados de backup – execute o seguinte comando do PowerShell para definir para iniciar a otimização sem atraso e não para otimizar gravações parciais de arquivos. Por padrão, os trabalhos de GC (Coleta de Lixo) são agendados a cada semana e, a cada quatro semanas, o trabalho de GC é executado no modo "GC profundo" para uma pesquisa mais exaustiva e demorada de dados a serem removidos. Para a carga de trabalho do DPM, esse modo de "GC profundo" não resulta em ganhos apreciativos e reduz a quantidade de tempo em que a eliminação de duplicatas pode otimizar os dados. Portanto, nós desabilitamos esse modo profundo.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Ajustar o desempenho para operações em grande escala – execute o seguinte script do PowerShell para:
Desativar o processamento adicional e de E/W ao executar a coleta de lixo profunda
Reservar memória adicional para processamento de hash
Habilitar a otimização de prioridade para permitir a desfragmentação imediata de arquivos grandes
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Essas configurações modificam o seguinte:
HashIndexFullKeyReservationPercent: esse valor controla quanto da memória do trabalho de otimização é usada para hashes de partes existentes versus novos hashes de partes. Em alta escala, 70% resulta em uma melhor taxa de transferência de otimização do que o padrão de 50%.
EnablePriorityOptimization: com arquivos que se aproximam de 1 TB, a fragmentação de um único arquivo pode acumular fragmentos suficientes para se aproximar do limite por arquivo. O processamento de otimização consolida esses fragmentos e impede que esse limite seja atingido. Ao configurar essa chave do registro, a eliminação de duplicação adiciona mais um processo para lidar com arquivos com eliminação de duplicação altamente fragmentados com alta prioridade.
Configurar o agendamento do DPM e da eliminação de duplicatas
As operações de backup e eliminação de duplicação têm E/S intensivas. Se forem executadas ao mesmo tempo, uma sobrecarga adicional para alternar entre as operações pode ser cara e resultar em menos dados submetidos a backup ou com eliminação de duplicação diariamente. É recomendável que configurar eliminação de duplicação e janelas de backup separadas e dedicadas. Isso ajuda a garantir que o tráfego de E/S para cada uma dessas operações seja distribuído com eficiência durante a operação do sistema diariamente. As diretrizes recomendadas para o agendamento são:
Dividir dias em janelas de backup e eliminação de duplicação não sobrepostas.
Configurar agendas de backup personalizadas.
Configurar agendas de eliminação de duplicação personalizadas.
Agende a otimização na janela de eliminação de duplicação diária.
Defina os agendamentos da eliminação de duplicação separadamente, usando esse tempo para trabalhos de coleta de lixo e depuração de fim de semana.
Você pode configurar agendamentos do DPM com o seguinte comando do PowerShell:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
Nessa configuração, o DPM está configurado para fazer backup de máquinas virtuais entre 22h00 e 6h00. A eliminação de duplicação é agendada para as 16 horas restantes do dia. O tempo real de eliminação de duplicação que você configurar dependerá do tamanho do volume. Para obter mais informações, consulte Dimensionando volumes para eliminação de duplicação de dados. Uma janela de eliminação de duplicação de 16 horas começando às 6h após o término da janela de backup seria configurada da seguinte maneira em qualquer nó de cluster individual:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Sempre que a janela de backup for modificada, é vital que a janela de desduplicação seja modificada junto com ela para que elas não se sobreponham. A janela de desduplicação e backup não precisa preencher as 24 horas completas do dia; No entanto, é altamente recomendável que eles façam isso para permitir variações no tempo de processamento devido a alterações diárias esperadas nas cargas de trabalho e na rotatividade de dados.
Implicações de desempenho do backup
Depois que um conjunto de arquivos tiver sido desduplicado, pode haver um pequeno custo de desempenho ao acessar os arquivos. Isso ocorre devido ao processamento adicional necessário para acessar o formato do arquivo usado por arquivos com eliminação de duplicação. Nesse cenário, os arquivos são um conjunto de arquivos VHDX que veem um uso contínuo pelo DPM durante a janela de backup. O efeito de ter esses arquivos com eliminação de duplicação significa que as operações de backup e recuperação podem ser um pouco mais lentas do que sem a eliminação de duplicação. Para qualquer produto de backup, o DPM é uma carga de trabalho pesada de gravação, sendo as suas operações de leitura, sendo as mais importantes durante operações de restauração. As recomendações para lidar com as implicações de desempenho do backup devido a eliminação de duplicação são:
Operações de leitura/restauração: os efeitos nas operações de leitura são geralmente muito importantes e não requerem considerações especiais, pois o recurso de eliminação de duplicação armazena em cache as partes com eliminação de duplicação.
Operações de gravação/backup: Planeje um aumento no tempo de backup de 5 a 10% ao definir a janela de backup. (isso é um aumento comparado ao tempo de backup esperado ao gravar em volumes sem eliminação de duplicação).
Monitoramento
A eliminação de duplicação de dados e o DPM pode ser monitorada para garantir que:
Seja provisionado um espaço em disco suficiente para armazenar os dados de backup
Os trabalhos de backup do DPM sejam concluídos normalmente
A eliminação de duplicação seja habilitada nos volumes de backup
Os agendamentos de eliminação de duplicação sejam definidos corretamente
O processamento de eliminação de duplicação diário seja concluído normalmente
A taxa de economia de eliminação de duplicação corresponda às suposições feitas para a configuração do sistema
O sucesso da eliminação de duplicação depende dos recursos gerais do hardware do sistema (incluindo a capacidade de armazenamento, largura de banda de E/S, velocidade de processamento da CPU), da configuração correta do sistema, da carga média do sistema e da quantidade diária de dados modificados.
Você pode monitorar o DPM com o Console Central do DPM. Consulte Instalar o Console Central.
Você pode monitorar a eliminação de duplicação para verificar o status da eliminação de duplicação, a taxa de economia e o status do agendamento usando os seguintes comandos do PowerShell:
Obter status:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Obter economia:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Obtenha o status de agendamento usando o cmdlet Get-DedupSchedule.
Monitorar eventos
Monitorar o log de eventos pode ajudar a entender os eventos da eliminação de duplicação e seus status.
Para exibir eventos de eliminação de duplicação, no Explorador de Arquivos, navegue até Logs de Aplicativos e Serviços>Microsoft>Windows>Eliminação de Duplicação.
Se o valor LastOptimizationResult = 0x00000000 aparecer nos resultados de Get-DedupStatus | fl Windows PowerShell, todo o conjunto de dados foi processado pelo trabalho de otimização anterior. Caso contrário, o sistema não conseguiu concluir o processamento de eliminação de duplicação e você talvez queira verificar as configurações, como o tamanho do volume.
Para obter mais exemplos de cmdlets, consulte Monitorar e relatar a eliminação de duplicação de dados.
Monitorar o armazenamento de backup
Em nosso exemplo de configuração, os volumes de 7,2 TB são preenchidos com 10 TB de dados "lógicos" (o tamanho dos dados quando não são desduplicados) armazenados em arquivos VHDX dinâmicos de 10 x 1 TB. À medida que esses arquivos acumulam dados de backup adicionais, eles preenchem lentamente o volume. Se a porcentagem de economia resultante da eliminação de duplicação for alta o suficiente, todos os 10 arquivos poderão atingir seu tamanho lógico máximo e ainda caber no volume de 7,2 TB (potencialmente pode até haver espaço adicional para alocar arquivos VHDX adicionais para os servidores DPM usarem). Mas se a economia de tamanho da eliminação de duplicação não for suficiente, o espaço no volume poderá se esgotar antes que os arquivos VHDX atinjam seu tamanho lógico total e o volume estará cheio. Para evitar que os volumes fiquem cheios, recomendamos o seguinte:
Seja conservador nos requisitos de tamanho do volume e deixe espaço para provisionar armazenamento. É recomendável permitir um buffer de pelo menos 10% ao planejar o uso do armazenamento de backup para permitir as variações esperadas na economia de desduplicação e na rotatividade de dados.
Monitore os volumes usados para armazenamento de backup para garantir que taxas de economia eliminação de duplicação e a utilização de espaço fiquem nos níveis esperados.
Se o volume ficar cheio, os seguintes sintomas resultam:
A máquina virtual DPM entrará em um estado de pausa crítica e nenhum outro trabalho de backup pode ser emitidos por essa VM.
Todos os trabalhos de backup que usam os arquivos VHDX no volume completo falharão.
Para se recuperar dessa condição e restaurar o sistema para a operação normal, o armazenamento adicional pode ser provisionado e uma migração de armazenamento da máquina virtual do DPM ou seu VHDX pode ser executada para liberar espaço:
Pare o servidor DPM que possui os arquivos VHDX no compartilhamento de backup completo.
Crie um compartilhamento adicional de volume e backup usando a mesma configuração e definições usadas para os compartilhamentos existentes, incluindo definições para NTFS e eliminação de duplicação.
Migre o Armazenamento para a máquina virtual do Servidor DPM e migre pelo menos um arquivo VHDX do compartilhamento de backup completo para o novo compartilhamento de backup criado na etapa 2.
Execute um trabalho de coleta de lixo (GC) de eliminação de duplicação de dados no compartilhamento de backup original que estava cheio. O trabalho do GC deve ter êxito e recuperar o espaço livre.
Reinicie a máquina virtual do servidor DPM.
Um trabalho de verificação de consistência do DPM será disparado durante a próxima janela de backup para todas as fontes de dados que falharam anteriormente.
Todos os trabalhos de backup agora devem ser bem-sucedidos.
Resumo
A combinação ae eliminação de duplicação e do DPM proporciona uma economia de espaço significativa. Isso permite que o melhor custo total de propriedade para a implantação do DPM, backups mais frequentes e taxas mais altas de retenção. As diretrizes e recomendações deste documento devem lhe dar as ferramentas e o conhecimento necessário para configurar a eliminação de duplicação para o armazenamento do DPM e ver os benefícios individuais na sua própria implementação.
Perguntas comuns
P: Os arquivos VHDX do DPM precisam ter 1 TB de tamanho. Isso significa que o DPM não pode fazer backup de uma VM ou do SharePoint ou do banco de dados SQL ou volume de arquivo de tamanho > 1 TB?
R: Não. O DPM agrega vários volumes em um só para armazenar backups. Portanto, o tamanho do arquivo de 1 TB não tem implicações para os tamanhos de fonte de dados dos quais o DPM pode fazer backup.
P: parece que arquivos VHDX de armazenamento do DPM só devem ser implantados em compartilhamentos de arquivo SMB remotos. O que acontecerá se eu armazenar os arquivos VHDX de backup em volumes habilitados para eliminação de duplicação no mesmo sistema em que a máquina virtual DPM está operando?
R: Conforme discutido acima, o DPM, o Hyper-V e a eliminação de duplicatas são operações com uso intensivo de armazenamento e computação. A combinação de todos os três em um único sistema pode levar a operações intensivas de E/S e processos que podem privar o Hyper-V e suas VMs. Se você decidir experimentar a configuração do DPM em uma VM com os volumes de armazenamento de backup no mesmo computador, deverá monitorar o desempenho cuidadosamente para garantir que haja largura de banda de E/S e capacidade de computação suficientes para manter todas as três operações no mesmo computador.
P: você recomendou janelas de backup e de eliminação de duplicação separadas e dedicadas. Por que não consigo habilitar a eliminação de duplicação enquanto o DPM está fazendo backup? Preciso fazer backup do meu banco de dados SQL a cada 15 minutos.
R: A eliminação de duplicatas e o DPM são operações com uso intensivo de armazenamento e ter os dois em execução ao mesmo tempo pode ser ineficiente e levar à falta de E/S. Portanto, para proteger cargas de trabalho mais de uma vez por dia (por exemplo, SQL Server a cada 15 minutos) e habilitar a eliminação de duplicação ao mesmo tempo, verifique se há largura de banda de E/S e capacidade de computador suficientes para evitar a falta de recursos.
Q: com base na configuração descrita, o DPM precisa ser executado em uma máquina virtual. Por que não posso habilitar a eliminação de duplicação no volume de réplica e nos volumes de cópia de sombra diretamente, em vez de em arquivos VHDX?
R: a eliminação de duplicação ocorre por volume operando em arquivos individuais. Como a eliminação de duplicatas é otimizada no nível do arquivo, ela não foi projetada para dar suporte à tecnologia VolSnap que o DPM usa para armazenar seus dados de backup. Ao executar o DPM em uma VM, o Hyper-V direciona as operações de volume do DPM para o nível de arquivo VHDX, permitindo que a eliminação de duplicação otimize o backup de dados e proporcione maior economia de armazenamento.
P: A configuração de exemplo acima criou apenas volumes de 7,2 TB. É possível criar volumes maiores ou menores?
R: a eliminação de duplicação executa um thread por volume. À medida que o tamanho do volume aumenta, a eliminação de duplicação precisa de mais tempo para concluir a otimização. Por outro lado, com pequenos volumes, há menos dados para encontrar partes duplicadas, o que pode resultar em economia reduzida. Portanto, é aconselhável ajustar o tamanho do volume com base na rotatividade total e nos recursos de hardware do sistema para obter a economia ideal. Informações mais detalhadas sobre como determinar os tamanhos de volume usados com a eliminação de duplicação podem ser encontradas em Dimensionando volumes para eliminação de duplicação no Windows Server. Para obter informações mais detalhadas sobre como determinar os tamanhos de volume usados com a eliminação de duplicação, consulte Dimensionando volumes para eliminação de duplicação de dados.