Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O System Center Data Protection Manager (DPM) pode usar a deduplicação de dados.
Deduplicação de dados (dedup) localiza e remove dados duplicados em um volume, garantindo que os dados permaneçam corretos e completos. Saiba mais sobre o planejamento de desduplicação.
A deduplicação reduz o consumo de armazenamento. Embora a quantidade de redundância para um conjunto de dados dependa da carga de trabalho e do tipo de dados, normalmente os dados de backup mostram economias significativas quando a deduplicação é usada.
A redundância de dados pode ser reduzida ainda mais com a eliminação de duplicatas quando dados de backup de tipos e cargas de trabalho semelhantes são processados juntos.
A eliminação de duplicação foi projetada para ser instalada em volumes de dados primários sem outro hardware dedicado para não afetar a carga de trabalho principal no servidor. As configurações padrão não são intrusivas, pois permitem que os dados envelheçam por cinco dias antes de processar um arquivo específico e têm um tamanho mínimo de arquivo padrão de 32 KB. A implementação foi criada para pouco uso da memória e da CPU.
A eliminação de duplicação pode ser implementada nas seguintes cargas de trabalho:
Compartilhamentos gerais de arquivos: publicação e compartilhamento de conteúdo de grupo, pastas pessoais do usuário e Redirecionamento de Pasta/Arquivos Offline
Compartilhamentos de implantação de software: binários, imagens e atualizações de software
Bibliotecas de VHD: armazenamento de arquivos do VHD (disco rígido virtual) para provisionamento em hipervisores
Implantações de VDI (somente Windows Server 2012 R2): implantações de VDI (Virtual Desktop Infrastructure) usando Hyper-V
Backup virtualizado: soluções de backup (como o DPM em execução em uma máquina virtual Hyper-V) que salvam dados de backup em arquivos VHD/VHDX em um Servidor de Arquivos do Windows
DPM e deduplicação
O uso da eliminação de duplicação com o DPM pode resultar em grandes economias. A quantidade de espaço salvo pela eliminação de duplicação ao otimizar o backup de dados do DPM varia dependendo do tipo de dados de backup. Por exemplo, um backup de um servidor de banco de dados criptografado pode resultar em uma economia mínima, pois todos os dados duplicados são ocultados pelo processo de criptografia. No entanto, o backup de uma grande implantação de VDI (Virtual Desktop Infrastructure) pode resultar em grandes economias na faixa de 70 a 90+%, já que normalmente há uma grande quantidade de duplicação de dados entre os ambientes de desktop virtual. Na configuração descrita no artigo, executamos várias cargas de trabalho de teste e vimos economias variando entre 50% e 90%.
Para usar a eliminação de duplicação no armazenamento do DPM, ele deve estar em execução em uma máquina virtual do Hyper-V e armazenar os dados de backup para VHDs em pastas compartilhadas, com a eliminação de duplicação dos dados habilitada.
Implantação recomendada
Para implantar o DPM como uma máquina virtual fazendo backup de dados em um volume dedupl, recomendamos a seguinte topologia de implantação:
DPM em execução em uma máquina virtual em um cluster de host do Hyper-V.
Armazenamento do DPM usando arquivos VHD/VHDX armazenados em um compartilhamento SMB 3.0 em um servidor de arquivos.
Para o nosso exemplo de teste, configuramos o servidor de arquivos como um SOFS (Servidor de Arquivos de Escalabilidade Horizontal) implantado usando volumes de armazenamento configurados a partir de pools de espaços de armazenamento construídos usando drives SAS conectados diretamente. Essa implantação garante o desempenho em escala.
Observe que:
Essa implantação tem suporte para o DPM 2012 R2 e posterior e para todos os dados de carga de trabalho que podem ser copiados pelo DPM 2012 R2 e posterior.
Todos os nós do Servidor de Arquivos do Windows nos quais os discos rígidos virtuais do DPM residem e nos quais a eliminação de duplicatas será habilitada devem estar executando o Windows Server 2012 R2 com Pacote Cumulativo de Atualizações de novembro de 2014 ou posterior.
Forneceremos recomendações e instruções gerais para a implantação do cenário. Sempre que são fornecidos exemplos específicos de hardware, o hardware implantado no Sistema de Plataforma de Nuvem da Microsoft (CPS) é usado para referência.
Este exemplo usa compartilhamentos SMB 3.0 remotos para armazenar os dados de backup de forma que os requisitos de hardware principais se concentrem nos nós do servidor de arquivos em vez dos nós do Hyper-V. A configuração de hardware a seguir é usada no CPS para armazenamento de backup e produção. O hardware geral é usado para armazenamento de backup e de produção, mas as unidades listadas nos compartimentos de unidade são apenas aquelas usados para backup.
Cluster de servidor de arquivos de dimensionamento de 4 nós
Configuração por nó
2 CPUs Intel(R) Xeon(R) E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 núcleos, 16 processadores lógicos
Memória RDIMM de 128 GB e 1333 MHz
Conexões de armazenamento: 2 portas SAS, 1 porta de iWarp/RDMA de 10 GbE
Quatro gabinetes de discos JBOD
18 discos em cada JBOD - 16 HDDs de 4 TB + 2 SSDs de 800 GB
Caminho duplo para cada unidade - política de balanceamento de carga Multipath I/O definida para failover apenas
SSDs configurados para WBC (cache com write-back) e o restante para unidades de diário dedicadas
Configurar volumes de desduplicação
Vamos considerar qual deve ser o tamanho de grandes volumes para dar suporte aos arquivos VHDX com eliminação de duplicação que contenham dados do DPM. No CPS, criamos volumes de 7,2 TB cada. O tamanho do volume ideal depende, principalmente, da intensidade e da frequência das alterações dos dados no volume, e nas taxas de produtividade de acesso dos dados do subsistema de armazenamento do disco. É importante observar que, se o processamento de eliminação de duplicação não puder acompanhar a taxa de alterações de dados diariamente (a rotatividade), a taxa de salvamento diminuirá até que o processamento possa ser concluído. Para obter informações mais detalhadas, consulte Dimensionando volumes para eliminação de duplicação de dados. As diretrizes gerais a seguir são recomendadas para os volumes de eliminação de duplicação:
Use espaços de armazenamento de paridade com reconhecimento de compartimento para aumentar a resiliência e a utilização do disco.
Formate o NTFS com unidades de alocação de 64 KB e grandes segmentos de registro de arquivo para trabalhar melhor com o uso da eliminação de duplicação de arquivos esparsos.
Na configuração de hardware, acima do tamanho recomendado de volumes de 7,2 TB, volumes serão configurados da seguinte maneira:
Paridade dupla com reconhecimento de gabinete 7,2 TB + cache de write-back de 1 GB
ResiliencySettingName == Paridade
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Intercalação == 256 KB (o desempenho de paridade dupla na intercalação de 64 KB é muito menor do que na intercalação padrão de 256 KB)
IsEnclosureAware == $true
TamanhoDaUnidadeDeAlocação=64 KB
FRS grande
Configure um novo disco virtual no pool de armazenamento especificado da seguinte maneira:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Cada um desses volumes deve ser formatado como:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
Na implantação do CPS, eles são configurados como CSVs.
Dentro desses volumes, o DPM armazenará uma série de arquivos VHDX para armazenar os dados de backup. Habilite a eliminação de duplicação no volume depois de formatá-lo da seguinte maneira:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Este comando também modifica as seguintes configurações de eliminação de duplicação de nível de volume:
Defina UsageType como HyperV: isso resulta no processamento de eliminação de duplicatas de arquivos abertos, que são necessários porque os arquivos VHDX usados para armazenamento de backup pelo DPM permanecem abertos com o DPM em execução em sua máquina virtual.
Desabilitar PartialFileOptimization: isso faz com que a eliminação de duplicação otimize a todas as seções de um arquivo aberto, em vez de procurar seções alteradas com idade mínima.
Definir o parâmetro MinFileAgeDays como 0: com PartialFileOptimization desabilitado, o MinFileAgeDays altera seu comportamento para que a eliminação de duplicação só considere arquivos que não tenham sido alterados nessa quantidade de dias. Como queremos que a eliminação de duplicação comece a processar os dados de backup em todos os arquivos VHDX DPM sem atraso, precisamos definir MinFileAgeDays como 0.
Para obter mais informações sobre como configurar a desduplicação, consulte Instalar e Configurar Desduplicação de Dados.
Configurar o armazenamento do DPM
Para evitar problemas de fragmentação e manter a eficiência, o armazenamento do DPM é alocado usando arquivos VHDX que residem em volumes deduplicados. Dez arquivos VHDX dinâmicos de 1 TB cada são criados em cada volume e anexados ao DPM. Também, observe que um superprovisionamento de armazenamento de 3 TB é feito para aproveitar a economia de armazenamento produzida pela eliminação de duplicação. Como a eliminação de duplicação produz mais economia de armazenamento, novos arquivos VHDX podem ser criados nesses volumes para consumir o espaço salvo. Testamos o servidor DPM com até 30 arquivos VHDX anexados a ele.
Execute o seguinte comando para criar discos rígidos virtuais que serão adicionados posteriormente ao servidor DPM:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
Depois, adicione os discos rígidos virtuais criados no servidor DPM da seguinte maneira:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
Esta etapa configura um pool de armazenamento como o disco ou discos nos quais o DPM armazena réplicas e pontos de recuperação para dados protegidos. Esse pool é parte da configuração do DPM e é separado do pool de espaços de armazenamento usado para criar os volumes de dados descritos na seção anterior. Para obter mais informações sobre pools de armazenamento do DPM, consulte Configurar armazenamento em disco e pools de armazenamento.
Configurar o cluster do Servidor de Arquivos do Windows
A eliminação de duplicação requer um conjunto especial de opções de configuração para dar suporte ao armazenamento virtualizado do DPM devido à escala de dados e ao tamanho dos arquivos individuais. Essas opções são globais para o cluster ou o nó do cluster. A eliminação de duplicação deve estar habilitada e as configurações de cluster devem ser configuradas individualmente em cada nó do cluster.
Habilitar a eliminação de duplicação no armazenamento do Servidor de Arquivos do Windows – a função de Eliminação de Duplicação deve ser instalada em todos os nós do cluster do Servidor de Arquivos do Windows. Para fazer isso, execute o seguinte comando do PowerShell em cada nó do cluster:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Ajuste a eliminação de duplicação de processamento para arquivos de dados de backup— Execute o seguinte comando do PowerShell para definir o início da otimização sem atraso e não para otimizar as gravações de arquivo parcial. Por padrão, os trabalhos de GC (Coleta de Lixo) são agendados a cada semana e, a cada quatro semanas, o trabalho de GC é executado no modo "GC profundo" para uma pesquisa mais exaustiva e demorada de dados a serem removidos. Para a carga de trabalho do DPM, esse modo de "GC profundo" não resulta em nenhum ganho apreciativo e reduz a quantidade de tempo no qual a eliminação de duplicação pode otimizar dados. Portanto, nós desabilitamos esse modo profundo.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Ajustar o desempenho para operações em grande escala – execute o seguinte script do PowerShell para:
Desativar o processamento adicional e de E/W ao executar a coleta de lixo profunda
Reservar memória adicional para processamento de hash
Habilitar a otimização de prioridade para permitir a desfragmentação imediata de arquivos grandes
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Essas configurações modificam o seguinte:
HashIndexFullKeyReservationPercent: esse valor controla a quantidade de memória de trabalho de otimização usada para hashes de bloco existentes em vez de hashes de bloco novos. Em alta escala, 70% resulta em uma melhor taxa de transferência de otimização do que o padrão de 50%.
EnablePriorityOptimization: Com arquivos que chegam perto de 1 TB, a fragmentação de um único arquivo pode acumular fragmentos suficientes para se aproximar do limite por arquivo. O processamento de otimização consolida esses fragmentos e impede que esse limite seja atingido. Ao configurar essa chave do registro, a eliminação de duplicação adiciona mais um processo para lidar com arquivos com eliminação de duplicação altamente fragmentados com alta prioridade.
Configurar DPM e o agendamento de deduplicação
As operações de backup e deduplicação são intensivas em E/S. Se forem executadas ao mesmo tempo, uma sobrecarga adicional para alternar entre as operações pode ser cara e resultar em menos dados submetidos a backup ou com eliminação de duplicação diariamente. Recomendamos que você configure janelas de desduplicação e de backup dedicadas e separadas. Isso ajuda a garantir que o tráfego de E/S para cada uma dessas operações seja distribuído com eficiência durante a operação do sistema diariamente. As diretrizes recomendadas para o agendamento são:
Dividir dias em janelas de backup e eliminação de duplicação não sobrepostas.
Configurar agendas de backup personalizadas.
Configurar agendas de eliminação de duplicação personalizadas.
Agende a otimização na janela de eliminação de duplicação diária.
Defina os agendamentos da eliminação de duplicação separadamente, usando esse tempo para trabalhos de coleta de lixo e depuração de fim de semana.
Você pode configurar agendamentos do DPM com o seguinte comando do PowerShell:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
Nessa configuração, o DPM está configurado para fazer backup de máquinas virtuais entre 22h00 e 6h00. A eliminação de duplicação é agendada para as 16 horas restantes do dia. O tempo de eliminação de duplicação real configurado por você dependerá do tamanho do volume. Para obter mais informações, consulte Dimensionando Volumes para Deduplicação de Dados. Uma janela de eliminação de duplicação de 16 horas começando às 6:00 após o término da janela de backup será configurada da seguinte maneira de qualquer nó de cluster individual:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Sempre que a janela de backup for modificada, é vital que a janela de desduplicação seja modificada junto com ela para que elas não se sobreponham. A janela de desduplicação e backup não precisa preencher as 24 horas completas do dia; No entanto, é altamente recomendável que eles façam isso para permitir variações no tempo de processamento devido a alterações diárias esperadas nas cargas de trabalho e na rotatividade de dados.
Implicações de desempenho do backup
Depois que um conjunto de arquivos tiver sido desduplicado, pode haver um pequeno custo de desempenho ao acessar os arquivos. Isso ocorre devido ao processamento adicional necessário para acessar o formato do arquivo usado por arquivos deduplicados. Nesse cenário, os arquivos são um conjunto de arquivos VHDX que veem um uso contínuo pelo DPM durante a janela de backup. O efeito de desduplicar esses arquivos é que as operações de backup e recuperação podem ser um pouco mais lentas do que sem a desduplicação. Para qualquer produto de backup, o DPM apresenta uma carga de trabalho intensiva de gravação, com as operações de leitura sendo mais importantes durante as operações de restauração. As recomendações para lidar com as implicações de desempenho do backup devido à desduplicação são:
Operações de leitura/restauração: os efeitos nas operações de leitura são geralmente negligíveis e não requerem considerações especiais, já que o recurso de deduplicação armazena em cache as partes deduplicadas.
Operações de gravação/backup: Planeje um aumento no tempo de backup de 5 a 10% ao definir a janela de backup. (isso é um aumento comparado ao tempo de backup esperado ao gravar em volumes sem eliminação de duplicação).
Monitoramento
A eliminação de duplicação de dados e o DPM pode ser monitorada para garantir que:
Seja provisionado um espaço em disco suficiente para armazenar os dados de backup
Os trabalhos de backup do DPM estão sendo concluídos normalmente
A deduplicação está habilitada nos volumes de backup
Os agendamentos de eliminação de duplicação sejam definidos corretamente
O processamento de eliminação de duplicação diário seja concluído normalmente
A taxa de economia de deduplicação corresponde às suposições feitas para a configuração do sistema
O sucesso da eliminação de duplicação depende dos recursos gerais do hardware do sistema (incluindo a capacidade de armazenamento, largura de banda de E/S, velocidade de processamento da CPU), da configuração correta do sistema, da carga média do sistema e da quantidade diária de dados modificados.
Você pode monitorar o DPM com o Console Central do DPM. Consulte Instalar o Console Central.
Você pode monitorar a eliminação de duplicação para verificar o status de eliminação de duplicação, a taxa de salvamento e o status do agendamento usando os seguintes comandos do PowerShell:
Obter status:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Obter economia:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Use o cmdlet Get-DedupSchedule para obter o status do agendamento.
Monitorar eventos
Monitorar o log de eventos pode ajudar a entender os eventos de desduplicação e seu status.
Para exibir eventos de eliminação de duplicação, no Explorador de Arquivos, navegue até Logs de Aplicativos e Serviços>Microsoft>Windows>Eliminação de Duplicação.
Se o valor LastOptimizationResult = 0x00000000 aparecer nos resultados de Get-DedupStatus | fl Windows PowerShell, todo o conjunto de dados foi processado pelo trabalho de otimização anterior. Caso contrário, o sistema não conseguiu concluir o processamento de eliminação de duplicação e você talvez queira verificar as configurações, como o tamanho do volume.
Para obter mais exemplos de cmdlets, consulte Monitorar e relatar a eliminação de duplicação de dados.
Monitorar o armazenamento de backup
Em nosso exemplo de configuração, os volumes de 7,2 TB são preenchidos com 10 TB de dados "lógicos" (o tamanho dos dados quando não são desduplicados) armazenados em arquivos VHDX dinâmicos de 10 x 1 TB. À medida que esses arquivos acumulam dados de backup adicionais, eles preenchem lentamente o volume. Se a porcentagem de economia resultante da eliminação de duplicação for alta o suficiente, todos os 10 arquivos poderão atingir seu tamanho lógico máximo e ainda caber no volume de 7,2 TB (potencialmente pode até haver espaço adicional para alocar arquivos VHDX adicionais para os servidores DPM usarem). Mas se a economia de tamanho da eliminação de duplicação não for suficiente, o espaço no volume poderá se esgotar antes que os arquivos VHDX atinjam seu tamanho lógico total e o volume estará cheio. Para evitar que os volumes fiquem cheios, recomendamos o seguinte:
Seja conservador nos requisitos de tamanho do volume e deixe espaço para provisionar armazenamento. É recomendável permitir um buffer de pelo menos 10% ao planejar o uso do armazenamento de backup para permitir as variações esperadas na economia de desduplicação e na rotatividade de dados.
Monitore os volumes usados para armazenamento de backup para garantir que as taxas de economia de deduplicação e a utilização de espaço fiquem nos níveis esperados.
Se o volume ficar cheio, os seguintes sintomas resultam:
A Máquina Virtual DPM entrará em um estado de pausa crítica e nenhum outro trabalho de backup pode ser emitido por essa Máquina Virtual.
Todos os trabalhos de backup que usam os arquivos VHDX no volume completo falharão.
Para se recuperar dessa condição e restaurar o sistema para a operação normal, o armazenamento adicional pode ser provisionado e uma migração de armazenamento da máquina virtual do DPM ou seu VHDX pode ser executada para liberar espaço:
Interrompa o servidor DPM que possui os arquivos VHDX no compartilhamento de backup completo.
Crie um compartilhamento adicional de volume e backup usando a mesma configuração e definições usadas para os compartilhamentos existentes, incluindo definições para NTFS e eliminação de duplicação.
Migre o Armazenamento para a máquina virtual do Servidor DPM e migre pelo menos um arquivo VHDX do compartilhamento de backup completo para o novo compartilhamento de backup criado na etapa 2.
Execute um trabalho de coleta de lixo (GC) de eliminação de duplicação de dados no compartilhamento de backup original que estava cheio. O trabalho do GC deve ter êxito e recuperar o espaço livre.
Reinicie a máquina virtual do servidor DPM.
Um trabalho de verificação de consistência do DPM será disparado durante a próxima janela de backup para todas as fontes de dados que falharam anteriormente.
Todos os trabalhos de backup agora devem ser bem-sucedidos.
Resumo
A combinação de desduplicação e DPM proporciona uma economia de espaço significativa. Isso permite que o melhor custo total de propriedade para a implantação do DPM, backups mais frequentes e taxas mais altas de retenção. As diretrizes e recomendações deste documento devem lhe fornecer as ferramentas e o conhecimento necessário para configurar a desduplicação para o armazenamento do DPM e perceber os benefícios por si mesmo em sua própria implementação.
Perguntas comuns
P: Os arquivos VHDX do DPM precisam ter 1 TB de tamanho. Isso significa que o DPM não pode fazer backup de uma VM ou do SharePoint ou do banco de dados SQL ou volume de arquivo de tamanho > 1 TB?
R: Não. O DPM agrega vários volumes em um só para armazenar backups. Portanto, o tamanho do arquivo de 1 TB não tem implicações para os tamanhos de fonte de dados dos quais o DPM pode fazer backup.
P: parece que arquivos VHDX de armazenamento do DPM só devem ser implantados em compartilhamentos de arquivo SMB remotos. O que acontecerá se eu armazenar os arquivos VHDX de backup em volumes habilitados para eliminação de duplicação no mesmo sistema em que a máquina virtual DPM está operando?
R: Conforme discutido acima, o DPM, o Hyper-V e a eliminação de duplicatas são operações com uso intensivo de armazenamento e computação. Combinar os três em um único sistema podem levar a operações intensivas de de E/S e de processo que podem enfraquecer o Hyper-V e suas VMs. Se você decidir experimentar a configuração do DPM em uma VM com os volumes de armazenamento de backup no mesmo computador, deverá monitorar o desempenho cuidadosamente para garantir que haja largura de banda de E/S e capacidade de computação suficientes para manter todas as três operações no mesmo computador.
P: você recomendou janelas de backup e de eliminação de duplicação separadas e dedicadas. Por que não consigo ativar a deduplicação enquanto o DPM está fazendo backup? Preciso fazer backup do meu banco de dados SQL a cada 15 minutos.
R: a eliminação de duplicação e o DPM são operações intensivas de armazenamento, e ter os dois em execução ao mesmo tempo pode ser ineficiente e levar à privação de E/S. Portanto, para proteger cargas de trabalho mais de uma vez por dia (por exemplo, SQL Server a cada 15 minutos) e habilitar a deduplicação ao mesmo tempo, verifique se há largura de banda de E/S e capacidade de computador suficientes para evitar o esgotamento de recursos.
Q: com base na configuração descrita, o DPM precisa ser executado em uma máquina virtual. Por que não é possível habilitar a eliminação de duplicação no volume de réplica e volumes de cópia de sombra diretamente em vez de em arquivos VHDX?
R: a eliminação de duplicação ocorre por volume operando em arquivos individuais. Como a eliminação de duplicação é otimizada no nível de arquivo, ela não foi projetada para oferecer suporte à tecnologia VolSnap que o DPM usa para armazenar seus dados de backup. Ao executar o DPM em uma VM, o Hyper-V direciona as operações de volume do DPM para o nível de arquivo VHDX, permitindo que a eliminação de duplicação otimize o backup de dados e proporcione maior economia de armazenamento.
P: A configuração de exemplo acima criou apenas volumes de 7,2 TB. É possível criar volumes maiores ou menores?
R: a eliminação de duplicação executa um thread por volume. À medida que o tamanho do volume aumenta, a eliminação de duplicação precisa de mais tempo para concluir a otimização. Por outro lado, com pequenos volumes, há menos dados para encontrar partes duplicadas, o que pode resultar em economia reduzida. Portanto, é aconselhável ajustar o tamanho do volume com base na rotatividade total e nos recursos de hardware do sistema para obter a economia ideal. Informações mais detalhadas sobre como determinar os tamanhos de volume usados com a eliminação de duplicação podem ser encontradas em Dimensionando volumes para eliminação de duplicação no Windows Server. Para obter informações mais detalhadas sobre como determinar os tamanhos de volume usados com a desduplicação, consulte Dimensionando Volumes para Desduplicação de Dados.