データ重複除去とは何ですか?
データ重複除去 (略して "重複除去" と呼ばれることが多い) は、冗長データがストレージ コストに与える影響を軽減するのに役立つ機能です。 有効にすると、データ重複除去により、ボリューム上の重複している部分が検索され、ボリューム上のデータが検査されて、ボリューム上の空き領域が最適化されます。 ボリューム上のデータセットの重複する部分は、1 回だけ保存され、さらに節減するために (必要に応じて) 圧縮されます。 データ重複除去では、データの忠実性や完全性を損なうことなく冗長性を最適化します。 データ重複除去のしくみの詳細については、「データ重複除去のしくみ」 セクション (「データ重複除去とは」ページ) を参照してください。
Important
KB4025334 には、重要な信頼性の修正など、データ重複除去の修正プログラムのロールアップが含まれています。Windows Server 2016 および Windows Server 2019 でデータ重複除去を使用する場合は、データ重複除去をインストールすることを強くお勧めします。
データ重複除去はなぜ有用なのですか?
記憶域管理者はデータ重複除去を使用して、重複データに関連するコストを削減できます。 多くの場合、大規模なデータセットには 多くの 重複があり、データを格納するコストが増加します。 例えば次が挙げられます。
- ユーザー ファイル共有は同じ、または類似するファイルのコピーを多く含むことがあります。
- 仮想化ゲストは VM 間でほぼ同じであることがあります。
- 毎日のバックアップ スナップショットの内容は、わずかな違いであることがあります。
データ重複除去から得られる領域の節約は、データセットや、ボリューム上のワークロードに依存します。 重複の多いデータセットでは、最大 95% の最適化率、つまり記憶域使用率が 20 分の 1 になることがあります。 以下の表は、各種コンテンツに対して重複除去を行った場合の標準的な削減効果を示しています。
| Scenario | Content | 標準的な削減効果 |
|---|---|---|
| ユーザー ドキュメント | Office ドキュメント、写真、ミュージック、ビデオなど | 30-50% |
| デプロイメント共有 | ソフトウェア バイナリ、cab ファイル、シンボルなど | 70-80% |
| 仮想化ライブラリ | ISO、仮想ハード ディスク ファイルなど | 80-95% |
| 一般的なファイル共有 | 上記のすべて | 50-60% |
Note
ボリュームの空き領域を増やすだけの場合は、クラウドの階層化が有効化された Azure File Sync を使用することを検討してください。 これにより、最も頻繁にアクセスされるファイルをローカルにキャッシュし、最もアクセス頻度の低いファイルをクラウドに階層化することで、パフォーマンスを維持しながらローカル記憶域を節約できます。 詳細については、「Azure File Sync のデプロイの計画」を参照してください。
データ重複除去はどのような場合に使用できますか?
| シナリオの図 | Description |
|---|---|
|
汎用ファイル サーバー: 汎用ファイル サーバーは、一般的な用途のファイル サーバーで、次の任意の種類の共有を含むことがあります。
|
|
仮想デスクトップ インフラストラクチャ (VDI) の展開: リモート デスクトップ サービスなどの VDI サーバーは、組織がユーザーにデスクトップをプロビジョニングするための軽量のオプションになります。 組織がこのようなテクノロジに頼る理由はさまざまです。
|
|
仮想化されたバックアップ アプリケーションなどのバックアップ先: バックアップ スナップショット間には大幅な重複があるため、Microsoft Data Protection Manager (DPM) などのバックアップ アプリケーションはデータ重複除去の有力候補です。 |
|
その他のワークロード: 他のワークロードも、データ重複除去の優れた候補となる可能性があります。 |