記憶域スペース ダイレクトのハードウェア要件

適用対象: Azure Stack Hub、Azure Stack HCI バージョン 21H2、Azure Stack HCI バージョン 20H2、Windows Server 2022、Windows Server 2019、Windows Server 2016

この記事では、記憶域スペース ダイレクトの最小ハードウェア要件について説明します。 クラウドへの接続を使用したハイパーコンバージド展開向けに設計された Microsoft のオペレーティング システム、Azure Stack HCI のハードウェア要件については、Azure Stack HCI を展開する前のハードウェア要件の決定に関する記事を参照してください。

運用環境では、Microsoft のパートナーから検証済みのハードウェア/ソフトウェア ソリューションを購入することをお勧めします。これには、展開ツールと手順が含まれています。 これらのソリューションは、互換性と信頼性を確保するために、Microsoft の参照アーキテクチャに照らして設計、組み立て、検証されているため、迅速に稼働させることができます。 ハードウェア ソリューションについては、Azure Stack HCI ソリューションの Web サイトを参照してください。

ヒント

記憶域スペース ダイレクトを評価したいが、ハードウェアがありませんか? 「ゲスト仮想マシン クラスターでの記憶域スペース ダイレクトの使用」の説明に従って、Hyper-V または Azure 仮想マシンを使用してください。

基本要件

重要

クラスター ノードが実装されているシナリオでは、NIC アダプター、ドライバー、ファームウェアは、SET チーミングが正常に機能するために完全に一致する必要があります。

システム、コンポーネント、デバイス、およびドライバーは、Windows Server Catalog の使用しているオペレーティング システムに対して認定されている必要があります。 さらに、次の図に示すように、サーバーとネットワーク アダプターに、ソフトウェア定義データ センター (SDDC) Standard またはソフトウェア定義データ センター (SDDC) Premium の追加の認定 (AQ) があることが推奨されます。 SDDC AQ には、1,000 以上のコンポーネントがあります。

Screenshot of the Windows Server catalog showing a system that includes the Software-Defined Data Center (SDDC) Premium certification

完全に構成されたクラスター (サーバー、ネットワーク、ストレージ) は、フェールオーバー クラスター マネージャーのウィザードに従うか、PowerShell の Test-Clusterコマンドレットを使用して、すべてのクラスター検証テストに合格する必要があります。

さらに、次の要件が適用されます。

サーバー

  • 2 台~ 16 台
  • すべてのサーバーの製造元とモデルが同じであることを推奨

CPU

  • Intel Nehalem 以降の互換性のあるプロセッサ。もしくは
  • AMD EPYC 以降の互換性のあるプロセッサ

メモリ

  • Windows Server、VM、およびその他のアプリまたはワークロード用のメモリ。および
  • 各サーバーのキャッシュドライブ容量が 1 テラバイト (TB) あたり 4 GB の RAM (記憶域スペース ダイレクト メタデータ用)

ブート

  • Windows Server によってサポートされる任意のブート デバイス (SATADOM も含まれるようになりました)
  • RAID 1 ミラーは不要ですが、ブート用にはサポートされています
  • 推奨: 最小サイズ 200 GB

ネットワーク

記憶域スペース ダイレクトでは、ノード間に信頼性の高い高速な帯域幅、低待機時間のネットワーク接続が必要です。

2-3 の小規模なノード用の最小相互接続

  • 10 Gbps またはそれより高速なネットワーク インターフェイス カード (NIC)
  • 冗長性とパフォーマンス用に各ノードからの 2 つ以上のネットワーク接続を推奨

ハイ パフォーマンス用、規模に応じて、または 4+ の展開のために推奨される相互接続

  • リモート ダイレクト メモリ アクセス (RDMA) 対応の NIC、iWARP (推奨)、または RoCE
  • 冗長性とパフォーマンス用に各ノードからの 2 つ以上のネットワーク接続を推奨
  • 25 Gbps かそれより高速の NIC

スイッチまたはスイッチレス ノード相互接続

  • スイッチ: ネットワーク スイッチは、帯域幅とネットワークの種類を処理するように適切に構成されている必要があります。 RoCE プロトコルを実装する RDMA を使用する場合、ネットワーク デバイスとスイッチの構成はさらに重要です。
  • スイッチレス: ノードは直接接続を使用して、スイッチの使用を回避して、相互接続できます。 すべてのノードに、クラスターの他のすべてのノードとの直接接続がある必要があります。

ドライブ

記憶域スペース ダイレクトは、それぞれ 1 台のみのサーバーに物理的に接続されている直接接続型 SATA、SAS、NVMe、または永続メモリ (PMem) ドライブで動作します。 ドライブの選択の詳細については、ドライブの選択に関する記事および「永続的なメモリの理解と展開」を参照してください。

  • SATA、SAS、永続的なメモリ、NVMe (M.2、U.2、拡張カード) ドライブはすべてサポートされています。
  • 512n、512e、および 4K ネイティブ ドライブはすべてサポートされています
  • ソリッドステート ドライブは、電源喪失保護を備えている必要があります。
  • すべてのサーバーで同じ数と種類のドライブ – ドライブの対称性に関する考慮事項に関する記事を参照してください
  • キャッシュ デバイスは 32 GB 以上である必要があります
  • 永続的なメモリ デバイスは、ブロック記憶域モードで使用されます
  • 永続メモリ デバイスをキャッシュ デバイスとして使用する場合は、NVMe または SSD 容量デバイスを使用する必要があります (HDD は使用できません)
  • HDD を使用してストレージ容量を提供する場合は、ストレージ バス キャッシュを使用する必要があります。 オールフラッシュ展開を使用する場合、ストレージ バス キャッシュは必要ありません
  • NVMe ドライバーは、Windows (stornvme.sys) に含まれている Microsoft 提供のもの
  • 推奨: 容量ドライブの数は、キャッシュ ドライブの数の倍数になります
  • 推奨: キャッシュ ドライブには、高い書き込みの耐久性 (1 日あたり少なくとも 3 つのドライブ書き込み (DWPD) または 1 日あたり少なくとも 4 テラバイトの書き込み (TBW)) が必要です。1 日あたりのドライブ書き込み数 (DWPD)、テラバイトの書き込み (TBW)、および記憶域スペース ダイレクトの最小推奨事項の理解に関する記事を参照してください

注意

記憶域容量にオールフラッシュ ドライブを使用する場合、記憶域プール キャッシュの利点が制限されます。 詳細については、記憶域プール キャッシュに関する記事を参照してください。

ドライブを記憶域スペース ダイレクト用に接続する方法を次に示します。

  • 直接接続型 SATA ドライブ
  • 直接接続型 NVMe ドライブ
  • SAS ドライブを使用した SAS ホストバス アダプター (HBA)
  • SATA ドライブを使用した SAS ホストバス アダプター (HBA)
  • SAS 物理ストレージ デバイスのみに直接パススルーを行う RAID コントローラー カード
  • サポートされていません: SAS 物理ストレージ デバイスまたは SAN (ファイバー チャネル、iSCSI、FCoE) ストレージの直接パススルーをサポートしていない RAID コントローラーのカード。 ホストバス アダプター (HBA) カードは、記憶域スペース ダイレクトに使用されるすべてのストレージ デバイスに対して、単純パススルー モードを実装する必要があります

Diagram showing supported and unsupported drive interconnects

ドライブは、サーバーの内部、または 1 台のサーバーにのみ接続されている外部エンクロージャに配置できます。 スロットのマッピングと識別のために SCSI エンクロージャ ービス (SES) が必要になります。 各外部エンクロージャは、一意識別子 (一意の ID) を提示する必要があります。

  • サーバー内部のドライブ
  • 1 つのサーバーに接続された外部エンクロージャ ("JBOD") 内のドライブ
  • サポート対象外: 複数のサーバーに接続されている共有 SAS エンクロージャ、またはドライブに複数のパスからアクセスできる任意の形式のマルチパス IO (MPIO)。

Diagram showing how internal and external drives connected directly to a server are supported, but shared SAS is not

ドライブの最小数 (ブート ドライブを除く)

必要な容量ドライブの最小数は、展開シナリオによって異なります。 記憶域プール キャッシュの使用を計画している場合は、サーバーごとに少なくとも 2 つのキャッシュ デバイスが必要です。

記憶域スペース ダイレクトは物理サーバーのクラスターまたは仮想マシン (VM) ゲスト クラスターにデプロイできます。 物理ストレージ デバイスまたは仮想ストレージ デバイスの選択に基づいて、パフォーマンス、容量、またはバランスの取れたシナリオ向けに記憶域スペース ダイレクト設計を構成できます。 仮想化された展開では、プライベートまたはパブリック クラウドの基になるストレージのパフォーマンスと回復性を利用できます。 VM ゲスト クラスターに記憶域スペース ダイレクトを展開すると、仮想環境内の高可用性ソリューションを使用できます。

以降のセクションでは、物理および仮想の各展開での最小ドライブ要件について説明します。

物理展開

次の表に、Azure Stack HCI バージョン 21H2 以降や Windows Server などのハードウェア展開の種類別の最小容量ドライブ数を示します。

存在するドライブの種類 (容量のみ) 必要な最小ドライブ数 (Windows サーバー) 必要な最小ドライブ数 (Azure Stack HCI)
すべての永続メモリ (同じモデル) 4 つの永続メモリ 2 つの永続メモリ
すべて NVMe (同じモデル) 4 つの NVMe 2 つの NVMe
すべて SSD (同じモデル) 4 つの SSD 2 つの SSD

記憶域プール キャッシュを使用している場合は、キャッシュ用に少なくとも 2 台以上の追加ドライブが構成されている必要があります。 次の表は、2 つ以上のノードを使用する Windows Server と Azure Stack HCI の両方の展開に必要なドライブの最小数を示しています。

存在するドライブの種類 必要な最小ドライブ数
永続メモリ + NVMe または SSD 2 つの永続メモリ + 4 つの NVMe または SSD
NVMe + SSD 2 つの NVMe + 4 つの SSD
NVMe + HDD 2 つの NVMe + 4 つの HDD
SSD + HDD 2 つの SSD + 4 つの HDD

重要

記憶域プール キャッシュは、単一ノード展開で Azure Stack HCI と共に使用することはできません。

仮想展開

次の表に、Windows Server ゲスト VM や Windows Server Azure Edition などの仮想展開の種類別のドライブの最小数を示します。

存在するドライブの種類 (容量のみ) 必要な最小ドライブ数
仮想ハード ディスク 2

ヒント

Azure Stack HCI または Windows Server で実行しているときにゲスト VM のパフォーマンスを向上させるには、CSV メモリ内読み取りキャッシュを使用して、バッファーされない読み取り操作をキャッシュすることを検討してください。

仮想環境で記憶域スペース ダイレクトを使用している場合は、次の点を考慮する必要があります。

  • 仮想ディスクは物理ドライブのような障害の影響を受けにくいが、パブリック クラウドまたはプライベート クラウドのパフォーマンスと信頼性に依存している
  • 単一レベルの低待機時間/高パフォーマンス ストレージを使用することをお勧めします
  • 仮想ディスクは容量にのみ使用する必要があります

仮想マシンと仮想化ストレージを使用した記憶域スペース ダイレクトの展開の詳細について確認してください。

最大容量

最大 Windows Server 2019 以降 Windows Server 2016
サーバーあたりの生の容量 400 TB 100 TB
プール容量 4 PB (4,000 TB) 1 PB