共用方式為


容錯移轉叢集硬體需求及存放選項

若要建立容錯移轉叢集,您的系統必須符合下列需求:

  • 擁有在硬體需求中列出的所有硬體
  • 對您目前目前正在執行的 Windows Server 版本認證所有硬體
  • 容錯移轉叢集的所有零件都必須通過驗證設定中的所有驗證測試。

本文將更詳細地描述每個硬體需求。

硬體需求

下列各節說明容錯移轉叢集的硬體需求和建議。

伺服器

建議您使用一組包含相同或類似元件的相符電腦。

注意

如果您已透過偏好的硬體合作夥伴購買 Azure Stack HCI 目錄 的 Azure Stack HCI 整合式系統解決方案影體,則應預先安裝 Azure Stack HCI 作業系統。

網路介面卡和纜線

如果您使用網際網路小型電腦系統介面 (iSCSI),僅應讓每張網路介面卡專門用於網路通訊或 iSCSI。

在連接叢集節點的網路結構中,避免發生單一失敗點。 例如,您可以透過多種不同的網路連接叢集節點。 您也可以使用藉由協同運作網路介面卡、備援交換器、備援路由器,或移除單一失敗點的類似硬體所建構的一種網路來連接叢集節點。

注意

如果您將叢集節點與單一網路連接,網路應通過驗證設定中的備援需求。 不過,您也應在報告中看到一則訊息,指出網路不應有單一失敗點。

裝置控制器和儲存體的其他介面卡

您應用於儲存體的裝置控制器或其他相容介面卡取決於您計劃使用的儲存體類型。

  • 如果您使用序列連接 SCSI 或光纖通道,則所有叢集伺服器內儲存體堆疊的所有元素都應相同。 更具體來說,下列在所有叢集伺服器上連結至叢集儲存體的元件都應相同:

    • 多重路徑輸入和輸出 (MPIO) 軟體
    • 裝置特定模組 (DSM) 軟體
    • 主機匯流排介面卡 (HBA)
    • HBA 驅動程式
    • HBA 韌體

    如果您使用不同的 HBA,您必須與儲存體廠商驗證您遵循其設定指導方針。

  • 如果您使用 iSCSI,則每個叢集伺服器都應該有一或多個網路介面卡或專用於叢集儲存體的 HBA。 您只應使用連線至 iSCSI 的網路來進行網路通訊。 在所有伺服器上,用於連接至 iSCSI 儲存目標的網路介面卡都應相同。 建議您使用 Gigabit Ethernet 或速度更快的介面卡。

儲存體

您必須使用儲存空間直接存取,或相容於 Windows Server 2012 R2、Windows Server 2012 和更新版本的共用儲存體。 您可以使用連結的共用儲存體,或使用 SMB 3.0 檔案共用,做為容錯移轉叢集中設定之執行 Hyper-V 的伺服器的共用儲存體。 如需詳細資訊,請參閱 部署透過 SMB 的 Hyper-V

在大多數情況下,連結的儲存體應包含在硬體層級設定的多個獨立磁碟。 這些磁碟也稱為邏輯單元編號 (LUN)。

某些叢集會有做為磁碟見證作用的磁碟,而此磁碟是在叢集儲存體中保存叢集設定資料庫的磁碟。 只有在磁碟見證應是指定仲裁設定的一部分時,容錯移轉叢集才會具有磁碟見證。 如需詳細資訊,請參閱了解儲存空間直接存取中的仲裁。 其他磁碟包含叢集角色的必要檔案。

您也應考量這些額外的儲存體需求:

  • 使用容錯移轉叢集中內含的原生磁碟支援時,僅應使用基本磁碟而非動態磁碟。

  • 建議您使用新技術檔案系統 (NTFS) 格式化磁碟分割。 如果您使用叢集共用磁碟區 (CSV),則需使用 NTFS 格式化每個 CSV 的分割。

    注意

    如果您的仲裁設定有設定磁碟見證,您可以將磁碟格式化為 NTFS 或復原檔案系統 (ReFS)。

  • 至於磁碟的磁碟分割樣式,您可以使用主開機記錄 (MBR) 或 GUID 磁碟分割表格 (GPT)。

Hyper-V 的硬體需求

如果您要建立包含叢集虛擬機器的容錯移轉叢集,叢集伺服器也須符合支援 Hyper-V 角色的硬體需求。

Hyper-V 角色具有下列需求:

  • 64 位元處理器
  • 處理器必須具有硬體輔助虛擬化功能,這可在隨附虛擬化選項的處理器使用,尤其是 Intel 虛擬化技術 (Intel VT) 或 Advanced Micro Devices 虛擬化 (AMD-V) 技術。
  • 處理器也須提供並啟用硬體強制執行的資料執行防止 (DEP) 功能。 具體而言,您必須啟用 Intel 執行停用 (XD) 位元或 AMD 無執行 (NX) 位元。

如需 Hyper-V 角色的詳細資訊,請參閱Hyper-V 概觀

部署容錯移轉叢集的存放區域網路的指導方針

如果您正在部署容錯移轉叢集的存放區域網路 (SAN) 時,請依照下列指導方針:

  • 確認儲存體相容性。 您應與製造商和廠商確認您的儲存體 (包括其驅動程式、韌體和軟體) 相容於所執行 Windows Server 版本中的容錯移轉叢集。

  • 隔離您的存放裝置,每個裝置一個叢集。 來自不同叢集的伺服器不應存取相同的存放裝置。 在大多數情況下,您應透過 LUN 遮罩或分區,將用於某一組叢集伺服器的 LUN 與所有其他伺服器隔離。

  • 請使用多重路徑 I/O 軟體或小組網路介面卡。 使用高可用性的存放網狀架構時,您可以使用多重路徑 I/O 軟體或小組網路介面卡,部署具有多個 HBA 的容錯移轉叢集。 您可以使用這兩種方法執行負載平衡和容錯移轉 (LBFO),為您的系統提供最高的備援和可用性層級。 如果您使用 Windows Server 2012 R2 或 Windows Server 2012,則必須以 Microsoft 多重路徑 I/O (MPIO) 作為多重路徑解決方案的基礎。 雖然 Windows Server 的作業系統也包含一或多個 DSM,但是您的硬體廠商應通常會為硬體提供 MPIO 裝置專屬模組 (DSM)。

    重要

    HBAs 和多重路徑 I/O 軟體可能對版本敏感。 請與您的硬體廠商密切合作,選擇與系統的 Windows Server 版本相容的正確介面卡、韌體和軟體。 網路介面卡 (NIC)、驅動程式和韌體必須完全符合,以讓切換內嵌團隊 (SET) 在所有從集節點中正確作用。

  • 使用儲存體空間。 如果您打算部署已使用儲存體空間設定的序列連結 SCSI (SAS) 叢集儲存體,請確定您已閱讀部署叢集儲存空間中的需求。