共用方式為


HBv3 系列虛擬機器概觀

適用於: ✔️ Linux VM ✔️ Windows VM ✔️ 彈性擴展集 ✔️ 統一擴展集

HBv3 系列伺服器具有 2 * 64 核心 EPYC 7V73X CPU,總共有 128 個實體「Zen3」核心和 AMD 3D V-Cache。 HBv3 上的同步多執行緒 (SMT) 已停用。 這些 128 核心分割為 16 個區段 (每個通訊端 8 個區段),每個區段包含 8 個處理器核心,並且能統一存取 96 MB L3 快取。 Azure HBv3 伺服器也會執行下列 AMD BIOS 設定:

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

如此一來,伺服器就會以 4 個 NUMA 網域啟動 (每個通訊端 2 個)。 每個網域大小為 32 核心。 每個 NUMA 都能直接存取 4 個以 3200 MT/秒運作的實體 DRAM 通道。

為了讓 Azure Hypervisor 擁有足夠空間,在不干擾 VM 的情況下運作,我們會為每個伺服器保留 8 個實體核心。

VM 拓撲

下圖說明伺服器的拓撲。 我們會在兩個 CPU 通訊端上以對稱方式保留這 8 個 Hypervisor 主機核心 (黃色),從每個 NUMA 網域上的特定 Core Complex Dies (CCD) 中取用前 2 個核心,其餘核心用於 HBv3 系列 VM (綠色)。

HBv3-系列伺服器的拓撲

CCD 界限與 NUMA 界限並不相等。 在 HBv3 上,四個連續 (4) CCD 的群組會設為 NUMA 網域,主機伺服器層級和客體 VM 內皆有。 因此,所有 HBv3 VM 大小都會公開向 OS 和應用程式顯示的 4 個 NUMA 網域,如下所示。 4 個統一的 NUMA 網域,視特定 HBv3 VM 大小,每個網域有不同的核心數目。

HBv3-系列 VM 的拓撲

每個 HBv3 VM 大小在實體配置、功能和效能上,與 AMD EPYC 7003 系列中不同的 CPU 相似,如下所示:

HBv3 系列 VM 大小 NUMA 網域 每個 NUMA 網域的核心 與 AMD EPYC 的相似性
Standard_HB120rs_v3 4 30 雙通訊端 EPYC 7773X
Standard_HB120-96rs_v3 4 24 雙通訊端 EPYC 7643
Standard_HB120-64rs_v3 4 16 雙通訊端 EPYC 7573X
Standard_HB120-32rs_v3 4 8 雙通訊端 EPYC 7373X
Standard_HB120-16rs_v3 4 4 雙通訊端 EPYC 72F3

注意

受限核心的 VM 大小只會減少向 VM 公開的實體核心數目。 所有全域共用資產 (RAM、記憶體頻寬、L3 快取、GMI 和 xGMI 連線能力、InfiniBand、Azure 乙太網路、本地 SSD) 均保持不變。 因此,客戶能根據特定的工作負載或軟體授權需求,挑選最適合的 VM 大小。

每個 HBv3 VM 大小的虛擬 NUMA 對應會對應至基礎實體 NUMA 拓撲。 對硬體拓撲沒有潛在的誤導性抽象概念。

使用 lstopo 的輸出,各 HBv3 VM 大小 的確切拓撲如下所示:

lstopo-no-graphics --no-io --no-legend --of txt

按一下即可檢視 Standard_HB120rs_v3 的 lstopo 輸出

HBv3-120 VM 的 lstopo 輸出

按一下即可檢視 Standard_HB120rs-96_v3 的 lstopo 輸出

HBv3-96 VM 的 lstopo 輸出

按一下即可檢視 Standard_HB120rs-64_v3 的 lstopo 輸出

HBv3-64 VM 的 lstopo 輸出

按一下即可檢視 Standard_HB120rs-32_v3 的 lstopo 輸出

HBv3-32 VM 的 lstopo 輸出

按一下即可檢視 Standard_HB120rs-16_v3 的 lstopo 輸出

HBv3-16 VM 的 lstopo 輸出

Infiniband 網路功能

HBv3 VM 也提供 Nvidia Mellanox HDR InfiniBand 網路介面卡 (ConnectX-6),最高能以 200 Gb/秒運作。NIC 會透過 SRIOV 傳遞至 VM,讓網路流量略過 Hypervisor。 因此,客戶能如同在裸機環境中一般,在 HBv3 VM 上載入標準的 Mellanox OFED 驅動程式。

HBv3 VM 支援適性路由、動態連線傳輸 (DCT,搭配標準 RC 和 UD 傳輸),以及 MPI 集合的硬體型卸載至 ConnectX-6 介面卡的機載處理器。 這些功能會增強應用程式效能、可擴縮性和一致性,我們建議使用這些功能。

暫存位置

HBv3 VM 具有 3 個實體的本地 SSD 裝置。 系統會將裝置預先格式化作為分頁檔,在您的 VM 中顯示為一般 "SSD" 裝置。

另外兩個較大的 SSD,會透過 NVMeDirect 提供為未格式化的區塊 NVMe 裝置。 當區塊 NVMe 裝置略過 Hypervisor 時,會有更高的頻寬與 IOPS,以及較低的每 IOP 延遲。

在等量陣列中配對時,NVMe SSD 最多能提供 7 GB/秒的讀取和 3 GB/秒的寫入,以及最高 186,000 IOPS (讀取) 和 201,000 IOPS (寫入),可取得較深的佇列深度。

硬體規格

硬體規格 HBv3 系列 VM
核心 120、96、64、32 或 16 (停用 SMT)
CPU AMD EPYC 7V73X
CPU 頻率 (非 AVX) 3.0 GHz (所有核心)、3.5 GHz (最多 10 核心)
記憶體 448 GB (每個核心的 RAM 取決於 VM 大小)
本機磁碟 2 * 960 GB NVMe (區塊)、480 GB SSD (頁面檔)
Infiniband 200 Gb/秒 Mellanox ConnectX-6 HDR InfiniBand
網路 50 Gb/秒 乙太網路 (40 Gb/秒 可用) Azure 第二代 SmartNIC

軟體規格

軟體規格 HBv3 系列 VM
MPI 作業大小上限 36,000 核心 (單一虛擬機器擴展集中的 300 個 VM 且 singlePlacementGroup=true)
MPI 支援 HPC-X、Intel MPI、OpenMPI、MVAPICH2、MPICH
其他架構 UCX、libfabric、PGAS
Azure 儲存體支援 標準和進階磁碟 (最多 32 個磁碟)
SRIOV RDMA 的 OS 支援 RHEL 7.9+、Ubuntu 18.04+、SLES 15.4、WinServer 2016+
效能建議作業系統 Windows Server 2019+
協調器支援 Azure CycleCloud、Azure Batch、AKS;叢集設定選項

注意

HBv3 和其他具有超過 64 個 (虛擬或實體) 核心的 VM 均不支援 Windows Server 2012 R2。 如需詳細資訊,請參閱 Windows Server 上 Hyper-V 支援的 Windows 客體作業系統

重要

本文件參考即將或已處於生命週期結束 (EOL) 狀態的 Linux 版本。 請考慮更新為較新的版本。

下一步