共用方式為


估計記憶體最佳化資料表的記憶體需求

適用於:SQL Server Azure SQL 資料庫 Azure SQL 受控執行個體

記憶體最佳化資料表需要有足夠的記憶體,以將所有資料列和索引保留在記憶體中。 因為記憶體是有限的資源,所以請務必瞭解並管理系統上的記憶體使用量。 本節的主題涵蓋了常見的記憶體使用與管理案例。

不論是建立新的記憶體最佳化資料表,或是將現有的磁碟資料表移轉至記憶體內部 OLTP 記憶體最佳化資料表,請務必適當地估計每個資料表的記憶體需求,以便您可以佈建具有足夠記憶體的伺服器。 本節描述如何估計保存記憶體最佳化資料表的資料所需的記憶體數目。

如果您想從磁碟資料表移轉至記憶體最佳化資料表,請在進行本主題之前,先參閱 判斷是否應將資料表或預存程序匯出至記憶體中 OLTP 主題,以取得最適合移轉之資料表的指引。 移轉至 In-Memory OLTP 底下的所有主題,提供從磁碟資料表移轉至記憶體最佳化資料表的指引。

估計記憶體需求的基本指引

從 SQL Server 2016 (13.x) 開始,記憶體最佳化資料表的大小沒有任何限制,但資料表需要適合記憶體大小。 在 SQL Server 2014 (12.x) 中,支援的 SCHEMA_AND_DATA 資料表的資料大小為 256 GB。

記憶體最佳化資料表的大小會對應至資料加上一些資料列行首額外負荷的大小。 當移轉至記憶體最佳化的磁碟資料表時,記憶體最佳化資料表的大小會粗略對應至叢集索引或原始磁碟資料表堆積的大小。

記憶體最佳化資料表上的索引通常小於磁碟資料表上的非叢集索引。 非叢集索引的大小順序是 [primary key size] * [row count]。 雜湊索引的大小是 [bucket count] * 8 bytes

有使用中的工作負載時,資料列版本設定和各種作業需要計入額外的記憶體。 實際需要多少記憶體取決於工作負載,但為安全起見,建議從兩倍的預期記憶體最佳化資料表和索引大小開始,並觀察實際的記憶體需求。 資料列版本設定的額外負荷一律取決於工作負載的特性,尤其長時間執行的交易會增加額外負荷。 大部分的工作負載使用較大的資料庫 (例如,>100 GB),額外負荷通常會受到限制 (25% 或更少)。

詳細的記憶體需求計算

記憶體最佳化資料表範例

請考慮下列記憶體最佳化資料表結構描述:

CREATE TABLE t_hk
(  
  col1 int NOT NULL  PRIMARY KEY NONCLUSTERED,  

  col2 int NOT NULL  INDEX t1c2_index   
      HASH WITH (bucket_count = 5000000),  

  col3 int NOT NULL  INDEX t1c3_index   
      HASH WITH (bucket_count = 5000000),  

  col4 int NOT NULL  INDEX t1c4_index   
      HASH WITH (bucket_count = 5000000),  

  col5 int NOT NULL  INDEX t1c5_index NONCLUSTERED,  

  col6 char (50) NOT NULL,  
  col7 char (50) NOT NULL,   
  col8 char (30) NOT NULL,   
  col9 char (50) NOT NULL  

)   WITH (memory_optimized = on)  ;
GO  

我們將使用此結構描述,判斷此記憶體最佳化資料所需的最小記憶體。

配置給資料表的記憶體

記憶體最佳化資料表資料列包含三個部分:

  • 時間戳記
    資料列標頭/時間戳記 = 24 個位元組。

  • 索引指標
    針對資料表中的每個雜湊索引,每個資料列具有 8 位元組位址指標,指向索引的下一個資料列。 由於有 4 個索引,因此每個資料列都會配置 32 個位元組給索引指標 (每個索引有 8 位元組指標)。

  • Data
    資料列的資料部分大小是由每個資料行的類型大小總和來判斷。 在資料表中,我們有五個 4 位元組整數、三個 50 位元組字元資料行,以及一個 30 位元組字元資料行。 因此,每個資料列的資料部分為 4 + 4 + 4 + 4 + 4 + 50 + 50 + 30 + 50 (或 200) 個位元組。

以下是記憶體最佳化資料表中 5,000,000 (5 百萬) 個資料列的大小計算。 資料列所使用的記憶體總數估計如下:

配置給資料表資料列的記憶體

從上述計算得知,記憶體最佳化資料表的每個資料列大小為 24 + 32 + 200 (或 256) 個位元組。 由於我們有 5 百萬個資料列,因此資料表會耗用 5,000,000 * 256 (或 1,280,000,000) 個位元組,大約是 1.28 GB。

配置給索引的記憶體

配置給每個雜湊索引的記憶體

每個雜湊索引是 8 位元組位址指標的雜湊陣列。 陣列的大小是由該索引的唯一索引值數目來判斷;例如,t1c2_index 的陣列大小可以從唯一的 Col2 值數目開始。 雜湊陣列太大會浪費記憶體。 雜湊陣列太小會降低效能,因為雜湊處理至相同索引的索引值會引起太多衝突。

雜湊索引的等式查閱速度很快,例如:

SELECT * FROM t_hk  
   WHERE Col2 = 3;

非叢集索引的範圍查閱更快,例如:

SELECT * FROM t_hk  
   WHERE Col2 >= 3;

如果您想移轉磁碟資料表,您可以使用下列程式碼來判斷 index t1c2_index 的唯一值數目。

SELECT COUNT(DISTINCT [Col2])  
  FROM t_hk;

如果您想建立新的資料表,則需要估計陣列大小,或在部署前從測試收集資料。

如需雜湊索引在記憶體內部 OLTP 記憶體最佳化資料表中運作方式的相關資訊,請參閱雜湊索引

設定雜湊索引陣列大小

雜湊陣列大小是由 (bucket_count= value) 設定,其中 value 是大於零的整數值。 如果 value 不是 2 的乘冪,實際的 bucket_count 會無條件進位到下一個最接近的 2 的乘冪。 在資料表範例 (bucket_count = 5000000) 中,由於 5,000,000 不是 2 的乘冪,因此實際值區計數會無條件進位到 8,388,608 (2^23)。 計算雜湊陣列所需的記憶體時,您必須使用此數值,而不是 5,000,000。

因此在此範例中,每個雜湊陣列所需的記憶體為:

8,388,608 * 8 = 2^23 * 8 = 2^23 * 2^3 = 2^26 = 67,108,864 或大約 64 MB。

由於我們有三個雜湊索引,因此雜湊索引所需的記憶體為 3 * 64 MB = 192 MB。

非叢集索引的記憶體

非叢集索引會以 B 型樹狀結構實作,其內部節點包含索引值,以及指向後續節點的指標。 分葉節點包含索引值,以及一個指向記憶體中資料表資料列的指標。

不同於雜湊索引,非叢集索引沒有固定的貯體大小。 此索引會隨資料動態成長和壓縮。

非叢集索引所需的記憶體,計算方式如下:

  • 配置給非分葉節點的記憶體
    在一般組態中,配置給非分葉節點的記憶體只佔索引所使用之整體記憶體的很小比例。 因為很小,所以可以放心忽略。

  • 配置給分葉節點的記憶體
    分葉節點中對於資料表內的每個唯一索引鍵都有一個資料列,指向該唯一索引鍵的資料列。 如果相同索引鍵有多個資料列 (亦即有非唯一的非叢集索引),則索引分葉節點中只有一個資料列會指向其中一個資料列,而其他資料列會彼此連結。 因此,所需的總記憶體大約是:

    • memoryForNonClusteredIndex = (pointerSize + sum(keyColumnDataTypeSizes)) * rowsWithUniqueKeys

非叢集索引最適合用於範圍查閱,如下列查詢所示:

SELECT * FROM t_hk  
   WHERE c2 > 5;  

配置給資料列版本設定的記憶體

更新或刪除資料列時,記憶體中 OLTP 會使用開放式並行存取來避免鎖定。 這表示當更新資料列時,會建立該資料列的其他版本。 此外,刪除是邏輯的 - 現有資料列會標示為已刪除,但不會立即予以移除。 在可能使用舊版本的所有交易完成執行之前,系統會保留舊的資料列版本 (包括已刪除的資料列) 可用。

由於等待記憶體回收循環釋放記憶體時,記憶體中可能會有其他許多資料列,因此您必須有足夠的記憶體來容納其他這些資料列。

您可以計算每秒更新和刪除的最大資料列數目,然後乘以最久的交易所需的秒數 (至少為 1),來估計其他資料列的數目。

該值接著會乘以資料列大小,以取得設定資料列版本設定所需的位元組數目。

rowVersions = durationOfLongestTransactionInSeconds * peakNumberOfRowUpdatesOrDeletesPerSecond

接著會將過時資料列數目乘以記憶體最佳化的資料表資料列大小,來估計過時資料列所需的記憶體 (請參閱上文的 資料表記憶體 )。

memoryForRowVersions = rowVersions * rowSize

配置給資料表變數的記憶體

資料表變數所使用的記憶體只會在資料表變數超出範圍時釋出。 從資料表變數中刪除的資料列 (包括隨更新刪除的資料列) 則不受記憶體回收限制。 在資料表變數離開範圍之前,不會釋出記憶體。

在大型 SQL 批次中定義的資料表變數 (與程序範圍相反) 會在許多交易中使用,且可能會耗用大量的記憶體。 由於這些不會進行記憶體回收,因此資料表變數中已刪除的資料列可能會耗用大量記憶體並降低效能,因為讀取作業需要掃描已刪除的資料列。

配置給成長的記憶體

上述計算依資料表的現狀來估計資料表的記憶體需求。 除了此記憶體之外,您還需要估計資料表的成長,並提供足夠的記憶體來容納該成長幅度。 例如,如果您預期會成長 10%,則需要將上述結果乘以 1.1,以取得資料表所需的總記憶體。

另請參閱

移轉至 In-Memory OLTP