共用方式為


調整 Azure 串流分析作業以增加輸送量

本文示範如何調整串流分析查詢,以增加串流分析作業的輸送量。 您可以使用以下指南來調整作業,進而處理更高的負載及利用更多系統資源 (如更多頻寬、更多 CPU 資源、更多記憶體)。 依照必要條件的規定,您需要閱讀以下文章:

案例 1 – 查詢在輸入分割區之間原本就完全可平行

如果您的查詢在輸入分割區之間原本就完全可平行,可以遵循以下步驟:

  1. 使用 PARTITION BY 關鍵字撰寫窘迫平行查詢。 如需詳細資料,請參閱本頁的「窘迫平行作業」一節。
  2. 根據查詢使用的輸出類型,某些輸出可能是不可平行或需要進一步設定才能成為窘迫平行。 例如,PowerBI 輸出是不可平行。 輸出一律會先合併再傳送到輸出接收。 Blob、資料表、ADLS、服務匯流排和 Azure 函式可自動平行化。 SQL 和 Azure Synapse Analytics 輸出有平行處理的選項。 事件中樞需要將 PartitionKey 設定設定為與 PARTITION BY 欄位相符 (通常是 PartitionId)。 另請特別注意,對事件中樞來說,所有輸入和所有輸出的分割區數目應相符,以避免跨越分割區。
  3. 使用 1 SU V2 (單一運算節點的完整容量) 來執行查詢,以測量可達成輸送量的最大值,如果您使用 GROUP BY,請測量作業可處理的群組數目 (基數)。 達到系統資源限制的作業會出現如下所示的一般徵兆。
    • SU % 使用率計量超過 80%。 這表示記憶體使用量偏高。 若要了解導致這項計量增加的因素,請參閱這裡的描述。
    • 輸出時間戳記落後時鐘時間。 根據您的查詢邏輯,輸出時間戳記與時鐘時間之間可能有邏輯位移。 不過,它們的進行的速度大致上應該相同。 如果輸出時間戳記遠遠落後,代表系統過度使用。 這可能是下游輸出接收節流,或 CPU 使用率過高的結果。 目前我們未提供 CPU 使用量度量,因此您可能會很難區分這兩者。
      • 如果此問題是接收節流所引起的,您可能需要增加輸出分割區的數目 (以及輸入分割區的數目,以保留作業的完全可平行能力),或增加接收的資源數量 (如 CosmosDB 的要求單位數目)。
    • 在作業圖表中,每個輸入都有一個按照分割區區分的待辦項目事件計量。 如果待辦項目事件計量持續增加,也代表系統資源受限 (因為輸出接收節流或 CPU 使用率過高)。
  4. 假設您沒有任何會讓某個分割區「過熱」的資料扭曲,一旦判斷出 1 SU V2 作業能達到的限制後,您可以在新增更多 SU 時利用線性方式推測作業的處理容量。

注意

請選擇正確的串流處理單位數目:串流分析會為每個新增的 1 SU V2 建立處理節點,因此節點數目最好是輸入分割區數目的除數,這樣分割區才能平均分配到各個節點。 例如,如果您已測量出 1 SU V2 作業能達成 4 MB/s 的處理速率,那麼您的輸入分割區計數便是 4。 您可以選擇使用 2 SU V2 來執行作業以達成約 8 MB/s 的處理速率,或使用 4 SU V2 來達成 16 MB/s 的處理速率。 接著,您可以決定何時要將作業的 SU 數目增加為什麼值,做為輸入速率的函式。

案例 2 - 如果您的查詢不是易於平行。

如果您的查詢不是易於平行,您可以遵循下列步驟。

  1. 先不使用 PARTITION BY 來撰寫查詢以避免分割過於複雜,接著再使用 1 SU V2 來執行查詢以便測量負載上限,如案例 1 所示。
  2. 如果您可以達到輸送量的預期負載,事情就大功告成。 您也可以選擇測量以 2/3 SU V2 和 1/3 SU V2 分數節點執行的相同工作,找出適合您案例的最少串流單元數目。
  3. 如果您無法達到需要的輸送量,而且查詢原本就不含多個步驟,請試著將查詢分為多個步驟 (如果可以的話),再為查詢中的每個步驟配置 1 SU V2。 例如,如果您有 3 個步驟,請在 [縮放] 選項中配置 3 SU V2。
  4. 在執行這類型的作業時,串流分析會將每個步驟置放於擁有專用 1 SU V2 資源的專屬節點上。
  5. 如果這樣仍然無法達到負載目標,您可以嘗試從靠近輸入步驟開始使用 PARTITION BY。 對於本質上無法分割的 GROUP BY 運算子,您可以使用本機/全域彙總模式來執行分割的 GROUP BY,後面再加上非分割的 GROUP BY。 例如,如果您想要計算每 3 分鐘通過每個收費亭的車輛數目,但是資料量超過 1 SU V2 的處理能力。

查詢:

WITH Step1 AS (
SELECT COUNT(*) AS Count, TollBoothId, PartitionId
FROM Input1 Partition By PartitionId
GROUP BY TumblingWindow(minute, 3), TollBoothId, PartitionId
)
SELECT SUM(Count) AS Count, TollBoothId
FROM Step1
GROUP BY TumblingWindow(minute, 3), TollBoothId

在上述查詢中,您會計算每個分割區中每個收費亭的車輛數目,然後將所有分割區的計數加總。

分割後,請為步驟的每個分割區配置 1 SU V2,使得每個分割區都能置放在自己的處理節點上。

注意

如果您的查詢無法分割,為多重步驟查詢新增額外的 SU 不見得能改善輸送量。 提升效能的其中一個方法,就是使用本機/全域彙總模式減少初始步驟的資料量,如前文步驟 5 所示。

案例 3 - 您要在一項作業中執行許多獨立的查詢。

對於某些 ISV 使用案例 (在一項作業中處理多重租用戶資料最符合成本效益的方法) 來說,若是讓每個租用戶使用個別的輸入和輸出,最終您可能只會在一項作業中執行很少數 (如 20 個) 的獨立查詢。 我們的假設是,這類型的子查詢每個負擔的負載相對較小。 此時,您可以遵循以下步驟。

  1. 在這種情況下,請勿在查詢中使用 PARTITION BY
  2. 如果您使用事件中樞,請盡可能將輸入分割區計數減少為最小值 2。
  3. 使用 1 SU V2 執行查詢。 搭配上每個子查詢的預期負載,請盡可能新增這類子查詢的數目,直到作業達到系統資源限制為止。 如需達到限制時的徵兆,請參閱案例 1
  4. 一旦達到前文測得的子查詢限制後,請開始將子查詢新增到新作業中。 假設您沒有任何負載扭曲,以獨立查詢數目之函式表示的執行作業數目應該會呈現線性的結果。 這樣一來,您就可以根據要提供服務之租用戶數目的函式來預測要執行多少個 1 SU V2 作業。
  5. 將參考資料聯結搭配這類查詢使用時,請先將輸入聯集在一起,再與相同的參考資料聯結。 然後,視需要分割事件。 否則,每個參考資料聯結都會將一份參考資料保存在記憶體中,導致記憶體使用量不必要地攀升。

注意

要在每個作業中放置多少個租用戶? 這個查詢模式通常擁有大量的子查詢,造成非常龐大而複雜的拓撲。 作業的控制器可能無法應付這麼龐大的拓撲。 根據經驗法則,1/3 SU V 作業的租用戶應保持低於 40 個,2/3 和 1 SU V2 作業的租用戶則應低於 60 個。 當您超過控制器的容量時,作業將無法順利啟動。

取得協助

如需進一步的協助,請嘗試 Azure 串流分析的 Microsoft 問與答頁面

下一步