數據流考慮和限制
撰寫、重新整理和容量管理之間有幾個數據流限制,用戶應該牢記在心,如下列各節所述。
一般限制
- 數據流可能無法供所有美國政府 DoD 客戶使用。 您可以在適用於政府環境的 Power BI 功能可用性一文中找到功能同位。
- 已刪除的數據源不會從數據流數據源頁面移除,這是良性行為,而且不會影響數據流的重新整理或編輯。 在 歷程檢視中,已刪除的數據源會顯示為數據流的譜系。
- 已刪除的數據來源仍會出現在閘道下拉式清單中的 [設定] 頁面中。
- 深度 等同於連結至其他數據流的數據流。 目前的最大深度為 32。
- 廣 度等同於數據流內的實體。
- 數據流中沒有最佳實體數目的指引或限制,不過,共用數據流的重新整理限制為每實體 2 小時,而每個數據流有 3 個。 因此,如果您有兩個實體,而且每個實體需要兩個小時,就不應該將它們放在相同的數據流中。
- 針對 Power BI 進階版,指引和限制是以個別使用案例為基礎,而不是特定需求。 Power BI 進階版 的唯一限制是每個數據流 24 小時的重新整理。
- 需要 Power BI 進階版 訂用帳戶,才能重新整理 10 多個跨工作區的數據流。
- PowerQuery 限制位於 Power Query Online 限制 一文中。
- Power BI 數據流不支援在 URL 自變數中使用全域變數。
- 除非將記憶體設定為使用您自己的 Azure Data Lake Gen2 儲存器帳戶,否則目前不支援多地理位置。
- 使用閘道可達成 Vnet 支援。
- 當您搭配閘道數據源使用 計算實體 時,數據擷取應該在與計算不同的數據源中執行。 計算實體應該以只用於擷取的實體為基礎,而不是在自己的混搭步驟中內嵌數據。
- 在 Power BI 數據流中,您可以使用參數,但除非您編輯整個數據流,否則無法編輯它們。 在這方面,數據流中的參數的行為類似於宣告的常數。
- 針對 進階版 工作區中的數據流和數據超市,不支援針對重新整理案例進行疑難解答中的某些連接器。
- 搭配數據流使用 DirectQuery 時,使用交叉分析篩選器視覺效果進行搜尋會區分大小寫。
數據流撰寫
當您撰寫數據流時,請注意下列考慮:
數據流中的撰寫是在 Power Query Online (PQO) 環境中完成;請參閱 Power Query 限制中所述 的限制。 由於數據流撰寫是在 Power Query Online (PQO) 環境中完成的,因此數據流工作負載設定上執行的更新只會影響重新整理,而且不會影響撰寫體驗。
數據流只能由其擁有者修改。
[我的工作區] 中無法使用數據流。
使用閘道數據源的數據流不支援相同數據源的多個認證。
使用 Web.Page 連接器需要閘道。
API 考慮
如需有關支持的數據流 REST API 的詳細資訊,請參閱 REST API 參考。 以下考量事項請牢記在心:
匯出和匯入數據流會提供數據流的新標識碼。
匯入包含鏈接數據表的數據流不會更新數據流內的現有參考(匯入數據流之前,應該手動更新這些查詢)。
當您部署數據流時,您可以使用衝突處理程式 GenerateUniqueName 和 Abort 參數,在作業已經存在時中止作業,或指示 API 改為自動建立唯一的名稱。 如果數據流最初是使用匯入 API 建立的,則可以使用 CreateOrOverwrite 參數覆寫數據流。
共用容量中的數據流
共用容量中的數據流有一個限制(非 進階版 容量):
- 重新整理數據流時,共用容量中的逾時是每個數據表 2 小時,而每個數據流 3 小時。
- 鏈接資料表無法在共享數據流中建立,只要查詢上的 [載入已啟用] 屬性停用,就可以存在於數據流中。
- 無法在共享數據流中建立計算數據表。
- 共用數據流中無法使用 AutoML 和認知服務。
- 累加式重新整理無法在共享數據流中運作。
進階版 中的數據流
存在於 進階版 中的數據流具有下列考慮和限制。
重新整理和資料考慮:
重新整理數據流時,逾時為24小時(數據表和/或數據流沒有區別)。
將數據流從累加式重新整理原則變更為一般重新整理,反之亦然,會卸除所有數據。
修改數據流的架構會卸除所有數據。
搭配數據流使用 進階版 Per User (PPU) 授權時,將資料移出 PPU 環境時會清除數據。
在 進階版 每個使用者 (PPU) 內容中重新整理數據流時,非 PPU 使用者看不到數據。
累加式重新整理僅適用於啟用增強型計算引擎時的數據流。
連結與計算資料表:
鏈接的數據表可以向下移至32個參考的深度。
不允許連結數據表的迴圈相依性。
鏈接數據表無法與從內部部署數據源取得其數據的一般數據表聯結。
當查詢 (例如,查詢 A) 用於數據流中另一個查詢 (query B) 的計算時,查詢 B 會變成匯出數據表。 匯出數據表無法參考內部部署來源。
計算引擎:
使用計算引擎時,數據擷取的初始時間大約會增加 10% 到 20%。
- 這隻會套用至計算引擎上的第一個數據流,並從數據源讀取數據。
- 使用來源數據流的後續數據流不會產生相同的懲罰。
只有某些作業會使用計算引擎,而且只有在透過連結資料表或做為計算數據表使用時才使用。 此部落格文章提供完整的作業清單。
容量管理:
根據設計,進階版 Power BI 容量具有內部 Resource Manager,可在容量在記憶體不足時以不同方式節流工作負載。
- 針對數據流,此節流壓力可減少可用的 M 容器數目。
- 數據流的記憶體可以設定為100%,且數據大小適當,工作負載將會適當地管理容器數目。
您可以藉由將配置給工作負載的總記憶體除以配置給容器的記憶體數量,以找出大約的容器數目。
語意模型中的數據流使用方式
- 在 Power BI Desktop 中建立語意模型,然後將它發佈至 Power BI 服務 時,請確定數據流數據源的 Power BI Desktop 中使用的認證與將語意模型發佈至服務時所使用的認證相同。
- 無法確保這些認證相同,會導致 在語意模型重新整理時找不到 密鑰錯誤
注意
如果數據流結構已變更,例如新的或重新命名的數據行,語意模型將不會顯示變更,而且變更也可能導致數據重新整理在語意模型的 Power BI 服務 失敗,直到Power BI Desktop 中重新整理並重新發佈為止。
數據流和具名連線
搭配 具名聯機使用數據流時,適用下列限制:
- 您只能建立特定路徑和類型的一個雲端連線,例如,您只能建立一個 SQL 加上伺服器/資料庫雲端連線。 您可以建立多個網關聯機。
- 您無法命名或重新命名雲端數據源;您可以命名或重新命名網關聯機。
ADLS 限制
- GCC、GCC High 或 DOD 環境中無法使用 ADLS。 如需詳細資訊,請參閱 適用於美國政府客戶的Power BI。
- 由於 ADLS Gen 2 API 中的變更,您必須指派為資源的擁有者。
- 不支援 Azure 訂用帳戶移轉,但有兩個替代做法:
- 第一種方法:在移轉之後,使用者可以卸離工作區並重新連結工作區。 如果使用租用戶層級帳戶,您必須卸離所有工作區,然後在租用戶層級中斷連結,然後重新連結。 對於不想刪除其所有數據流或擁有許多工作區的客戶來說,這並不理想。
- 第二種方法:如果上述方法不可行,請提交支援要求來變更資料庫中的訂用帳戶標識碼。
- ADLS 不支援工作區命名和數據流命名一文中 [目錄和檔名 ] 區段中的大部分元素,因為下列限制:
- Power BI 會傳回無幫助的錯誤,或允許程序發生,但重新整理將會失敗。
- 不支援跨租使用者ADLS訂用帳戶。 連結至 Power BI 的 ADLS 必須是 Power BI 用於 Microsoft Entra 識別符的相同 Azure 租使用者的一部分。
數據流數據類型
資料流中支援的數據類型如下:
Mashup 數據類型 | 數據流數據類型 |
---|---|
Time | Time |
Date | Date |
Datetime | Datetime |
DateTimeZone | DateTimeOffset |
邏輯 | 布林值 |
Text | String |
任意 | String |
貨幣 | Decimal |
Int8 | Int64 |
Int16 | Int64 |
Int32 | Int64 |
Int64 | Int64 |
Double | Double |
百分比 | Double |
Single | Double |
Decimal | 雙重 |
數字 | Double |
期間 | 不支援 |
二進位 | 不支援 |
函式 | 不支援 |
Table | 不支援 |
清單 | 不支援 |
錄製 | 不支援 |
類型 | 不支援 |
動作 | 不支援 |
無 | 不支援 |
Null | 不支援 |
相關內容
下列文章提供數據流和 Power BI 的詳細資訊:
意見反應
https://aka.ms/ContentUserFeedback。
即將登場:在 2024 年,我們將逐步淘汰 GitHub 問題作為內容的意見反應機制,並將它取代為新的意見反應系統。 如需詳細資訊,請參閱:提交並檢視相關的意見反應