在事件數據流中新增和管理事件來源
建立事件串流之後,您可以將它連線到各種數據源和目的地。
注意
如果您想要使用處於預覽狀態的增強功能,請選取 頂端的 [增強功能 ]。 否則,請選取 [ 標準功能]。 如需預覽中增強功能的相關信息,請參閱 Fabric 事件串流簡介。
建立事件串流之後,您可以將它連線到各種數據源和目的地。
Eventstream 不僅可讓您串流來自 Microsoft 來源的數據,也支援使用新的傳訊連接器從 Google Cloud 和 Amazon Kinesis 等第三方平臺擷取數據。 這項擴充功能可讓您順暢地將外部數據流整合到 Fabric 中,提供更大的彈性,並讓您從多個來源取得即時見解。
在本文中,您將瞭解可新增至具有預覽功能增強的事件數據流的事件來源。
重要
Fabric 事件數據流的增強功能目前為預覽狀態。
必要條件
- 具有參與者或更高許可權之工作區的網狀架構進階工作區存取權。
- 下列來源特定文章中記載之每個來源的特定必要條件。
支援的來源
具有增強功能的網狀架構事件數據流支援下列來源。 每篇文章都提供新增特定來源的詳細數據和指示。
來源 | 描述 |
---|---|
Azure 事件中樞 | 如果您有 Azure 事件中樞,您可以使用 Eventstream 將事件中樞數據內嵌至 Microsoft Fabric。 |
Azure IoT 中樞 | 如果您有 Azure IoT 中樞,您可以使用 Eventstream 將 IoT 數據內嵌至 Microsoft Fabric。 |
Azure SQL 資料庫 異動數據擷取 (CDC) | Azure SQL 資料庫 CDC 來源連接器可讓您擷取 Azure SQL 資料庫中目前數據的快照集。 接著,連接器會監視並記錄此數據的任何未來數據列層級變更。 |
Postgre SQL 資料庫 CDC | Postgre SQL 資料庫 異動數據擷取 (CDC) 來源連接器可讓您擷取 PostgreSQL 資料庫中目前數據的快照集。 接著,連接器會監視並記錄此數據的任何未來數據列層級變更。 |
我的 SQL 資料庫 CDC | Azure My SQL 資料庫 異動數據擷取 (CDC) 來源連接器可讓您擷取 適用於 MySQL 的 Azure 資料庫 資料庫中目前數據的快照集。 您可以指定要監視的數據表,而 eventstream 會記錄數據表的任何未來數據列層級變更。 |
Azure Cosmos DB CDC | 適用於 Microsoft Fabric 事件數據流的 Azure Cosmos DB 異動數據擷取 (CDC) 來源連接器可讓您擷取 Azure Cosmos DB 資料庫中目前數據的快照集。 接著,連接器會監視並記錄此數據的任何未來數據列層級變更。 |
Google Cloud Pub/Sub | Google Pub/Sub 是一項傳訊服務,可讓您發佈和訂閱事件的串流。 您可以將Google Pub/Sub新增為事件串流的來源,以擷取、轉換和路由即時事件至 Fabric 中的各種目的地。 |
Amazon Kinesis 數據流 | Amazon Kinesis 數據流是可大幅調整、高度持久性的數據擷取,以及針對串流數據優化的處理服務。 藉由將 Amazon Kinesis 數據流整合為事件數據流內的來源,您就可以順暢地處理即時數據流,再將它們路由傳送至 Fabric 內的多個目的地。 |
Confluent Cloud Kafka | Confluent Cloud Kafka 是一個串流平臺,使用 Apache Kafka 提供功能強大的數據流和處理功能。 藉由將 Confluent Cloud Kafka 整合為事件串流中的來源,您就可以順暢地處理實時數據流,再將它們路由至 Fabric 內的多個目的地。 |
Azure Blob 儲存體 事件 | 當用戶端建立、取代或刪除 Blob 時,就會觸發 Azure Blob 儲存體 事件。 連接器可讓您將 Blob 儲存體 事件連結至即時中樞中的 Fabric 事件。 您可以將這些事件轉換成連續數據流,並在將事件路由至 Fabric 中的各種目的地之前加以轉換。 |
Fabric 工作區專案事件 | Fabric 工作區專案事件是對網狀架構工作區進行變更時發生的離散網狀架構事件。 這些變更包括建立、更新或刪除 Fabric 專案。 使用 Fabric 事件串流,您可以擷取這些 Fabric 工作區事件、轉換它們,並將其路由傳送至 Fabric 中的各種目的地,以進行進一步分析。 |
範例資料 | 您可以選擇 [自行車]、[黃色計程車] 或 [股票市場] 事件作為範例數據源,以在設定事件串流時測試數據擷取。 |
自訂端點 (先前的自訂應用程式) | 自定義端點功能可讓應用程式或 Kafka 用戶端使用 連接字串 連線到 Eventstream,讓串流數據順利擷取至 Eventstream。 |
注意
一個事件數據流的來源和目的地數目上限為 11。
相關內容
必要條件
開始之前,您必須完成下列必要條件:
- 取得具有事件串流所在之參與者或更高許可權的進階工作區的存取權。
- 若要將 Azure 事件中樞 或 Azure IoT 中樞 新增為事件串流來源,您必須具有存取其原則金鑰的適當許可權。 它們必須可公開存取,且不得位於防火牆後方或虛擬網路中受到保護。
支援的來源
Fabric 事件數據流支援下列來源。 使用數據表中的連結來巡覽至文章,以提供有關新增特定來源的詳細數據。
來源 | 描述 |
---|---|
Azure 事件中樞 | 如果您有 Azure 事件中樞,您可以使用 Eventstream 將事件中樞數據內嵌至 Microsoft Fabric。 |
Azure IoT 中樞 | 如果您有 Azure IoT 中樞,您可以使用 Eventstream 將 IoT 數據內嵌至 Microsoft Fabric。 |
範例資料 | 您可以選擇 [自行車]、[黃色計程車] 或 [股票市場] 事件作為範例數據源,以在設定事件串流時測試數據擷取。 |
自訂應用程式 | 自定義應用程式功能可讓應用程式或 Kafka 用戶端使用 連接字串 連線到 Eventstream,讓串流數據順利擷取至 Eventstream。 |
注意
一個事件數據流的來源和目的地數目上限為 11。
管理來源
編輯/移除:您可以選取事件數據流來源,以透過瀏覽窗格或畫布編輯或移除。 當您選取 [ 編輯] 時,編輯窗格會在主編輯器的右側開啟。
重新產生自定義應用程式的金鑰:如果您想要重新產生應用程式的新連線密鑰,請在畫布上選取其中一個自定義應用程式來源,然後選取 [ 重新 產生] 以取得新的連線金鑰。
相關內容
意見反應
https://aka.ms/ContentUserFeedback。
即將登場:在 2024 年,我們將逐步淘汰 GitHub 問題作為內容的意見反應機制,並將它取代為新的意見反應系統。 如需詳細資訊,請參閱:提交並檢視相關的意見反應