Share via


整合概觀

有許多數據連接器、工具和整合可與平台順暢地搭配使用,以便擷取、協調流程、輸出和數據查詢。 本檔是關於可用連接器、工具和整合的高階概觀。 每個連接器都會提供詳細資訊,以及其完整文件的連結。

如需特定整合類型的概觀頁面,請選取下列其中一個按鈕。

比較數據表

下表摘要說明每個專案的功能。 選取對應至連接器或工具和整合的索引標籤。 每個專案名稱都會連結到其 詳細描述

下表摘要說明可用的連接器及其功能:

名稱 擷取 匯出 協調 查詢
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
適用於 Azure Synapse Analytics 的 Apache Spark ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure 事件方格 ✔️
Azure 事件中樞 ✔️
Azure Functions ✔️ ✔️
Azure IoT 中樞 ✔️
Azure 串流分析 ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Open Telemetry ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk 通用轉寄站 ✔️
Telegraf ✔️

詳細描述

以下是連接器和工具和整合的詳細描述。 選取對應至連接器或工具和整合的索引標籤。 上述 比較數據表 會摘要說明所有可用的專案。

Apache Kafka

Apache Kafka 是分散式串流平臺,可用來建置即時串流數據管線,以可靠地在系統或應用程式之間移動數據。 Kafka Connect 是一種工具,可用來調整且可靠的 Apache Kafka 與其他數據系統之間的數據串流。 Kafka 接收可作為 Kafka 的連接器,而且不需要使用程式代碼。 這是 Confluent 認證的金級認證 - 已全面檢閱和測試品質、功能完整性、符合標準,以及效能。

Apache Flink 是一種架構和分散式處理引擎,可用於透過未系結和系結的數據流進行具狀態計算。 連接器會實作數據接收,以跨 Azure Data Explorer 和 Flink 叢集行動數據。 使用 Azure Data Explorer 和 Apache Flink,您可以建置以資料驅動案例為目標的快速且可調整的應用程式。 例如,機器學習 (ML) 、擷取-轉換-載入 (ETL) 和 Log Analytics。

Apache Log4J 2

Log4J 是 Apache Foundation 所維護 Java 應用程式的常用記錄架構。 Log4j 可讓開發人員根據記錄器的名稱、記錄器層級和訊息模式,以任意數據粒度來控制哪些記錄語句是輸出的。 Apache Log4J 2 接收可讓您將記錄數據串流至資料庫,您可以在其中即時分析和可視化記錄。

Apache Spark

Apache Spark 是用於進行大規模資料處理的整合分析引擎。 Spark 連接器是可在任何 Spark 叢集上執行的 開放原始碼 專案。 它會實作數據源和數據接收,以便將數據移入或移出Spark叢集。 使用 Apache Spark 連接器,您可以建置以數據驅動案例為目標的快速且可調整的應用程式。 例如,機器學習 (ML) 、擷取-轉換-載入 (ETL) 和 Log Analytics。 使用連接器時,您的資料庫會成為標準 Spark 來源和接收作業的有效數據存放區,例如讀取、寫入和 writeStream。

適用於 Azure Synapse Analytics 的 Apache Spark

Apache Spark 是支援記憶體內部處理的平行處理架構,可提升巨量數據分析應用程式的效能。 Azure Synapse Analytics 中的 Apache Spark 是 Microsoft 在雲端中 Apache Spark 的其中一個實作。 您可以使用適用於 Azure Synapse Analytics 的 Apache Spark,從 Synapse Studio 存取資料庫。

Azure Cosmos DB

Azure Cosmos DB 變更摘要數據連線是一個擷取管線,可接聽您的 Cosmos DB 變更摘要,並將數據內嵌至您的資料庫。

Azure Data Factory

Azure Data Factory (ADF) 是雲端式數據整合服務,可讓您整合不同的數據存放區,並在數據上執行活動。

Azure 事件方格

事件方格擷取是接聽 Azure 記憶體的管線,並在訂閱的事件發生時更新您的資料庫以提取資訊。 您可以從 Azure 記憶體 (Blob 記憶體和 ADLSv2) 設定連續擷取,並針對 Blob 建立或 Blob 重新命名的通知設定 Azure 事件方格 訂用帳戶,並透過 Azure 事件中樞 串流通知。

  • 功能: 攝入
  • 支援的擷取類型: 批處理、串流
  • 使用案例: 事件處理
  • 檔:事件方格數據連線

Azure 事件中樞

Azure 事件中樞是巨量資料串流平台和事件擷取服務。 您可以從客戶管理的事件中樞設定連續擷取。

Azure Functions

Azure Functions 可讓您依排程或在回應事件時在雲端中執行無伺服器程序代碼。 透過 Azure Functions 的輸入和輸出系結,您可以將資料庫整合到工作流程中,以擷取數據並針對您的資料庫執行查詢。

Azure IoT 中樞

Azure IoT 中樞 是裝載於雲端的受控服務,可作為IoT應用程式與其管理裝置之間雙向通訊的中央訊息中樞。 您可以使用與 裝置到雲端訊息內建端點相容的事件中樞,從客戶管理的IoT中樞設定持續擷取。

  • 功能: 攝入
  • 支援的擷取類型: 批處理、串流
  • 使用案例: IoT 數據
  • 檔:IoT 中樞 數據連線

Azure 串流分析

Azure 串流分析 是即時分析和複雜的事件處理引擎,其設計目的是同時處理來自多個來源的大量快速串流數據。

Fluent Bit

Fluent Bit 是開放原始碼代理程式,可從各種來源收集記錄、計量和追蹤。 它可讓您先篩選、修改和匯總事件數據,再將其傳送至記憶體。

JDBC

JAVA Database Connectivity (JDBC) 是用來連線到資料庫和執行查詢的 JAVA API。 您可以使用 JDBC 連線到 Azure Data Explorer。

Logic Apps

Microsoft Logic Apps 連接器可讓您在排程或觸發的工作中自動執行查詢和命令。

Logstash

Logstash 外掛程式可讓您處理從 Logstash 到 Azure Data Explorer 資料庫的事件,以供稍後分析。

Matlab

MATLAB 是一種程式設計和數值運算平臺,可用來分析數據、開發演算法及建立模型。 您可以在 MATLAB 中取得授權令牌,以查詢 Azure Data Explorer 中的數據。

NLog

NLog 是各種 .NET 平台的彈性且免費的記錄平臺,包括 .NET 標準。 NLog 可讓您寫入數個目標,例如資料庫、檔案或控制台。 使用 NLog,您可以即時變更記錄設定。 NLog 接收是 NLog 的目標,可讓您將記錄訊息傳送至資料庫。 外掛程式提供有效率的方式將記錄接收至叢集。

ODBC

開放式資料庫連線 (ODBC) 是廣泛接受的應用程式程式設計介面, (API) 進行數據庫存取。 Azure Data Explorer 與 #D1F4F3B338351425C93B0DE7FA43C33E2 通訊協定子集相容, (MS-TDS) 。 此相容性可讓您使用 ODBC 驅動程式搭配 Azure Data Explorer SQL Server。

Open Telemetry

OpenTelemetry 連接器 支援將數據從許多接收者擷取到您的資料庫。 其運作方式是透過根據您的需求自定義導出數據的格式,將Open遙測產生的數據內嵌至您的資料庫。

Power Apps

Power Apps 是一套應用程式、服務、連接器和數據平臺,可提供快速的應用程式開發環境,以建置連線到您商務數據的自定義應用程式。 如果您的 Azure Data Explorer 中有大量且不斷成長的串流數據集合,而且想要建置低程式代碼、功能高度功能的應用程式,以利用此數據,Power Apps 連接器會很有用。

Power Automate

Power Automate 是用來自動化商務程序的協調流程服務。 Power Automate 先前 (Microsoft Flow) 連接器可讓您協調流程、傳送通知和警示,作為排程或觸發工作的一部分。

Serilog

Serilog 是適用於 .NET 應用程式的常用記錄架構。 Serilog 可讓開發人員根據記錄器的名稱、記錄器層級和訊息模式,以任意數據粒度來控制哪些記錄語句是輸出的。 Serilog 接收也稱為附加器,會將記錄數據串流至資料庫,您可以在其中即時分析和可視化記錄。

Splunk

Splunk Enterprise 是一個軟體平臺,可讓您同時擷取來自許多來源的數據。Azure Data Explorer 附加元件會將數據從 Splunk 傳送到叢集中的數據表。

Splunk 通用轉寄站

Telegraf

Telegraf 是 開放原始碼、輕量、最小記憶體腳印代理程式,用於收集、處理和寫入遙測數據,包括記錄、計量和IoT數據。 Telegraf 支援數百個輸入和輸出外掛程式。 它受到 開放原始碼 社群廣泛使用且妥善支援。 輸出外掛程式可作為 Telegraf 的連接器,並支援將數據從許多類型的輸入外掛程式擷取到您的資料庫。