本文提供文章的連結,說明如何整合 Apache Kafka 應用程式與 Azure 事件中樞。
事件中樞會提供 Kafka 端點,讓現有的 Kafka 應用程式可用來作為執行您自己 Kafka 叢集的替代方案。 事件中樞適用於許多現有的 Kafka 應用程式。 如需詳細資訊,請參閱適用於 Apache Kafka 的事件中樞
您可以在 GitHub 和此內容集找到快速入門,以協助您加速運用適用於 Kafka 的事件中樞。
請參閱 azure-event-hubs-for-kafka 存放庫中的下列快速入門:
請參閱快速入門:此內容集的使用 Kafka 通訊協定對事件中樞串流資料,其中提供如何串流至事件中樞的逐步指示。 您將了解如何僅在應用程式中變更設定,就能讓產生者和取用者與事件中樞交談。
請參閱 GitHub 提供的下列教學課程:
教學課程 |
描述 |
Akka |
本教學課程說明如何將 Akka Streams 連線至已啟用 Kafka 的事件中樞,而不需要變更通訊協定用戶端或執行您自己的叢集。 有兩個不同的教學課程,分別使用 JAVA 和 Scala 程式設計語言。 |
[連接] |
本檔會逐步引導您整合 Kafka Connect 與 Azure 事件中樞,以及部署基本的 FileStreamSource 和 FileStreamSink 連接器。 雖然這些連接器並非用於生產環境,但它們示範端對端 Kafka Connect 案例,其中 Azure 事件中樞 偽裝成 Kafka 訊息代理程式。 |
Filebeat |
本檔會逐步引導您透過 Filebeat 的 Kafka 輸出整合 Filebeat 和事件中樞。 |
Flink |
本教學課程示範如何將 Apache Flink 連線至已啟用 Kafka 的事件中樞,而不需變更通訊協定用戶端或執行您自己的叢集。 |
FluentD |
本檔會逐步引導您使用 Fluentd 的 out_kafka 輸出外掛程式整合 Fluentd 和事件中樞。 |
Interop |
本教學課程說明如何使用不同的通訊協定,在取用者和產生者之間交換事件。 |
Logstash |
本教學課程會逐步引導您使用Logstash Kafka 輸入/輸出外掛程式整合Logstash與已啟用Kafka的事件中樞。 |
MirrorMaker |
本教學課程說明事件中樞和 Kafka MirrorMaker 如何在事件中樞服務中鏡像 Kafka 輸入資料流,將現有的 Kafka 管線整合到 Azure 中。 |
NiFi |
本教學課程示範如何將 Apache NiFi 連線到事件中樞命名空間。 |
OAuth |
快速入門使用以 Go 和 JAVA 程式設計語言撰寫的範例產生者和取用者,說明如何建立和連線至事件中樞 Kafka 端點。 |
Confluent 的結構描述登錄 |
本教學課程將逐步引導您整合適用於 Kafka 的架構登錄和事件中樞。 |
Spark |
本教學課程示範如何將 Spark 應用程式連線到事件中樞,而不需變更通訊協定用戶端或執行您自己的 Kafka 叢集。 |
另請參閱教學課程:此內容集的使用串流分析處理適用於事件中樞的 Apache Kafka 事件,其中說明如何將資料串流至事件中樞,並透過 Azure 串流分析來處理。
請參閱文件中的下列操作指南:
檢閱 GitHub 存放庫 azure-event-hubs-for-kafka 的 quickstart 和 tutorials 資料夾下的範例。
另請參閱下列文章: