Gambaran umum integrasi
Ada banyak konektor data, alat, dan integrasi yang bekerja dengan mulus dengan platform untuk penyerapan, orkestrasi, output, dan kueri data. Dokumen ini adalah gambaran umum tingkat tinggi tentang konektor, alat, dan integrasi yang tersedia. Informasi terperinci disediakan untuk setiap konektor, bersama dengan tautan ke dokumentasi lengkapnya.
Untuk halaman gambaran umum tentang jenis integrasi tertentu, pilih salah satu tombol berikut.
Tabel perbandingan
Tabel berikut ini meringkas kemampuan setiap item. Pilih tab yang sesuai dengan konektor atau alat dan integrasi. Setiap nama item ditautkan ke deskripsi terperincinya.
Tabel berikut ini meringkas konektor yang tersedia dan kemampuannya:
Nama | Menyerap | Ekspor | Orchestrate | Kueri |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark untuk Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure Functions | ✔️ | ✔️ | ||
Azure IoT Hubs | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Aliran Cribl | ✔️ | |||
Bit Fasih | ✔️ | |||
JDBC | ✔️ | |||
Aplikasi Logika | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Buka Telemetri | ✔️ | |||
Aplikasi Daya | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Deskripsi terperinci
Berikut ini adalah deskripsi terperinci tentang konektor dan alat dan integrasi. Pilih tab yang sesuai dengan konektor atau alat dan integrasi. Semua item yang tersedia dirangkum dalam tabel Perbandingan di atas.
Apache Kafka
Apache Kafka adalah platform streaming terdistribusi untuk membangun alur data streaming real-time yang dengan andal memindahkan data antara sistem atau aplikasi. Kafka Connect adalah alat untuk streaming data yang dapat diskalakan dan dapat diandalkan antara Apache Kafka dan sistem data lainnya. Kafka Sink berfungsi sebagai konektor dari Kafka dan tidak memerlukan penggunaan kode. Ini adalah emas yang disertifikasi oleh Confluent - telah melalui tinjauan dan pengujian komprehensif untuk kualitas, kelengkapan fitur, kepatuhan terhadap standar, dan untuk performa.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Log, Telemetri, Seri waktu
- SDK yang mendasar: Java
- Repositori: Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentasi: Menyerap data dari Apache Kafka
- Blog Komunitas: Penyerapan Kafka ke Azure Data Explorer
Apache Flink
Apache Flink adalah kerangka kerja dan mesin pemrosesan terdistribusi untuk komputasi stateful melalui aliran data yang tidak terbatas dan terikat. Konektor mengimplementasikan sink data untuk memindahkan data di seluruh kluster Azure Data Explorer dan Flink. Dengan menggunakan Azure Data Explorer dan Apache Flink, Anda dapat membangun aplikasi yang cepat dan dapat diskalakan yang menargetkan skenario berbasis data. Misalnya, pembelajaran mesin (ML), Extract-Transform-Load (ETL), dan Log Analytics.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Streaming
- Kasus penggunaan: Telemetri
- SDK yang mendasar: Java
- Repositori: Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Dokumentasi: Menyerap data dari Apache Flink
Apache Log4J 2
Log4J adalah kerangka kerja pengelogan populer untuk aplikasi Java yang dikelola oleh Apache Foundation. Log4j memungkinkan pengembang untuk mengontrol pernyataan log mana yang dihasilkan dengan granularitas sewenang-wenang berdasarkan nama pencatat, tingkat pencatat, dan pola pesan. Sink Apache Log4J 2 memungkinkan Anda mengalirkan data log ke database Anda, di mana Anda dapat menganalisis dan memvisualisasikan log Anda secara real time.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Log
- SDK yang mendasar: Java
- Repositori: Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Dokumentasi: Menyerap data dengan konektor Apache Log4J 2
- Blog Komunitas: Mulai menggunakan Apache Log4J dan Azure Data Explorer
Apache Spark
Apache Spark adalah mesin analitik terpadu untuk pemrosesan data skala besar. Konektor Spark adalah proyek sumber terbuka yang dapat berjalan pada kluster Spark apa pun. Ini mengimplementasikan sumber data dan sink data untuk memindahkan data ke atau dari kluster Spark. Dengan menggunakan konektor Apache Spark, Anda dapat membangun aplikasi yang cepat dan dapat diskalakan yang menargetkan skenario berbasis data. Misalnya, pembelajaran mesin (ML), Extract-Transform-Load (ETL), dan Log Analytics. Dengan konektor, database Anda menjadi penyimpanan data yang valid untuk operasi sumber dan sink Spark standar, seperti baca, tulis, dan tulisStream.
- Fungsionalitas: Penyerapan, Ekspor
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Telemetri
- SDK yang mendasar: Java
- Repositori: Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Dokumentasi: Konektor Apache Spark
- Blog Komunitas: Pra-pemrosesan data untuk Azure Data Explorer untuk Azure Data Explorer dengan Apache Spark
Apache Spark untuk Azure Synapse Analytics
Apache Spark adalah kerangka kerja pemrosesan paralel yang mendukung pemrosesan dalam memori untuk meningkatkan performa aplikasi analitik big data. Apache Spark di Azure Synapse Analytics adalah salah satu implementasi Microsoft dari Apache Spark di cloud. Anda dapat mengakses database dari Synapse Studio dengan Apache Spark untuk Azure Synapse Analytics.
- Fungsionalitas: Penyerapan, Ekspor
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Telemetri
- SDK yang mendasar: Java
- Dokumentasi: Menyambungkan ke ruang kerja Azure Synapse
Azure Cosmos DB
Koneksi data umpan perubahan Azure Cosmos DB adalah alur penyerapan yang mendengarkan umpan perubahan Cosmos DB Anda dan menyerap data ke dalam database Anda.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Ubah umpan
- Dokumentasi: Menyerap data dari Azure Cosmos DB (Pratinjau)
Azure Data Factory
Azure Data Factory (ADF) adalah layanan integrasi data berbasis cloud yang memungkinkan Anda mengintegrasikan penyimpanan data yang berbeda dan melakukan aktivitas pada data.
- Fungsionalitas: Penyerapan, Ekspor
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Orkestrasi data
- Dokumentasi: Menyalin data ke database Anda dengan menggunakan Azure Data Factory
Kisi Aktivitas Azure
Penyerapan Event Grid adalah alur yang mendengarkan penyimpanan Azure, dan memperbarui database Anda untuk menarik informasi saat peristiwa berlangganan terjadi. Anda dapat mengonfigurasi penyerapan berkelanjutan dari Azure Storage (penyimpanan Blob dan ADLSv2) dengan langganan Azure Event Grid untuk pemberitahuan yang dibuat atau blob diganti namanya dan streaming pemberitahuan melalui Azure Event Hubs.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Pemrosesan peristiwa
- Dokumentasi: Koneksi data Event Grid
Azure Event Hubs
Azure Event Hubs adalah platform streaming data besar dan layanan penyerapan peristiwa. Anda dapat mengonfigurasi penyerapan berkelanjutan dari Azure Event Hubs yang dikelola pelanggan.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Dokumentasi: Koneksi data Azure Event Hubs
Azure Functions
Azure Functions memungkinkan Anda menjalankan kode tanpa server di cloud sesuai jadwal atau menanggapi peristiwa. Dengan pengikatan input dan output untuk Azure Functions, Anda dapat mengintegrasikan database Anda ke dalam alur kerja Anda untuk menyerap data dan menjalankan kueri terhadap database Anda.
- Fungsionalitas: Penyerapan, Ekspor
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Integrasi alur kerja
- Dokumentasi: Mengintegrasikan Azure Functions menggunakan pengikatan input dan output (pratinjau)
- Blog Komunitas: Pengikatan Azure Data Explorer (Kusto) untuk Azure Functions
Azure IoT Hub
Azure IoT Hub adalah layanan terkelola, yang dihosting di cloud, yang bertindak sebagai hub pesan pusat untuk komunikasi dua arah antara aplikasi IoT Anda dan perangkat yang dikelolanya. Anda dapat mengonfigurasi penyerapan berkelanjutan dari IoT Hubs yang dikelola pelanggan, menggunakan Azure Event Hubs yang kompatibel dengan titik akhir pesan perangkat-ke-cloud yang dikelola pelanggan.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Data IoT
- Dokumentasi: Koneksi data IoT Hub
Azure Stream Analytics
Azure Stream Analytics adalah analitik real time dan mesin pemrosesan peristiwa kompleks yang dirancang untuk memproses data streaming cepat dalam volume tinggi dari berbagai sumber secara bersamaan.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Pemrosesan peristiwa
- Dokumentasi: Menyerap data dari Azure Stream Analytics
Aliran Cribl
Aliran cribl adalah mesin pemrosesan yang mengumpulkan, memproses, dan mengalirkan data peristiwa mesin dengan aman dari sumber apa pun. Ini memungkinkan Anda untuk mengurai dan memproses data tersebut untuk tujuan apa pun untuk analisis.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Pemrosesan data mesin termasuk log, metrik, data instrumentasi
- Dokumentasi: Menyerap data dari Cribl Stream ke Azure Data Explorer
Bit Fasih
Fluent Bit adalah agen sumber terbuka yang mengumpulkan log, metrik, dan jejak dari berbagai sumber. Ini memungkinkan Anda untuk memfilter, memodifikasi, dan mengagregasi data peristiwa sebelum mengirimkannya ke penyimpanan.
- Fungsionalitas: Penyerapan
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Log, Metrik, Jejak
- Repositori: Plugin Output Kusto fasih
- Dokumentasi: Menyerap data dengan Fluent Bit ke Azure Data Explorer
- Blog Komunitas: Mulai menggunakan Fluent bit dan Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) adalah Java API yang digunakan untuk menyambungkan ke database dan menjalankan kueri. Anda dapat menggunakan JDBC untuk menyambungkan ke Azure Data Explorer.
- Fungsionalitas: Kueri, visualisasi
- SDK yang mendasar: Java
- Dokumentasi: Menyambungkan ke Azure Data Explorer dengan JDBC
Logic Apps
Konektor Microsoft Logic Apps memungkinkan Anda menjalankan kueri dan perintah secara otomatis sebagai bagian dari tugas terjadwal atau terpicu.
- Fungsionalitas: Penyerapan, Ekspor
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Orkestrasi data
- Dokumentasi: Microsoft Logic Apps dan Azure Data Explorer
Logstash
Plugin Logstash memungkinkan Anda memproses peristiwa dari Logstash ke database Azure Data Explorer untuk analisis nanti.
- Fungsionalitas: Penyerapan
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Log
- SDK yang mendasar: Java
- Repositori: Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Dokumentasi: Menyerap data dari Logstash
- Blog Komunitas: Cara bermigrasi dari Elasticsearch ke Azure Data Explorer
Matlab
MATLAB adalah platform komputasi pemrograman dan numerik yang digunakan untuk menganalisis data, mengembangkan algoritma, dan membuat model. Anda bisa mendapatkan token otorisasi di MATLAB untuk mengkueri data Anda di Azure Data Explorer.
- Fungsionalitas: Kueri
- Dokumentasi: Mengkueri data menggunakan MATLAB
NLog
NLog adalah platform pengelogan fleksibel dan gratis untuk berbagai platform .NET, termasuk standar .NET. NLog memungkinkan Anda menulis ke beberapa target, seperti database, file, atau konsol. Dengan NLog, Anda dapat mengubah konfigurasi pengelogan secara on-the-fly. Sink NLog adalah target untuk NLog yang memungkinkan Anda mengirim pesan log ke database Anda. Plugin menyediakan cara yang efisien untuk men-sink log Anda ke kluster Anda.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Telemetri, Log, Metrik
- SDK yang mendasar: .NET
- Repositori: Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentasi: Menyerap data dengan sink NLog
- Blog Komunitas: Mulai menggunakan sink NLog dan Azure Data Explorer
ODBC
Open Database Connectivity (ODBC) adalah antarmuka pemrograman aplikasi (API) yang diterima secara luas untuk akses database. Azure Data Explorer kompatibel dengan subset protokol komunikasi SQL Server (MS-TDS). Kompatibilitas ini memungkinkan penggunaan driver ODBC untuk SQL Server dengan Azure Data Explorer.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Telemetri, Log, Metrik
- Dokumentasi: Menyambungkan ke Azure Data Explorer dengan ODBC
Buka Telemetri
Konektor OpenTelemetry mendukung penyerapan data dari banyak penerima ke dalam database Anda. Ini berfungsi sebagai jembatan untuk menyerap data yang dihasilkan oleh Telemetri Terbuka ke database Anda dengan menyesuaikan format data yang diekspor sesuai dengan kebutuhan Anda.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Jejak, Metrik, Log
- SDK Yang Mendasar: Go
- Repositori: Buka Telemetri - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentasi: Menyerap data dari OpenTelemetry
- Blog Komunitas: Mulai menggunakan Open Telemetry dan Azure Data Explorer
Power Apps
Power Apps adalah serangkaian aplikasi, layanan, konektor, dan platform data yang menyediakan lingkungan pengembangan aplikasi yang cepat untuk membangun aplikasi kustom yang terhubung ke data bisnis Anda. Konektor Power Apps berguna jika Anda memiliki pengumpulan data streaming yang besar dan berkembang di Azure Data Explorer dan ingin membangun aplikasi kode rendah dan sangat fungsional untuk menggunakan data ini.
- Fungsionalitas: Kueri, Penyerapan, Ekspor
- Jenis penyerapan didukung: Batching
- Dokumentasi: Menggunakan Power Apps untuk mengkueri data di Azure Data Explorer
Power Automate
Power Automate adalah layanan orkestrasi yang digunakan untuk mengotomatiskan proses bisnis. Power Automate Konektor (sebelumnya Microsoft Flow) memungkinkan Anda mengatur dan menjadwalkan alur, mengirim pemberitahuan, dan pemberitahuan, sebagai bagian dari tugas terjadwal atau dipicu.
- Fungsionalitas: Penyerapan, Ekspor
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Orkestrasi data
- Dokumentasi: Konektor Microsoft Power Automate
Serilog
Serilog adalah kerangka kerja pengelogan populer untuk aplikasi .NET. Serilog memungkinkan pengembang untuk mengontrol pernyataan log mana yang dihasilkan dengan granularitas sewenang-wenang berdasarkan nama pencatat, tingkat pencatat, dan pola pesan. Sink Serilog, juga dikenal sebagai appender, mengalirkan data log Anda ke database Anda, di mana Anda dapat menganalisis dan memvisualisasikan log Anda secara real time.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Log
- SDK yang mendasar: .NET
- Repositori: Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentasi: Menyerap data dengan sink Serilog
- Blog Komunitas: Mulai menggunakan sink Serilog dan Azure Data Explorer
Splunk
Splunk Enterprise adalah platform perangkat lunak yang memungkinkan Anda menyerap data dari banyak sumber secara bersamaan. Add-on Azure Data Explorer mengirim data dari Splunk ke tabel di kluster Anda.
- Fungsionalitas: Penyerapan
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Log
- SDK yang mendasar: Python
- Repositori: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentasi: Menyerap data dari Splunk
- Splunk Base: Add-On Microsoft Azure Data Explorer untuk Splunk
- Blog Komunitas: Mulai menggunakan Add-On Microsoft Azure Data Explorer untuk Splunk
Splunk Universal Forwarder
- Fungsionalitas: Penyerapan
- Jenis penyerapan didukung: Batching
- Kasus penggunaan: Log
- Repositori: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Dokumentasi: Menyerap data dari Splunk Universal Forwarder ke Azure Data Explorer
- Blog Komunitas: Menyerap data menggunakan penerus Splunk Universal ke Azure Data Explorer
Telegraf
Telegraf adalah agen cetak kaki memori sumber terbuka, ringan, minimal untuk mengumpulkan, memproses, dan menulis data telemetri termasuk log, metrik, dan data IoT. Telegraf mendukung ratusan plugin input dan output. Ini banyak digunakan dan didukung dengan baik oleh komunitas sumber terbuka. Plugin output berfungsi sebagai konektor dari Telegraf dan mendukung penyerapan data dari banyak jenis plugin input ke dalam database Anda.
- Fungsionalitas: Penyerapan
- Jenis penyerapan yang didukung: Batching, Streaming
- Kasus penggunaan: Telemetri, Log, Metrik
- SDK Yang Mendasar: Go
- Repositori: InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentasi: Menyerap data dari Telegraf
- Blog Komunitas: Plugin output Azure Data Explorer baru untuk Telegraf memungkinkan pemantauan SQL dalam skala besar