Adatösszekötők áttekintése
Az adatbetöltés az a folyamat, amely egy vagy több forrásból származó adatokat tölt be egy Valós idejű intelligencia KQL-adatbázisba a Microsoft Fabricben. A betöltést követően az adatok elérhetővé válnak a lekérdezéshez. A valós idejű intelligencia számos összekötőt biztosít az adatbetöltéshez.
Az alábbi táblázat az elérhető adatösszekötőket, eszközöket és integrációkat foglalja össze.
Név | Funkciók | Támogatja a streamelést? | Típus | Használati esetek |
---|---|---|---|---|
Apache Flink | Lenyelés | ✔️ | Nyílt forráskód | Telemetria |
Apache Kafka | Lenyelés | ✔️ | Nyílt forráskód | Naplók, telemetriai adatok, idősorok |
Apache Log4J 2 | Lenyelés | ✔️ | Nyílt forráskód | Naplók |
Apache Spark | Exportálásálás Lenyelés |
Nyílt forráskód | Telemetria | |
Apache Spark az Azure Synapse Analyticshez | Exportálásálás Lenyelés |
Első fél | Telemetria | |
Azure Data Factory | Exportálásálás Lenyelés |
Első fél | Adatkoordinálás | |
Azure-eseményközpontok | Lenyelés | ✔️ | Első fél | Üzenetkezelés |
Azure Functions | Exportálásálás Lenyelés |
Első fél | Munkafolyamat-integrációk | |
Azure Stream Analytics | Lenyelés | ✔️ | Első fél | Eseményfeldolgozás |
Cribl Stream | Lenyelés | ✔️ | Első fél | Telemetriai adatok, naplók, metrikák, gépadatok |
Fluent Bit | Lenyelés | ✔️ | Nyílt forráskód | Naplók, metrikák, nyomkövetések |
Logstash | Lenyelés | Nyílt forráskód | Naplók | |
NLog | Lenyelés | ✔️ | Nyílt forráskód | Telemetriai adatok, naplók, metrikák |
Telemetria megnyitása | Lenyelés | ✔️ | Nyílt forráskód | Nyomkövetések, metrikák, naplók |
Power Automate | Exportálásálás Lenyelés |
Első fél | Adatkoordinálás | |
Szerilog | Lenyelés | ✔️ | Nyílt forráskód | Naplók |
Splunk | Lenyelés | Nyílt forráskód | Naplók | |
Splunk univerzális továbbító | Lenyelés | Nyílt forráskód | Naplók | |
Telegraf | Lenyelés | ✔️ | Nyílt forráskód | Metrikák, naplók |
Az alábbi táblázat az elérhető összekötőket és azok képességeit foglalja össze:
Apache Flink
Az Apache Flink egy keretrendszer és elosztott feldolgozási motor az állapotalapú számításokhoz kötetlen és határolt adatfolyamokon. Az összekötő adatgyűjtőt implementál az adatok Azure Data Explorer- és Flink-fürtök közötti áthelyezéséhez. Az Azure Data Explorer és az Apache Flink használatával gyors és méretezhető alkalmazásokat hozhat létre, amelyek adatvezérelt forgatókönyveket céloznak meg. Például gépi tanulás (ML), Extract-Transform-Load (ETL) és Log Analytics.
- Funkció: Betöltés
- Támogatott betöltési típus: Streamelés
- Használati esetek: Telemetria
- Mögöttes SDK: Java
- Adattár: Microsoft Azure – https://github.com/Azure/flink-connector-kusto/
- Dokumentáció: Adatok lekérése az Apache Flinkből
Apache Kafka
Az Apache Kafka egy elosztott streamelési platform valós idejű streamelési adatfolyamok létrehozásához, amelyek megbízhatóan mozgatják az adatokat a rendszerek vagy alkalmazások között. A Kafka Connect az Apache Kafka és más adatrendszerek közötti skálázható és megbízható adatstreamelés eszköze. A Kafka Sink a Kafka összekötője, és nem igényel kód használatát. Az összekötő a Confluent arany minősítésével rendelkezik, és átfogó felülvizsgálaton és tesztelésen ment keresztül a minőség, a funkciók teljessége, a szabványoknak való megfelelés és a teljesítmény tekintetében.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Naplók, telemetriai adatok, idősorok
- Mögöttes SDK: Java
- Adattár: Microsoft Azure – https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentáció: Adatok lekérése az Apache Kafkából
- Közösségi blog: Kafka-betöltés az Azure Data Explorerbe
Apache Log4J 2
A Log4J az Apache Foundation által fenntartott Java-alkalmazások népszerű naplózási keretrendszere. A Log4j lehetővé teszi a fejlesztők számára, hogy a naplózó neve, naplózói szintje és üzenetmintája alapján tetszőleges részletességgel szabályozják, hogy mely naplókivonatok legyenek kimenetek. Az Apache Log4J 2 fogadó lehetővé teszi a naplóadatok átvitelét az adatbázisba, ahol valós időben elemezheti és vizualizálhatja a naplókat.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Naplók
- Mögöttes SDK: Java
- Adattár: Microsoft Azure – https://github.com/Azure/azure-kusto-log4j
- Dokumentáció: Adatok lekérése az Apache Log4J 2-összekötővel
- Közösségi blog: Az Apache Log4J és az Azure Data Explorer használatának első lépései
Apache Spark
Az Apache Spark egy egységes elemzési motor a nagy léptékű adatfeldolgozáshoz. A Spark-összekötő egy nyílt forráskód projekt, amely bármely Spark-fürtön futtatható. Adatforrást és adatgyűjtőt implementál az adatok Spark-fürtökbe vagy onnan történő áthelyezéséhez. Az Apache Spark-összekötő használatával gyors és méretezhető alkalmazásokat hozhat létre, amelyek adatvezérelt forgatókönyveket céloznak meg. Például gépi tanulás (ML), Extract-Transform-Load (ETL) és Log Analytics. Az összekötővel az adatbázis érvényes adattár lesz a standard Spark-forrás- és fogadóműveletek, például az olvasás, az írás és a writeStream számára.
- Funkciók: Betöltés, Exportálás
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Telemetria
- Mögöttes SDK: Java
- Adattár: Microsoft Azure – https://github.com/Azure/azure-kusto-spark/
- Dokumentáció: Apache Spark-összekötő
- Közösségi blog: Adatok előfeldolgozása az Azure Data Explorer for Azure Data Explorerhez az Apache Spark használatával
Apache Spark az Azure Synapse Analyticshez
Az Apache Spark egy párhuzamos feldolgozási keretrendszer, amely támogatja a memórián belüli feldolgozást a big data elemzési alkalmazások teljesítményének növelése érdekében. Az Apache Spark az Azure Synapse Analyticsben az Apache Spark egyik implementációja a felhőben. Adatbázist a Synapse Studióból érhet el az Apache Spark for Azure Synapse Analytics használatával.
- Funkciók: Betöltés, Exportálás
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Telemetria
- Mögöttes SDK: Java
- Dokumentáció: Csatlakozás Azure Synapse-munkaterülethez
Azure Data Factory
Az Azure Data Factory (ADF) egy felhőalapú adatintegrációs szolgáltatás, amely lehetővé teszi a különböző adattárak integrálását és az adatokon végzett tevékenységek végrehajtását.
- Funkciók: Betöltés, Exportálás
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Adatvezénylés
- Dokumentáció: Adatok másolása az adatbázisba az Azure Data Factory használatával
Azure-eseményközpontok
Az Azure Event Hubs egy big data streamelési platform és eseménybetöltési szolgáltatás. Konfigurálhatja a folyamatos betöltést az ügyfél által felügyelt Event Hubsból.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Dokumentáció: Azure Event Hubs-adatkapcsolat
Azure Functions
Az Azure Functions lehetővé teszi, hogy kiszolgáló nélküli kódot futtasson a felhőben ütemezés szerint vagy egy eseményre válaszul. Az Azure Functions bemeneti és kimeneti kötéseivel integrálhatja az adatbázist a munkafolyamatokba az adatok betöltéséhez és lekérdezések futtatásához az adatbázison.
- Funkciók: Betöltés, Exportálás
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Munkafolyamat-integrációk
- Dokumentáció: Az Azure Functions integrálása bemeneti és kimeneti kötésekkel (előzetes verzió)
- Közösségi blog: Az Azure Data Explorer (Kusto) kötései az Azure Functionshez
Azure Stream Analytics
Az Azure Stream Analytics egy valós idejű elemzési és összetett eseményfeldolgozó motor, amelynek célja, hogy egyszerre több forrásból származó nagy mennyiségű gyors streamelési adatot dolgozzon fel.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Eseményfeldolgozás
- Dokumentáció: Adatok lekérése az Azure Stream Analyticsből
Cribl Stream
A Cribl Stream egy feldolgozó motor, amely biztonságosan gyűjti, dolgozza fel és streameli a gép eseményadatait bármilyen forrásból. Lehetővé teszi az adatok elemzését és feldolgozását bármely elemzési célhelyen.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Gépi adatfeldolgozás, beleértve a naplókat, metrikákat, rendszerállapot-adatokat
- Dokumentáció: Adatok lekérése a Cribl Streamből
Fluent Bit
A Fluent Bit egy nyílt forráskódú ügynök, amely naplókat, metrikákat és nyomkövetéseket gyűjt különböző forrásokból. Lehetővé teszi az eseményadatok szűrését, módosítását és összesítését, mielőtt a tárolóba küldené azokat.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Naplók, metrikák, nyomkövetések
- Adattár: fluent bites Kusto kimeneti beépülő modul
- Dokumentáció: Adatok lekérése a Fluent Bit használatával
LogStash
A Logstash beépülő modul lehetővé teszi a Logstash eseményeinek feldolgozását egy adatbázisba későbbi elemzés céljából.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Naplók
- Mögöttes SDK: Java
- Adattár: Microsoft Azure – https://github.com/Azure/logstash-output-kusto/
- Dokumentáció: Adatok lekérése a Logstashből
- Közösségi blog: Migrálás az Elasticsearchből az Azure Data Explorerbe
NLog
Az NLog egy rugalmas és ingyenes naplózási platform különböző .NET-platformokhoz, beleértve a .NET szabványt is. Az NLog lehetővé teszi, hogy több célhoz, például adatbázishoz, fájlhoz vagy konzolhoz írjon. Az NLog használatával menet közben módosíthatja a naplózási konfigurációt. Az NLog-fogadó az NLog egyik célja, amely lehetővé teszi a naplóüzenetek adatbázisba küldését. A beépülő modul hatékonyan elsüllyesztheti a naplókat a fürtön.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Telemetria, naplók, metrikák
- Mögöttes SDK: .NET
- Adattár: Microsoft Azure – https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentáció: Adatok lekérése az NLog-fogadóval
- Közösségi blog: Ismerkedés az NLog-fogadóval és az Azure Data Explorerrel
OpenTelemetry
Az OpenTelemetry-összekötő számos fogadó adatainak az adatbázisba való betöltését támogatja. Hídként működik az OpenTelemetria által létrehozott adatok adatbázisba való betöltéséhez az exportált adatok formátumának igényei szerinti testreszabásával.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Nyomkövetések, metrikák, naplók
- Mögöttes SDK: Go
- Adattár: OpenTelemetry – https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentáció: Adatok lekérése az OpenTelemetryből
- Közösségi blog: Az Open Telemetria és az Azure Data Explorer használatának első lépései
Power Automate
A Power Automate egy vezénylési szolgáltatás, amellyel automatizálhatja az üzleti folyamatokat. A Power Automate (korábban Microsoft Flow-összekötő) lehetővé teszi a folyamatok vezénylésének és ütemezésének, értesítések és riasztások küldésének végrehajtását egy ütemezett vagy aktivált feladat részeként.
- Funkciók: Betöltés, Exportálás
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Adatvezénylés
- Dokumentáció: Microsoft Power Automate-összekötő
Szerilog
A Serilog egy népszerű naplózási keretrendszer, amely .NET-alkalmazásokhoz készült. A Serilog lehetővé teszi a fejlesztők számára, hogy tetszőleges részletességgel szabályozzák a naplózó neve, naplózói szint és üzenetminta alapján, hogy mely naplósorok legyenek kiírva. A Serilog fogadó, más néven hozzáfűző, a naplóadatokat az adatbázisba streameli, ahol valós időben elemezheti és vizualizálhatja a naplókat.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Naplók
- Mögöttes SDK: .NET
- Adattár: Microsoft Azure – https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentáció: Adatok lekérése a Serilogból
- Közösségi blog: A Serilog fogadó és az Azure Data Explorer használatának első lépései
Splunk
A Splunk Enterprise egy szoftverplatform, amellyel egyszerre több forrásból is betölthet adatokat. Az Azure Data Explorer bővítmény adatokat küld a Splunkból a fürt egy táblájához.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Naplók
- Mögöttes SDK: Python
- Adattár: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentáció: Adatok lekérése a Splunkból
- Splunk Base: Microsoft Fabric bővítmény a Splunkhoz
- Közösségi blog: Ismerkedés a Microsoft Azure Data Explorer Splunkhoz készült bővítményével
Splunk univerzális továbbító
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés
- Használati esetek: Naplók
- Adattár: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk
- Dokumentáció: Adatok lekérése a Splunk Universal Forwarderből az Azure Data Explorerbe
- Közösségi blog: Adatok lekérése a Splunk Univerzális továbbítóval az Azure Data Explorerbe
Telegraf
A Telegraf egy nyílt forráskód, könnyű, minimális memóriabeli lábnyomat-ügynök a telemetriai adatok , például naplók, metrikák és IoT-adatok gyűjtéséhez, feldolgozásához és írásához. A Telegraf több száz bemeneti és kimeneti beépülő modult támogat. Széles körben használják és támogatják a nyílt forráskód közösség. A kimeneti beépülő modul a Telegraf összekötője, és támogatja az adatok betöltését számos bemeneti beépülő modulból az adatbázisba.
- Funkció: Betöltés
- Támogatott betöltési típus: Kötegelés, streamelés
- Használati esetek: Telemetria, naplók, metrikák
- Mögöttes SDK: Go
- Adattár: InfluxData – https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentáció: Adatok lekérése a Telegrafból
- Közösségi blog: A Telegrafhoz készült Új Azure Data Explorer kimeneti beépülő modul nagy léptékű SQL-monitorozást tesz lehetővé