Översikt över integreringar
Det finns många dataanslutningar, verktyg och integreringar som fungerar sömlöst med plattformen för inmatning, orkestrering, utdata och datafrågor. Det här dokumentet är en översikt på hög nivå om tillgängliga anslutningsappar, verktyg och integreringar. Detaljerad information finns för varje anslutningsapp, tillsammans med länkar till den fullständiga dokumentationen.
För översiktssidor om en viss typ av integrering väljer du någon av följande knappar.
Jämförelsetabeller
I följande tabeller sammanfattas funktionerna för varje objekt. Välj fliken som motsvarar anslutningsappar eller verktyg och integreringar. Varje objektnamn är länkat till den detaljerade beskrivningen.
I följande tabell sammanfattas tillgängliga anslutningsappar och deras funktioner:
Name | Mata in | Exportera | Orkestrera | Söka i data |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark för Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure Functions | ✔️ | ✔️ | ||
Azure IoT Hubs | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Fluent Bit | ✔️ | |||
JDBC | ✔️ | |||
Logic Apps | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Öppna telemetri | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Detaljerade beskrivningar
Här följer detaljerade beskrivningar av anslutningsappar, verktyg och integreringar. Välj fliken som motsvarar anslutningsappar eller verktyg och integreringar. Alla tillgängliga objekt sammanfattas i jämförelsetabellerna ovan.
Apache Kafka
Apache Kafka är en distribuerad strömningsplattform för att skapa strömmande datapipelines i realtid som på ett tillförlitligt sätt flyttar data mellan system eller program. Kafka Connect är ett verktyg för skalbar och tillförlitlig dataströmning mellan Apache Kafka och andra datasystem. Kafka-mottagaren fungerar som anslutningsapp från Kafka och kräver inte att du använder kod. Detta är guldcertifierat av Confluent – har genomgått omfattande granskning och testning för kvalitet, funktionsefterlevnad, efterlevnad av standarder och för prestanda.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar, telemetri, tidsserier
- Underliggande SDK:Java
- Databasen: Microsoft Azure – https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentation:Mata in data från Apache Kafka
- Community-blogg:Kafka-inmatning till Azure Data Explorer
Apache Flink
Apache Flink är ett ramverk och en distribuerad bearbetningsmotor för tillståndskänsliga beräkningar över obundna och begränsade dataströmmar. Anslutningsappen implementerar datamottagare för att flytta data mellan Azure Data Explorer- och Flink-kluster. Med Hjälp av Azure Data Explorer och Apache Flink kan du skapa snabba och skalbara program för datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics.
- Funktionalitet: Intag
- Inmatningstypen stöds: Streaming
- Användningsfall: Telemetri
- Underliggande SDK:Java
- Databasen: Microsoft Azure – https://github.com/Azure/flink-connector-kusto/
- Dokumentation:Mata in data från Apache Flink
Apache Log4J 2
Log4J är ett populärt loggningsramverk för Java-program som underhålls av Apache Foundation. Med Log4j kan utvecklare styra vilka logginstruktioner som matas ut med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Med Apache Log4J 2-mottagaren kan du strömma dina loggdata till databasen, där du kan analysera och visualisera dina loggar i realtid.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar
- Underliggande SDK:Java
- Databasen: Microsoft Azure – https://github.com/Azure/azure-kusto-log4j
- Dokumentation:Mata in data med Apache Log4J 2-anslutningsappen
- Community-blogg:Komma igång med Apache Log4J och Azure Data Explorer
Apache Spark
Apache Spark är en enhetlig analysmotor för storskalig databearbetning. Spark-anslutningsappen är ett öppen källkod projekt som kan köras på alla Spark-kluster. Den implementerar datakälla och datamottagare för att flytta data till eller från Spark-kluster. Med hjälp av Apache Spark-anslutningsappen kan du skapa snabba och skalbara program för datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics. Med anslutningsappen blir din databas ett giltigt datalager för vanliga Spark-käll- och mottagaråtgärder, till exempel läsa, skriva och skrivaStröm.
- Funktionalitet: Inmatning, export
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri
- Underliggande SDK:Java
- Databasen: Microsoft Azure – https://github.com/Azure/azure-kusto-spark/
- Dokumentation:Apache Spark-anslutningsapp
- Community-blogg:Förbearbetning av data för Azure Data Explorer för Azure Data Explorer med Apache Spark
Apache Spark för Azure Synapse Analytics
Apache Spark är ett ramverk för parallell bearbetning som stöder minnesintern bearbetning för att öka prestandan för program för stordataanalys. Apache Spark i Azure Synapse Analytics är en av Microsofts implementeringar av Apache Spark i molnet. Du kan komma åt en databas från Synapse Studio med Apache Spark för Azure Synapse Analytics.
- Funktionalitet: Inmatning, export
- Inmatningstypen stöds: Dosering
- Användningsfall: Telemetri
- Underliggande SDK:Java
- Dokumentation:Ansluta till en Azure Synapse arbetsyta
Azure Cosmos DB
Azure Cosmos DB-dataanslutningen för ändringsflöde är en inmatningspipeline som lyssnar på ditt Cosmos DB-ändringsflöde och matar in data i databasen.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Ändringsflöde
- Dokumentation:Mata in data från Azure Cosmos DB (förhandsversion)
Azure Data Factory
Azure Data Factory (ADF) är en molnbaserad dataintegreringstjänst som gör att du kan integrera olika datalager och utföra aktiviteter på data.
- Funktionalitet: Inmatning, export
- Inmatningstypen stöds: Dosering
- Användningsfall: Dataorkestrering
- Dokumentation:Kopiera data till databasen med hjälp av Azure Data Factory
Azure Event Grid
Event Grid-inmatning är en pipeline som lyssnar på Azure Storage och uppdaterar databasen för att hämta information när händelser som prenumererar inträffar. Du kan konfigurera kontinuerlig inmatning från Azure Storage (Blob Storage och ADLSv2) med en Azure Event Grid-prenumeration för meddelanden som skapats eller blob bytt namn och strömma meddelanden via Azure Event Hubs.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Händelsebearbetning
- Dokumentation:Event Grid-dataanslutning
Azure Event Hubs
Azure Event Hubs är en stordataströmningsplattform och händelseinmatningstjänst. Du kan konfigurera kontinuerlig inmatning från kundhanterade händelsehubbar.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Dokumentation:Azure Event Hubs dataanslutning
Azure Functions
Azure Functions kan du köra serverlös kod i molnet enligt ett schema eller som svar på en händelse. Med indata- och utdatabindningar för Azure Functions kan du integrera databasen i dina arbetsflöden för att mata in data och köra frågor mot databasen.
- Funktionalitet: Inmatning, export
- Inmatningstypen stöds: Dosering
- Användningsfall: Arbetsflödesintegreringar
- Dokumentation:Integrera Azure Functions med hjälp av indata- och utdatabindningar (förhandsversion)
- Community-blogg:Kusto-bindningar (Azure Data Explorer) för Azure Functions
Azure IoT Hubs
Azure IoT Hub är en hanterad tjänst som finns i molnet och som fungerar som en central meddelandehubb för dubbelriktad kommunikation mellan ditt IoT-program och de enheter som det hanterar. Du kan konfigurera kontinuerlig inmatning från kundhanterade IoT Hubs med hjälp av dess Event Hubs-kompatibla inbyggda slutpunkt för meddelanden från enhet till moln.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: IoT-data
- Dokumentation:IoT Hub dataanslutning
Azure Stream Analytics
Azure Stream Analytics är en analysmotor i realtid och en komplex motor för händelsebearbetning som är utformad för att bearbeta stora volymer snabbt strömmande data från flera källor samtidigt.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Händelsebearbetning
- Dokumentation:Mata in data från Azure Stream Analytics
Fluent Bit
Fluent Bit är en agent med öppen källkod som samlar in loggar, mått och spårningar från olika källor. Det gör att du kan filtrera, ändra och aggregera händelsedata innan du skickar dem till lagringen.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar, mått, spårningar
- Repository:fluent-bit Kusto Output Plugin
- Dokumentation:Mata in data med Fluent Bit i Azure Data Explorer
- Community-blogg:Komma igång med Fluent Bit och Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) är ett Java-API som används för att ansluta till databaser och köra frågor. Du kan använda JDBC för att ansluta till Azure Data Explorer.
- Funktionalitet: Fråga, visualisering
- Underliggande SDK:Java
- Dokumentation:Ansluta till Azure Data Explorer med JDBC
Logic Apps
Med Microsoft Logic Apps-anslutningsappen kan du köra frågor och kommandon automatiskt som en del av en schemalagd eller utlöst uppgift.
- Funktionalitet: Inmatning, export
- Inmatningstypen stöds: Dosering
- Användningsfall: Dataorkestrering
- Dokumentation:Microsoft Logic Apps och Azure Data Explorer
Logstash
Med Plugin-programmet Logstash kan du bearbeta händelser från Logstash till en Azure Data Explorer-databas för senare analys.
- Funktionalitet: Intag
- Inmatningstypen stöds: Dosering
- Användningsfall: Loggar
- Underliggande SDK:Java
- Databasen: Microsoft Azure – https://github.com/Azure/logstash-output-kusto/
- Dokumentation:Mata in data från Logstash
- Community-blogg:Migrera från Elasticsearch till Azure Data Explorer
Matlab
MATLAB är en programmerings- och numerisk databehandlingsplattform som används för att analysera data, utveckla algoritmer och skapa modeller. Du kan hämta en auktoriseringstoken i MATLAB för att fråga efter data i Azure Data Explorer.
- Funktionalitet: Fråga
- Dokumentation:Fråga efter data med MATLAB
NLog
NLog är en flexibel och kostnadsfri loggningsplattform för olika .NET-plattformar, inklusive .NET Standard. Med NLog kan du skriva till flera mål, till exempel en databas, fil eller konsol. Med NLog kan du ändra loggningskonfigurationen direkt. NLog-mottagaren är ett mål för NLog som gör att du kan skicka loggmeddelanden till databasen. Plugin-programmet är ett effektivt sätt att skicka loggarna till klustret.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Underliggande SDK:.NET
- Databasen: Microsoft Azure – https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentation:Mata in data med NLog-mottagaren
- Community-blogg:Komma igång med NLog-mottagare och Azure Data Explorer
ODBC
Open Database Connectivity (ODBC) är ett allmänt godkänt API (Application Programming Interface) för databasåtkomst. Azure Data Explorer är kompatibelt med en delmängd av SQL Server communication protocol (MS-TDS). Den här kompatibiliteten gör det möjligt att använda ODBC-drivrutinen för SQL Server med Azure Data Explorer.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Dokumentation:Ansluta till Azure Data Explorer med ODBC
Öppna telemetri
OpenTelemetry-anslutningsappen stöder inmatning av data från många mottagare till databasen. Det fungerar som en brygga för att mata in data som genereras av Öppna telemetri till databasen genom att anpassa formatet för exporterade data efter dina behov.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Spårningar, mått, loggar
- Underliggande SDK:Go
- Databasen: Öppna telemetri – https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentation:Mata in data från OpenTelemetry
- Community-blogg:Komma igång med Open Telemetry och Azure Data Explorer
Power Apps
Power Apps är en uppsättning appar, tjänster, anslutningsappar och dataplattform som ger en snabb programutvecklingsmiljö för att skapa anpassade appar som ansluter till dina affärsdata. Power Apps-anslutningsappen är användbar om du har en stor och växande samling strömmande data i Azure Data Explorer och vill skapa en låg kod, mycket funktionell app för att använda dessa data.
- Funktionalitet: Fråga, inmatning, export
- Inmatningstypen stöds: Dosering
- Dokumentation:Använda Power Apps för att fråga efter data i Azure Data Explorer
Power Automate
Power Automate är en orkestreringstjänst som används för att automatisera affärsprocesser. Med anslutningsappen Power Automate (tidigare Microsoft Flow) kan du orkestrera och schemalägga flöden, skicka meddelanden och aviseringar som en del av en schemalagd eller utlöst uppgift.
- Funktionalitet: Inmatning, export
- Inmatningstypen stöds: Dosering
- Användningsfall: Dataorkestrering
- Dokumentation:Microsoft Power Automate-anslutningsprogram
Serilog
Serilog är ett populärt loggningsramverk för .NET-program. Med Serilog kan utvecklare styra vilka logginstruktioner som matas ut med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Serilog-mottagaren, även kallad tillägg, strömmar dina loggdata till databasen, där du kan analysera och visualisera loggarna i realtid.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar
- Underliggande SDK:.NET
- Databasen: Microsoft Azure – https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentation:Mata in data med Serilog-mottagaren
- Community-blogg:Komma igång med Serilog-mottagaren och Azure Data Explorer
Splunk
Splunk Enterprise är en programvaruplattform som gör att du kan mata in data från många källor samtidigt. Azure Data Explorer-tillägget skickar data från Splunk till en tabell i klustret.
- Funktionalitet: Intag
- Inmatningstypen stöds: Dosering
- Användningsfall: Loggar
- Underliggande SDK:Python
- Databasen: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentation:Mata in data från Splunk
- Splunk Base:Microsoft Azure Data Explorer Add-On för Splunk
- Community-blogg:Komma igång med Microsoft Azure Data Explorer Add-On för Splunk
Splunk Universal Forwarder
- Funktionalitet: Intag
- Inmatningstypen stöds: Dosering
- Användningsfall: Loggar
- Databasen: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk
- Dokumentation:Mata in data från Splunk Universal Forwarder till Azure Data Explorer
- Community-blogg:Mata in data med Splunk Universal-vidarebefordrare till Azure Data Explorer
Telegraf
Telegraf är en öppen källkod, lätt, minimal minnesfotsutskriftsagent för insamling, bearbetning och skrivning av telemetridata, inklusive loggar, mått och IoT-data. Telegraf stöder hundratals plugin-program för indata och utdata. Det används ofta och stöds väl av öppen källkod-communityn. Plugin-programmet för utdata fungerar som anslutningsapp från Telegraf och stöder inmatning av data från många typer av indata-plugin-program till din databas.
- Funktionalitet: Intag
- Inmatningstypen stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Underliggande SDK:Go
- Databasen: InfluxData – https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentation:Mata in data från Telegraf
- Community Blog:New Azure Data Explorer output plugin for Telegraf enables SQL monitoring at huge scale