Anteckning
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Det finns många dataanslutningar, verktyg och integreringar som fungerar sömlöst med plattformen för inmatning, orkestrering, utdata och datafrågor. Det här dokumentet är en översikt på hög nivå om tillgängliga anslutningar, verktyg och integreringar. Detaljerad information finns för varje anslutning, tillsammans med länkar till dess fullständiga dokumentation.
För översiktssidor om en viss typ av integrering väljer du någon av följande knappar.
Jämförelsetabeller
I följande tabeller sammanfattas funktionerna för varje objekt. Välj fliken som motsvarar kontakter eller verktyg och integrationer. Varje objektnamn är länkat till den detaljerade beskrivningen.
I följande tabell sammanfattas tillgängliga anslutningsappar och deras funktioner:
Namn | Intag | Export | Orkestrera | Sökfråga |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark för Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure Functions | ✔️ | ✔️ | ||
Azure IoT Hubs | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Cribl Stream | ✔️ | |||
Fluent-bit | ✔️ | |||
JDBC | ✔️ | |||
Logiska appar | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Öppna telemetri | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk (Splunk) | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Detaljerade beskrivningar
Följande är detaljerade beskrivningar av kontakter, verktyg och integrationer. Välj fliken som motsvarar kontakter eller verktyg och integrationer. Alla tillgängliga objekt sammanfattas i jämförelsetabellerna ovan.
Apache Kafka
Apache Kafka är en distribuerad strömningsplattform för att skapa strömmande datapipelines i realtid som på ett tillförlitligt sätt flyttar data mellan system eller program. Kafka Connect är ett verktyg för skalbar och tillförlitlig strömning av data mellan Apache Kafka och andra datasystem. Kafka Sink fungerar som anslutningsapp från Kafka och kräver inte att du använder kod. Detta är guldcertifierat av Confluent – har genomgått omfattande granskning och testning för kvalitet, funktionsuppfyllelse, efterlevnad av standarder och för prestanda.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar, telemetri, tidsserier
- Underliggande SDK:Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentation:Mata in data från Apache Kafka
- Community-blogg:Kafka-inmatning i Azure Data Explorer
Apache Flink
Apache Flink är ett ramverk och en distribuerad bearbetningsmotor för tillståndskänsliga beräkningar över obundna och begränsade dataströmmar. Anslutningsappen implementerar datamottagare för att flytta data mellan Azure Data Explorer- och Flink-kluster. Med Azure Data Explorer och Apache Flink kan du skapa snabba och skalbara program som riktar sig till datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Direktuppspelning
- Användningsfall: Telemetri
- Underliggande SDK:Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/flink-connector-kusto/
- Dokumentation:Mata in data från Apache Flink
Apache Log4J 2
Log4J är ett populärt loggningsramverk för Java-program som underhålls av Apache Foundation. Med Log4j kan utvecklare styra vilka logginstruktioner som utdata med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Med Apache Log4J 2-mottagaren kan du strömma dina loggdata till databasen, där du kan analysera och visualisera dina loggar i realtid.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar
- Underliggande SDK:Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-log4j
- Dokumentation:Mata in data med Apache Log4J 2-anslutningen
- CommunityBlogg:Komma igång med Apache Log4J och Azure Data Explorer
Apache Spark
Apache Spark är en enhetlig analysmotor för storskalig databearbetning. Spark-anslutningsappen är ett öppen källkod projekt som kan köras på alla Spark-kluster. Den implementerar datakälla och datamottagare för att flytta data till eller från Spark-kluster. Med hjälp av Apache Spark-anslutningsappen kan du skapa snabba och skalbara program som riktar sig till datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics. Med anslutningsappen blir databasen ett giltigt datalager för vanliga Spark-käll- och mottagaråtgärder, till exempel läsning, skrivning och writeStream.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri
- Underliggande SDK:Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-spark/
- Dokumentation:Apache Spark-anslutningsprogram
- Community-blogg:Förbearbetning av data för Azure Data Explorer för Azure Data Explorer med Apache Spark
Apache Spark för Azure Synapse Analytics
Apache Spark är ett ramverk för parallell bearbetning som stöder minnesintern bearbetning för att öka prestandan för analysprogram för stordata. Apache Spark i Azure Synapse Analytics är en av Microsofts implementeringar av Apache Spark i molnet. Du kan komma åt en databas från Synapse Studio med Apache Spark för Azure Synapse Analytics.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Telemetri
- Underliggande SDK:Java
- Dokumentation:Ansluta till en Azure Synapse-arbetsyta
Azure Cosmos DB
Azure Cosmos DB-ändringsflödesdataanslutning är en inmatningspipeline som lyssnar på ditt Cosmos DB-ändringsflöde och för in data i din databas.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Ändringsflöde
- Dokumentation:Mata in data från Azure Cosmos DB (förhandsversion)
Azure Data Factory
Azure Data Factory (ADF) är en molnbaserad dataintegreringstjänst som gör att du kan integrera olika datalager och utföra aktiviteter på data.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Dataorkestrering
- Dokumentation:Kopiera data till databasen med hjälp av Azure Data Factory
Azure Event Grid
Event Grid-inmatning är en pipeline som lyssnar på Azure Storage och uppdaterar din databas för att hämta information när händelser du prenumererar på inträffar. Du kan konfigurera kontinuerlig inmatning från Azure Storage (Blob Storage och ADLSv2) med en Azure Event Grid-prenumeration för att ta emot meddelanden om när blob skapats eller döpts om och strömma dessa meddelanden via Azure Event Hubs.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Händelsebearbetning
- Dokumentation:Event Grid-dataanslutning
Azure Event Hubs
Azure Event Hubs är en stordataströmningsplattform och händelseinmatningstjänst. Du kan konfigurera kontinuerlig inmatning från kundhanterade händelsehubbar.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Dokumentation:Azure Event Hubs-dataanslutning
Azure-funktioner
Med Azure Functions kan du köra serverlös kod i molnet enligt ett schema eller som svar på en händelse. Med indata- och utdatabindningar för Azure Functions kan du integrera databasen i dina arbetsflöden för att mata in data och köra frågor mot databasen.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Arbetsflödesintegreringar
- Dokumentation:Integrera Azure Functions med indata- och utdatabindningar (förhandsversion)
- CommunityBlogg:Kusto-bindningar (Azure Data Explorer) för Azure Functions
Azure IoT Hubs
Azure IoT Hub är en hanterad tjänst som finns i molnet och som fungerar som en central meddelandehubb för dubbelriktad kommunikation mellan ditt IoT-program och de enheter som det hanterar. Du kan konfigurera kontinuerlig inmatning från kundhanterade IoT Hubs med hjälp av dess Event Hubs-kompatibla inbyggda slutpunkt för meddelanden från enhet till moln.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: IoT-data
- Dokumentation:IoT Hub-dataanslutning
Azure Stream Analytics
Azure Stream Analytics är en analysmotor i realtid och en komplex händelsebearbetningsmotor som är utformad för att bearbeta stora volymer snabbuppspelningsdata från flera källor samtidigt.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Händelsebearbetning
- Dokumentation:Mata in data från Azure Stream Analytics
Cribl Stream
Cribl Stream är en bearbetningsmotor som på ett säkert sätt samlar in, bearbetar och strömmar datorhändelsedata från alla källor. Det gör att du kan parsa och bearbeta dessa data för alla mål för analys.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Bearbetning av datordata, inklusive loggar, mått, instrumentationsdata
- Dokumentation:Mata in data från Cribl Stream till Azure Data Explorer
Fluent-bit
Fluent Bit är en agent med öppen källkod som samlar in loggar, mått och spårningar från olika källor. Du kan filtrera, ändra och aggregera händelsedata innan du skickar dem till lagringen.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar, mått, spårningar
- Lagringsplats:fluent-bit Kusto Output Plugin
- Dokumentation:Importera data med Fluent Bit i Azure Data Explorer
- CommunityBlogg:Komma igång med Fluent-biten och Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) är ett Java-API som används för att ansluta till databaser och köra frågor. Du kan använda JDBC för att ansluta till Azure Data Explorer.
- Funktionalitet: Fråga, visualisering
- Underliggande SDK:Java
- Dokumentation:Ansluta till Azure Data Explorer med JDBC
Logic-appar
Med Microsoft Logic Apps-anslutningsappen kan du köra frågor och kommandon automatiskt som en del av en schemalagd eller utlöst uppgift.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Dataorkestrering
- Dokumentation:Microsoft Logic Apps och Azure Data Explorer
Logstash
Med Logstash-plugin-programmet kan du bearbeta händelser från Logstash till en Azure Data Explorer-databas för senare analys.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar
- Underliggande SDK:Java
- Lagringsplats: Microsoft Azure – https://github.com/Azure/logstash-output-kusto/
- Dokumentation:Mata in data från Logstash
- Community-blogg:Så här migrerar du från Elasticsearch till Azure Data Explorer
Matlab
MATLAB är en programmerings- och numerisk databehandlingsplattform som används för att analysera data, utveckla algoritmer och skapa modeller. Du kan hämta en auktoriseringstoken i MATLAB för att fråga efter dina data i Azure Data Explorer.
- Funktionalitet: Sökfråga
- Dokumentation:Fråga efter data med MATLAB
NLog
NLog är en flexibel och kostnadsfri loggningsplattform för olika .NET-plattformar, inklusive .NET-standard. Med NLog kan du skriva till flera mål, till exempel en databas, fil eller konsol. Med NLog kan du ändra loggningskonfigurationen direkt. NLog-mottagaren är ett mål för NLog som gör att du kan skicka dina loggmeddelanden till databasen. Plugin-programmet är ett effektivt sätt att sänka loggarna till klustret.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Underliggande SDK:.NET
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentation:Mata in data med NLog-mottagare
- Community-blogg:Komma igång med NLog-mottagare och Azure Data Explorer
ODBC
Open Database Connectivity (ODBC) är ett allmänt godkänt programprogramprogrammeringsgränssnitt (API) för databasåtkomst. Azure Data Explorer är kompatibelt med en delmängd av SQL Server-kommunikationsprotokollet (MS-TDS). Den här kompatibiliteten möjliggör användning av ODBC-drivrutinen för SQL Server med Azure Data Explorer.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Dokumentation:Ansluta till Azure Data Explorer med ODBC
Öppna telemetri
OpenTelemetry-anslutningsappen stöder inmatning av data från många mottagare till databasen. Det fungerar som en brygga för att mata in data som genereras av Öppna telemetri till databasen genom att anpassa formatet för exporterade data efter dina behov.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Spårningar, mått, loggar
- Underliggande SDK:Go
- Databasen: Öppna telemetri – https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentation:Mata in data från OpenTelemetry
- Community-blogg:Komma igång med Open Telemetry och Azure Data Explorer
Power Apps
Power Apps är en uppsättning appar, tjänster, anslutningsappar och dataplattform som ger en snabb programutvecklingsmiljö för att skapa anpassade appar som ansluter till dina affärsdata. Power Apps-anslutningsappen är användbar om du har en stor och växande samling strömmande data i Azure Data Explorer och vill skapa en låg kod, mycket funktionell app för att använda dessa data.
- Funktionalitet: Förfrågan, dataintag, export
- Inmatningstyp som stöds: Batchbearbetning
- Dokumentation:Använda Power Apps för att fråga efter data i Azure Data Explorer
Power Automate
Power Automate är en orkestreringstjänst som används för att automatisera affärsprocesser. Med anslutningsappen Power Automate (tidigare Microsoft Flow) kan du samordna och schemalägga flöden, skicka meddelanden och aviseringar som en del av en schemalagd eller utlöst uppgift.
- Funktioner: Inmatning, export
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Dataorkestrering
- Dokumentation:Microsoft Power Automate-anslutningsprogram
Serilog
Serilog är ett populärt loggningsramverk för .NET-program. Med Serilog kan utvecklare styra vilka loggutdrag som är utdata med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Serilog-mottagaren, även känd som ett tillägg, strömmar dina loggdata till databasen, där du kan analysera och visualisera dina loggar i realtid.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Loggar
- Underliggande SDK:.NET
- Lagringsplats: Microsoft Azure – https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentation:Inmata data med Serilog-sink
- CommunityBlogg:Komma igång med Serilog-mottagare och Azure Data Explorer
Splunk
Splunk Enterprise är en programvaruplattform som gör att du kan mata in data från många källor samtidigt. Azure Data Explorer-tillägget skickar data från Splunk till en tabell i klustret.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar
- Underliggande SDK:Python
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentation:Mata in data från Splunk
- Splunk Base:Microsoft Azure Data Explorer Add-On för Splunk
- CommunityBlogg:Komma igång med Microsoft Azure Data Explorer-tillägget för Splunk
Splunk Universal Forwarder
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning
- Användningsfall: Loggar
- Lagringsplats: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk
- Dokumentation:Mata in data från Splunk Universal Forwarder till Azure Data Explorer
- Community-blogg:Mata in data med hjälp av Splunk Universal forwarder till Azure Data Explorer
Telegraf
Telegraf är en lätt, minimal minnesfotsutskriftsagent med öppen källkod för insamling, bearbetning och skrivning av telemetridata, inklusive loggar, mått och IoT-data. Telegraf stöder hundratals plugin-program för in- och utdata. Det används ofta och stöds väl av öppen källkod community. Plugin-programmet för utdata fungerar som anslutningsapp från Telegraf och stöder inmatning av data från många typer av indata-plugin-program till databasen.
- Funktioner: Inmatning
- Inmatningstyp som stöds: Batchbearbetning, direktuppspelning
- Användningsfall: Telemetri, loggar, mått
- Underliggande SDK:Go
- Lagringsplats: InfluxData – https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentation:Mata in data från Telegraf
- CommunityBlogg:Nytt plugin-program för Utdata i Azure Data Explorer för Telegraf möjliggör SQL-övervakning i stor skala