Dela via


Översikt över integreringar

Det finns många dataanslutningar, verktyg och integreringar som fungerar sömlöst med plattformen för inmatning, orkestrering, utdata och datafrågor. Det här dokumentet är en översikt på hög nivå om tillgängliga anslutningsappar, verktyg och integreringar. Detaljerad information finns för varje anslutningsapp, tillsammans med länkar till den fullständiga dokumentationen.

För översiktssidor om en viss typ av integrering väljer du någon av följande knappar.

Jämförelsetabeller

I följande tabeller sammanfattas funktionerna för varje objekt. Välj fliken som motsvarar anslutningsappar eller verktyg och integreringar. Varje objektnamn är länkat till den detaljerade beskrivningen.

I följande tabell sammanfattas tillgängliga anslutningsappar och deras funktioner:

Name Mata in Exportera Orkestrera Söka i data
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark för Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Azure IoT Hubs ✔️
Azure Stream Analytics ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Öppna telemetri ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf ✔️

Detaljerade beskrivningar

Här följer detaljerade beskrivningar av anslutningsappar, verktyg och integreringar. Välj fliken som motsvarar anslutningsappar eller verktyg och integreringar. Alla tillgängliga objekt sammanfattas i jämförelsetabellerna ovan.

Apache Kafka

Apache Kafka är en distribuerad strömningsplattform för att skapa strömmande datapipelines i realtid som på ett tillförlitligt sätt flyttar data mellan system eller program. Kafka Connect är ett verktyg för skalbar och tillförlitlig dataströmning mellan Apache Kafka och andra datasystem. Kafka-mottagaren fungerar som anslutningsapp från Kafka och kräver inte att du använder kod. Detta är guldcertifierat av Confluent – har genomgått omfattande granskning och testning för kvalitet, funktionsefterlevnad, efterlevnad av standarder och för prestanda.

Apache Flink är ett ramverk och en distribuerad bearbetningsmotor för tillståndskänsliga beräkningar över obundna och begränsade dataströmmar. Anslutningsappen implementerar datamottagare för att flytta data mellan Azure Data Explorer- och Flink-kluster. Med Hjälp av Azure Data Explorer och Apache Flink kan du skapa snabba och skalbara program för datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics.

Apache Log4J 2

Log4J är ett populärt loggningsramverk för Java-program som underhålls av Apache Foundation. Med Log4j kan utvecklare styra vilka logginstruktioner som matas ut med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Med Apache Log4J 2-mottagaren kan du strömma dina loggdata till databasen, där du kan analysera och visualisera dina loggar i realtid.

Apache Spark

Apache Spark är en enhetlig analysmotor för storskalig databearbetning. Spark-anslutningsappen är ett öppen källkod projekt som kan köras på alla Spark-kluster. Den implementerar datakälla och datamottagare för att flytta data till eller från Spark-kluster. Med hjälp av Apache Spark-anslutningsappen kan du skapa snabba och skalbara program för datadrivna scenarier. Till exempel maskininlärning (ML), Extract-Transform-Load (ETL) och Log Analytics. Med anslutningsappen blir din databas ett giltigt datalager för vanliga Spark-käll- och mottagaråtgärder, till exempel läsa, skriva och skrivaStröm.

Apache Spark för Azure Synapse Analytics

Apache Spark är ett ramverk för parallell bearbetning som stöder minnesintern bearbetning för att öka prestandan för program för stordataanalys. Apache Spark i Azure Synapse Analytics är en av Microsofts implementeringar av Apache Spark i molnet. Du kan komma åt en databas från Synapse Studio med Apache Spark för Azure Synapse Analytics.

Azure Cosmos DB

Azure Cosmos DB-dataanslutningen för ändringsflöde är en inmatningspipeline som lyssnar på ditt Cosmos DB-ändringsflöde och matar in data i databasen.

Azure Data Factory

Azure Data Factory (ADF) är en molnbaserad dataintegreringstjänst som gör att du kan integrera olika datalager och utföra aktiviteter på data.

Azure Event Grid

Event Grid-inmatning är en pipeline som lyssnar på Azure Storage och uppdaterar databasen för att hämta information när händelser som prenumererar inträffar. Du kan konfigurera kontinuerlig inmatning från Azure Storage (Blob Storage och ADLSv2) med en Azure Event Grid-prenumeration för meddelanden som skapats eller blob bytt namn och strömma meddelanden via Azure Event Hubs.

  • Funktionalitet: Intag
  • Inmatningstypen stöds: Batchbearbetning, direktuppspelning
  • Användningsfall: Händelsebearbetning
  • Dokumentation:Event Grid-dataanslutning

Azure Event Hubs

Azure Event Hubs är en stordataströmningsplattform och händelseinmatningstjänst. Du kan konfigurera kontinuerlig inmatning från kundhanterade händelsehubbar.

Azure Functions

Azure Functions kan du köra serverlös kod i molnet enligt ett schema eller som svar på en händelse. Med indata- och utdatabindningar för Azure Functions kan du integrera databasen i dina arbetsflöden för att mata in data och köra frågor mot databasen.

Azure IoT Hubs

Azure IoT Hub är en hanterad tjänst som finns i molnet och som fungerar som en central meddelandehubb för dubbelriktad kommunikation mellan ditt IoT-program och de enheter som det hanterar. Du kan konfigurera kontinuerlig inmatning från kundhanterade IoT Hubs med hjälp av dess Event Hubs-kompatibla inbyggda slutpunkt för meddelanden från enhet till moln.

  • Funktionalitet: Intag
  • Inmatningstypen stöds: Batchbearbetning, direktuppspelning
  • Användningsfall: IoT-data
  • Dokumentation:IoT Hub dataanslutning

Azure Stream Analytics

Azure Stream Analytics är en analysmotor i realtid och en komplex motor för händelsebearbetning som är utformad för att bearbeta stora volymer snabbt strömmande data från flera källor samtidigt.

Fluent Bit

Fluent Bit är en agent med öppen källkod som samlar in loggar, mått och spårningar från olika källor. Det gör att du kan filtrera, ändra och aggregera händelsedata innan du skickar dem till lagringen.

JDBC

Java Database Connectivity (JDBC) är ett Java-API som används för att ansluta till databaser och köra frågor. Du kan använda JDBC för att ansluta till Azure Data Explorer.

Logic Apps

Med Microsoft Logic Apps-anslutningsappen kan du köra frågor och kommandon automatiskt som en del av en schemalagd eller utlöst uppgift.

Logstash

Med Plugin-programmet Logstash kan du bearbeta händelser från Logstash till en Azure Data Explorer-databas för senare analys.

Matlab

MATLAB är en programmerings- och numerisk databehandlingsplattform som används för att analysera data, utveckla algoritmer och skapa modeller. Du kan hämta en auktoriseringstoken i MATLAB för att fråga efter data i Azure Data Explorer.

NLog

NLog är en flexibel och kostnadsfri loggningsplattform för olika .NET-plattformar, inklusive .NET Standard. Med NLog kan du skriva till flera mål, till exempel en databas, fil eller konsol. Med NLog kan du ändra loggningskonfigurationen direkt. NLog-mottagaren är ett mål för NLog som gör att du kan skicka loggmeddelanden till databasen. Plugin-programmet är ett effektivt sätt att skicka loggarna till klustret.

ODBC

Open Database Connectivity (ODBC) är ett allmänt godkänt API (Application Programming Interface) för databasåtkomst. Azure Data Explorer är kompatibelt med en delmängd av SQL Server communication protocol (MS-TDS). Den här kompatibiliteten gör det möjligt att använda ODBC-drivrutinen för SQL Server med Azure Data Explorer.

Öppna telemetri

OpenTelemetry-anslutningsappen stöder inmatning av data från många mottagare till databasen. Det fungerar som en brygga för att mata in data som genereras av Öppna telemetri till databasen genom att anpassa formatet för exporterade data efter dina behov.

Power Apps

Power Apps är en uppsättning appar, tjänster, anslutningsappar och dataplattform som ger en snabb programutvecklingsmiljö för att skapa anpassade appar som ansluter till dina affärsdata. Power Apps-anslutningsappen är användbar om du har en stor och växande samling strömmande data i Azure Data Explorer och vill skapa en låg kod, mycket funktionell app för att använda dessa data.

Power Automate

Power Automate är en orkestreringstjänst som används för att automatisera affärsprocesser. Med anslutningsappen Power Automate (tidigare Microsoft Flow) kan du orkestrera och schemalägga flöden, skicka meddelanden och aviseringar som en del av en schemalagd eller utlöst uppgift.

Serilog

Serilog är ett populärt loggningsramverk för .NET-program. Med Serilog kan utvecklare styra vilka logginstruktioner som matas ut med godtycklig kornighet baserat på loggarens namn, loggningsnivå och meddelandemönster. Serilog-mottagaren, även kallad tillägg, strömmar dina loggdata till databasen, där du kan analysera och visualisera loggarna i realtid.

Splunk

Splunk Enterprise är en programvaruplattform som gör att du kan mata in data från många källor samtidigt. Azure Data Explorer-tillägget skickar data från Splunk till en tabell i klustret.

Splunk Universal Forwarder

Telegraf

Telegraf är en öppen källkod, lätt, minimal minnesfotsutskriftsagent för insamling, bearbetning och skrivning av telemetridata, inklusive loggar, mått och IoT-data. Telegraf stöder hundratals plugin-program för indata och utdata. Det används ofta och stöds väl av öppen källkod-communityn. Plugin-programmet för utdata fungerar som anslutningsapp från Telegraf och stöder inmatning av data från många typer av indata-plugin-program till din databas.