Overzicht van Integraties
Er zijn veel gegevensconnectors, hulpprogramma's en integraties die naadloos samenwerken met het platform voor opname, indeling, uitvoer en gegevensquery's. Dit document bevat een overzicht op hoog niveau van de beschikbare connectors, hulpprogramma's en integraties. Er wordt gedetailleerde informatie verstrekt voor elke connector, samen met koppelingen naar de volledige documentatie.
Selecteer een van de volgende knoppen voor overzichtspagina's over een specifiek type integratie.
Vergelijkingstabellen
De volgende tabellen bevatten een overzicht van de mogelijkheden van elk item. Selecteer het tabblad dat overeenkomt met connectors of hulpprogramma's en integraties. Elke itemnaam is gekoppeld aan de gedetailleerde beschrijving.
De volgende tabel bevat een overzicht van de beschikbare connectors en hun mogelijkheden:
Name | Opnemen | Exporteren | Organiseren | Query’s uitvoeren |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark voor Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure Functions | ✔️ | ✔️ | ||
Azure IoT Hubs | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Fluent Bit | ✔️ | |||
JDBC | ✔️ | |||
Logic Apps | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Telemetrie openen | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Gedetailleerde beschrijvingen
Hier volgen gedetailleerde beschrijvingen van connectors, hulpprogramma's en integraties. Selecteer het tabblad dat overeenkomt met connectors of hulpprogramma's en integraties. Alle beschikbare items worden samengevat in de bovenstaande vergelijkingstabellen .
Apache Kafka
Apache Kafka is een gedistribueerd streamingplatform voor het bouwen van pijplijnen voor realtime streaminggegevens waarmee gegevens betrouwbaar tussen systemen of toepassingen worden verplaatst. Kafka Connect is een hulpprogramma voor schaalbare en betrouwbare streaming van gegevens tussen Apache Kafka en andere gegevenssystemen. De Kafka-sink fungeert als de connector van Kafka en vereist geen code. Dit is goud gecertificeerd door Confluent - heeft uitgebreide beoordeling en tests ondergaan op kwaliteit, volledigheid van functies, naleving van standaarden en prestaties.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Logboeken, telemetrie, tijdreeks
- Onderliggende SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Documentatie:Gegevens opnemen uit Apache Kafka
- Communityblog:Kafka-opname in Azure Data Explorer
Apache Flink
Apache Flink is een framework en gedistribueerde verwerkingsengine voor stateful berekeningen voor niet-afhankelijke en gebonden gegevensstromen. De connector implementeert gegevenssink voor het verplaatsen van gegevens tussen Azure Data Explorer- en Flink-clusters. Met Behulp van Azure Data Explorer en Apache Flink kunt u snelle en schaalbare toepassingen bouwen die zijn gericht op gegevensgestuurde scenario's. Bijvoorbeeld machine learning (ML), Extract-Transform-Load (ETL) en Log Analytics.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Streaming
- Gebruiksvoorbeelden: Telemetrie
- Onderliggende SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Documentatie:Gegevens opnemen uit Apache Flink
Apache Log4J 2
Log4J is een populair logboekregistratieframework voor Java-toepassingen die worden onderhouden door de Apache Foundation. Met Log4j kunnen ontwikkelaars bepalen welke logboekinstructies worden uitgevoerd met willekeurige granulariteit op basis van de naam, het logboekniveau en het berichtpatroon van de logboekregistratie. Met de Apache Log4J 2-sink kunt u uw logboekgegevens streamen naar uw database, waar u uw logboeken in realtime kunt analyseren en visualiseren.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Logs
- Onderliggende SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Documentatie:Gegevens opnemen met de Apache Log4J 2-connector
- Communityblog:Aan de slag met Apache Log4J en Azure Data Explorer
Apache Spark
Apache Spark is een geïntegreerde analyse-engine voor gegevensverwerking op grote schaal. De Spark-connector is een open source project dat op elk Spark-cluster kan worden uitgevoerd. Hiermee worden gegevensbronnen en gegevenssink geïmplementeerd voor het verplaatsen van gegevens naar of van Spark-clusters. Met behulp van de Apache Spark-connector kunt u snelle en schaalbare toepassingen bouwen die zijn gericht op gegevensgestuurde scenario's. Bijvoorbeeld machine learning (ML), Extract-Transform-Load (ETL) en Log Analytics. Met de connector wordt uw database een geldig gegevensarchief voor standaard spark-bron- en sinkbewerkingen, zoals lezen, schrijven en writeStream.
- Functionaliteit: Opname, exporteren
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Telemetrie
- Onderliggende SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Documentatie:Apache Spark-connector
- Communityblog:Voorverwerking van gegevens voor Azure Data Explorer voor Azure Data Explorer met Apache Spark
Apache Spark voor Azure Synapse Analytics
Apache Spark is een framework voor parallelle verwerking dat ondersteuning biedt voor verwerking in het geheugen om de prestaties van big data-analysetoepassingen te verbeteren. Apache Spark in Azure Synapse Analytics is een van de microsoft-implementaties van Apache Spark in de cloud. U hebt toegang tot een database vanuit Synapse Studio met Apache Spark voor Azure Synapse Analytics.
- Functionaliteit: Opname, exporteren
- Ondersteund opnametype: Batching
- Gebruiksvoorbeelden: Telemetrie
- Onderliggende SDK:Java
- Documentatie:Verbinding maken met een Azure Synapse-werkruimte
Azure Cosmos DB
De gegevensverbinding met de Azure Cosmos DB-wijzigingenfeed is een opnamepijplijn die luistert naar uw Cosmos DB-wijzigingenfeed en de gegevens opneemt in uw database.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Gebruiksvoorbeelden: Wijzigingenfeed
- Documentatie:Gegevens opnemen uit Azure Cosmos DB (preview)
Azure Data Factory
Azure Data Factory (ADF) is een cloudservice voor gegevensintegratie waarmee u verschillende gegevensarchieven kunt integreren en activiteiten kunt uitvoeren op de gegevens.
- Functionaliteit: Opname, exporteren
- Ondersteund opnametype: Batching
- Gebruiksvoorbeelden: Gegevensindeling
- Documentatie:Gegevens kopiëren naar uw database met behulp van Azure Data Factory
Azure Event Grid
Event Grid-opname is een pijplijn die luistert naar Azure Storage en die uw database bijwerkt om gegevens op te halen wanneer er zich geabonneerde gebeurtenissen voordoen. U kunt continue opname vanuit Azure Storage (Blob Storage en ADLSv2) configureren met een Azure Event Grid-abonnement voor meldingen die zijn gemaakt met een blob of een andere blob en het streamen van de meldingen via Azure Event Hubs.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Gebruiksvoorbeelden: Gebeurtenisverwerking
- Documentatie:Event Grid-gegevensverbinding
Azure Event Hubs
Azure Event Hubs is een platform voor het streamen van big data en een service voor gebeurtenisopname. U kunt continue opname configureren vanuit door de klant beheerde Event Hubs.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Documentatie:gegevensverbinding Azure Event Hubs
Azure Functions
met Azure Functions kunt u serverloze code in de cloud uitvoeren volgens een schema of als reactie op een gebeurtenis. Met invoer- en uitvoerbindingen voor Azure Functions kunt u uw database integreren in uw werkstromen om gegevens op te nemen en query's uit te voeren op uw database.
- Functionaliteit: Opname, exporteren
- Ondersteund opnametype: Batching
- Gebruiksvoorbeelden: Werkstroomintegraties
- Documentatie:Integreren van Azure Functions met behulp van invoer- en uitvoerbindingen (preview)
- Communityblog:Azure Data Explorer (Kusto)-bindingen voor Azure Functions
Azure IoT Hubs
Azure IoT Hub is een beheerde service, gehost in de cloud, die fungeert als een centrale berichtenhub voor bidirectionele communicatie tussen uw IoT-toepassing en de apparaten die deze beheert. U kunt continue opname van door de klant beheerde IoT Hubs configureren met behulp van het ingebouwde eindpunt van apparaat-naar-cloud-berichten die compatibel zijn met Event Hubs.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Gebruiksvoorbeelden: IoT-gegevens
- Documentatie:IoT Hub gegevensverbinding
Azure Stream Analytics
Azure Stream Analytics is een engine voor realtime analyse en complexe gebeurtenisverwerking die is ontworpen om grote hoeveelheden snelle streaminggegevens uit meerdere bronnen tegelijk te verwerken.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Gebruiksvoorbeelden: Gebeurtenisverwerking
- Documentatie:Gegevens opnemen uit Azure Stream Analytics
Fluent Bit
Fluent Bit is een opensource-agent die logboeken, metrische gegevens en traceringen uit verschillende bronnen verzamelt. Hiermee kunt u gebeurtenisgegevens filteren, wijzigen en aggregeren voordat u deze naar de opslag verzendt.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Gebruiksvoorbeelden: Logboeken, metrische gegevens, traceringen
- Opslagplaats:fluent-bit Kusto Output Plugin
- Documentatie:Gegevens opnemen met Fluent Bit in Azure Data Explorer
- Communityblog:Aan de slag met Fluent bit en Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) is een Java-API die wordt gebruikt om verbinding te maken met databases en query's uit te voeren. U kunt JDBC gebruiken om verbinding te maken met Azure Data Explorer.
- Functionaliteit: Query, visualisatie
- Onderliggende SDK:Java
- Documentatie:Verbinding maken met Azure Data Explorer met JDBC
Logic Apps
Met de Microsoft Logic Apps-connector kunt u query's en opdrachten automatisch uitvoeren als onderdeel van een geplande of geactiveerde taak.
- Functionaliteit: Opname, exporteren
- Ondersteund opnametype: Batching
- Gebruiksvoorbeelden: Gegevensindeling
- Documentatie:Microsoft Logic Apps en Azure Data Explorer
Logstash
Met de Logstash-invoegtoepassing kunt u gebeurtenissen van Logstash verwerken in een Azure Data Explorer-database voor latere analyse.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batching
- Gebruiksvoorbeelden: Logs
- Onderliggende SDK:Java
- Repository: Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Documentatie:Gegevens opnemen uit Logstash
- Communityblog:Migreren van Elasticsearch naar Azure Data Explorer
Matlab
MATLAB is een programmeer- en numeriek computingplatform dat wordt gebruikt voor het analyseren van gegevens, het ontwikkelen van algoritmen en het maken van modellen. U kunt een autorisatietoken ophalen in MATLAB voor het uitvoeren van query's op uw gegevens in Azure Data Explorer.
- Functionaliteit: Query
- Documentatie:Query's uitvoeren op gegevens met MATLAB
NLog
NLog is een flexibel en gratis logboekregistratieplatform voor verschillende .NET-platforms, waaronder .NET Standard. Met NLog kunt u naar verschillende doelen schrijven, zoals een database, bestand of console. Met NLog kunt u de logboekconfiguratie on-the-fly wijzigen. De NLog-sink is een doel voor NLog waarmee u uw logboekberichten naar uw database kunt verzenden. De invoegtoepassing biedt een efficiënte manier om uw logboeken naar uw cluster te sinken.
- Functionaliteit: Ingestion
- Ondersteund opnametype: Batchverwerking, streaming
- Gebruiksvoorbeelden: Telemetrie, logboeken, metrische gegevens
- Onderliggende SDK:.NET
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Documentatie:Gegevens opnemen met de NLog-sink
- Communityblog:Aan de slag met NLog-sink en Azure Data Explorer
ODBC
Open Database Connectivity (ODBC) is een algemeen geaccepteerde Api (Application Programming Interface) voor databasetoegang. Azure Data Explorer is compatibel met een subset van het SQL Server communication protocol (MS-TDS). Deze compatibiliteit maakt het gebruik van het ODBC-stuurprogramma mogelijk voor SQL Server met Azure Data Explorer.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Telemetrie, logboeken, metrische gegevens
- Documentatie:Verbinding maken met Azure Data Explorer met ODBC
Telemetrie openen
De OpenTelemetry-connector ondersteunt de opname van gegevens van veel ontvangers in uw database. Het werkt als een brug om gegevens op te nemen die zijn gegenereerd door Open telemetrie in uw database door de indeling van de geëxporteerde gegevens aan te passen aan uw behoeften.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Traceringen, metrische gegevens, logboeken
- Onderliggende SDK:Go
- Repository: Telemetrie openen - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Documentatie:Gegevens opnemen uit OpenTelemetry
- Communityblog:Aan de slag met Open Telemetry en Azure Data Explorer
Power Apps
Power Apps is een suite met apps, services, connectors en gegevensplatforms die een snelle ontwikkelomgeving voor toepassingen biedt voor het bouwen van aangepaste apps die verbinding maken met uw zakelijke gegevens. De Power Apps-connector is handig als u een grote en groeiende verzameling streaminggegevens in Azure Data Explorer hebt en een zeer functionele app met weinig code wilt bouwen om gebruik te maken van deze gegevens.
- Functionaliteit: Query, opname, exporteren
- Opnametype ondersteund: Batching
- Documentatie:Power Apps gebruiken om query's uit te voeren op gegevens in Azure Data Explorer
Power Automate
Power Automate is een indelingsservice die wordt gebruikt voor het automatiseren van bedrijfsprocessen. Met de Power Automate connector (voorheen Microsoft Flow) kunt u stromen organiseren en plannen, meldingen en waarschuwingen verzenden als onderdeel van een geplande of geactiveerde taak.
- Functionaliteit: Opname, exporteren
- Opnametype ondersteund: Batching
- Gebruiksvoorbeelden: Gegevensindeling
- Documentatie:Microsoft Power Automate-connector
Serilog
Serilog is een populair framework voor logboekregistratie voor .NET-toepassingen. Met Serilog kunnen ontwikkelaars bepalen welke logboekinstructies worden uitgevoerd met willekeurige granulariteit op basis van de naam, het logboekniveau en het berichtpatroon van de logboekregistratie. De Serilog-sink, ook wel een appender genoemd, streamt uw logboekgegevens naar uw database, waar u uw logboeken in realtime kunt analyseren en visualiseren.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Logs
- Onderliggende SDK:.NET
- Repository: Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Documentatie:Gegevens opnemen met de Serilog-sink
- Communityblog:Aan de slag met Serilog-sink en Azure Data Explorer
Splunk
Splunk Enterprise is een softwareplatform waarmee u gegevens uit veel bronnen tegelijk kunt opnemen. De invoegtoepassing Azure Data Explorer verzendt gegevens van Splunk naar een tabel in uw cluster.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batching
- Gebruiksvoorbeelden: Logs
- Onderliggende SDK:Python
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Documentatie:Gegevens opnemen uit Splunk
- Splunk Base:Microsoft Azure Data Explorer Add-On voor Splunk
- Communityblog:Aan de slag met Microsoft Azure Data Explorer Add-On voor Splunk
Splunk Universal Forwarder
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batching
- Gebruiksvoorbeelden: Logs
- Repository: Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Documentatie:Gegevens opnemen uit Splunk Universal Forwarder naar Azure Data Explorer
- Communityblog:Gegevens opnemen met behulp van Splunk Universal Forwarder in Azure Data Explorer
Telegraf
Telegraf is een open source, lichtgewicht, minimale geheugenprintagent voor het verzamelen, verwerken en schrijven van telemetriegegevens, waaronder logboeken, metrische gegevens en IoT-gegevens. Telegraf ondersteunt honderden invoegtoepassingen voor invoer en uitvoer. Het wordt veel gebruikt en goed ondersteund door de open source community. De uitvoerinvoegtoepassing fungeert als de connector van Telegraf en ondersteunt de opname van gegevens uit vele typen invoerinvoegtoepassingen in uw database.
- Functionaliteit: Ingestion
- Opnametype ondersteund: Batchverwerking, streaming
- Gebruiksvoorbeelden: Telemetrie, logboeken, metrische gegevens
- Onderliggende SDK:Go
- Repository: InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Documentatie:Gegevens opnemen uit Telegraf
- CommunityBlog:Nieuwe invoegtoepassing voor Uitvoer van Azure Data Explorer voor Telegraf maakt SQL-bewaking op grote schaal mogelijk