Delen via


Overzicht van Integraties

Er zijn veel gegevensconnectors, hulpprogramma's en integraties die naadloos samenwerken met het platform voor opname, indeling, uitvoer en gegevensquery's. Dit document bevat een overzicht op hoog niveau van de beschikbare connectors, hulpprogramma's en integraties. Er wordt gedetailleerde informatie verstrekt voor elke connector, samen met koppelingen naar de volledige documentatie.

Selecteer een van de volgende knoppen voor overzichtspagina's over een specifiek type integratie.

Vergelijkingstabellen

De volgende tabellen bevatten een overzicht van de mogelijkheden van elk item. Selecteer het tabblad dat overeenkomt met connectors of hulpprogramma's en integraties. Elke itemnaam is gekoppeld aan de gedetailleerde beschrijving.

De volgende tabel bevat een overzicht van de beschikbare connectors en hun mogelijkheden:

Name Opnemen Exporteren Organiseren Query’s uitvoeren
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark voor Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Azure IoT Hubs ✔️
Azure Stream Analytics ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
Telemetrie openen ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf ✔️

Gedetailleerde beschrijvingen

Hier volgen gedetailleerde beschrijvingen van connectors, hulpprogramma's en integraties. Selecteer het tabblad dat overeenkomt met connectors of hulpprogramma's en integraties. Alle beschikbare items worden samengevat in de bovenstaande vergelijkingstabellen .

Apache Kafka

Apache Kafka is een gedistribueerd streamingplatform voor het bouwen van pijplijnen voor realtime streaminggegevens waarmee gegevens betrouwbaar tussen systemen of toepassingen worden verplaatst. Kafka Connect is een hulpprogramma voor schaalbare en betrouwbare streaming van gegevens tussen Apache Kafka en andere gegevenssystemen. De Kafka-sink fungeert als de connector van Kafka en vereist geen code. Dit is goud gecertificeerd door Confluent - heeft uitgebreide beoordeling en tests ondergaan op kwaliteit, volledigheid van functies, naleving van standaarden en prestaties.

Apache Flink is een framework en gedistribueerde verwerkingsengine voor stateful berekeningen voor niet-afhankelijke en gebonden gegevensstromen. De connector implementeert gegevenssink voor het verplaatsen van gegevens tussen Azure Data Explorer- en Flink-clusters. Met Behulp van Azure Data Explorer en Apache Flink kunt u snelle en schaalbare toepassingen bouwen die zijn gericht op gegevensgestuurde scenario's. Bijvoorbeeld machine learning (ML), Extract-Transform-Load (ETL) en Log Analytics.

Apache Log4J 2

Log4J is een populair logboekregistratieframework voor Java-toepassingen die worden onderhouden door de Apache Foundation. Met Log4j kunnen ontwikkelaars bepalen welke logboekinstructies worden uitgevoerd met willekeurige granulariteit op basis van de naam, het logboekniveau en het berichtpatroon van de logboekregistratie. Met de Apache Log4J 2-sink kunt u uw logboekgegevens streamen naar uw database, waar u uw logboeken in realtime kunt analyseren en visualiseren.

Apache Spark

Apache Spark is een geïntegreerde analyse-engine voor gegevensverwerking op grote schaal. De Spark-connector is een open source project dat op elk Spark-cluster kan worden uitgevoerd. Hiermee worden gegevensbronnen en gegevenssink geïmplementeerd voor het verplaatsen van gegevens naar of van Spark-clusters. Met behulp van de Apache Spark-connector kunt u snelle en schaalbare toepassingen bouwen die zijn gericht op gegevensgestuurde scenario's. Bijvoorbeeld machine learning (ML), Extract-Transform-Load (ETL) en Log Analytics. Met de connector wordt uw database een geldig gegevensarchief voor standaard spark-bron- en sinkbewerkingen, zoals lezen, schrijven en writeStream.

Apache Spark voor Azure Synapse Analytics

Apache Spark is een framework voor parallelle verwerking dat ondersteuning biedt voor verwerking in het geheugen om de prestaties van big data-analysetoepassingen te verbeteren. Apache Spark in Azure Synapse Analytics is een van de microsoft-implementaties van Apache Spark in de cloud. U hebt toegang tot een database vanuit Synapse Studio met Apache Spark voor Azure Synapse Analytics.

Azure Cosmos DB

De gegevensverbinding met de Azure Cosmos DB-wijzigingenfeed is een opnamepijplijn die luistert naar uw Cosmos DB-wijzigingenfeed en de gegevens opneemt in uw database.

Azure Data Factory

Azure Data Factory (ADF) is een cloudservice voor gegevensintegratie waarmee u verschillende gegevensarchieven kunt integreren en activiteiten kunt uitvoeren op de gegevens.

Azure Event Grid

Event Grid-opname is een pijplijn die luistert naar Azure Storage en die uw database bijwerkt om gegevens op te halen wanneer er zich geabonneerde gebeurtenissen voordoen. U kunt continue opname vanuit Azure Storage (Blob Storage en ADLSv2) configureren met een Azure Event Grid-abonnement voor meldingen die zijn gemaakt met een blob of een andere blob en het streamen van de meldingen via Azure Event Hubs.

  • Functionaliteit: Ingestion
  • Ondersteund opnametype: Batchverwerking, streaming
  • Gebruiksvoorbeelden: Gebeurtenisverwerking
  • Documentatie:Event Grid-gegevensverbinding

Azure Event Hubs

Azure Event Hubs is een platform voor het streamen van big data en een service voor gebeurtenisopname. U kunt continue opname configureren vanuit door de klant beheerde Event Hubs.

Azure Functions

met Azure Functions kunt u serverloze code in de cloud uitvoeren volgens een schema of als reactie op een gebeurtenis. Met invoer- en uitvoerbindingen voor Azure Functions kunt u uw database integreren in uw werkstromen om gegevens op te nemen en query's uit te voeren op uw database.

Azure IoT Hubs

Azure IoT Hub is een beheerde service, gehost in de cloud, die fungeert als een centrale berichtenhub voor bidirectionele communicatie tussen uw IoT-toepassing en de apparaten die deze beheert. U kunt continue opname van door de klant beheerde IoT Hubs configureren met behulp van het ingebouwde eindpunt van apparaat-naar-cloud-berichten die compatibel zijn met Event Hubs.

  • Functionaliteit: Ingestion
  • Ondersteund opnametype: Batchverwerking, streaming
  • Gebruiksvoorbeelden: IoT-gegevens
  • Documentatie:IoT Hub gegevensverbinding

Azure Stream Analytics

Azure Stream Analytics is een engine voor realtime analyse en complexe gebeurtenisverwerking die is ontworpen om grote hoeveelheden snelle streaminggegevens uit meerdere bronnen tegelijk te verwerken.

Fluent Bit

Fluent Bit is een opensource-agent die logboeken, metrische gegevens en traceringen uit verschillende bronnen verzamelt. Hiermee kunt u gebeurtenisgegevens filteren, wijzigen en aggregeren voordat u deze naar de opslag verzendt.

JDBC

Java Database Connectivity (JDBC) is een Java-API die wordt gebruikt om verbinding te maken met databases en query's uit te voeren. U kunt JDBC gebruiken om verbinding te maken met Azure Data Explorer.

Logic Apps

Met de Microsoft Logic Apps-connector kunt u query's en opdrachten automatisch uitvoeren als onderdeel van een geplande of geactiveerde taak.

Logstash

Met de Logstash-invoegtoepassing kunt u gebeurtenissen van Logstash verwerken in een Azure Data Explorer-database voor latere analyse.

Matlab

MATLAB is een programmeer- en numeriek computingplatform dat wordt gebruikt voor het analyseren van gegevens, het ontwikkelen van algoritmen en het maken van modellen. U kunt een autorisatietoken ophalen in MATLAB voor het uitvoeren van query's op uw gegevens in Azure Data Explorer.

NLog

NLog is een flexibel en gratis logboekregistratieplatform voor verschillende .NET-platforms, waaronder .NET Standard. Met NLog kunt u naar verschillende doelen schrijven, zoals een database, bestand of console. Met NLog kunt u de logboekconfiguratie on-the-fly wijzigen. De NLog-sink is een doel voor NLog waarmee u uw logboekberichten naar uw database kunt verzenden. De invoegtoepassing biedt een efficiënte manier om uw logboeken naar uw cluster te sinken.

ODBC

Open Database Connectivity (ODBC) is een algemeen geaccepteerde Api (Application Programming Interface) voor databasetoegang. Azure Data Explorer is compatibel met een subset van het SQL Server communication protocol (MS-TDS). Deze compatibiliteit maakt het gebruik van het ODBC-stuurprogramma mogelijk voor SQL Server met Azure Data Explorer.

Telemetrie openen

De OpenTelemetry-connector ondersteunt de opname van gegevens van veel ontvangers in uw database. Het werkt als een brug om gegevens op te nemen die zijn gegenereerd door Open telemetrie in uw database door de indeling van de geëxporteerde gegevens aan te passen aan uw behoeften.

Power Apps

Power Apps is een suite met apps, services, connectors en gegevensplatforms die een snelle ontwikkelomgeving voor toepassingen biedt voor het bouwen van aangepaste apps die verbinding maken met uw zakelijke gegevens. De Power Apps-connector is handig als u een grote en groeiende verzameling streaminggegevens in Azure Data Explorer hebt en een zeer functionele app met weinig code wilt bouwen om gebruik te maken van deze gegevens.

Power Automate

Power Automate is een indelingsservice die wordt gebruikt voor het automatiseren van bedrijfsprocessen. Met de Power Automate connector (voorheen Microsoft Flow) kunt u stromen organiseren en plannen, meldingen en waarschuwingen verzenden als onderdeel van een geplande of geactiveerde taak.

Serilog

Serilog is een populair framework voor logboekregistratie voor .NET-toepassingen. Met Serilog kunnen ontwikkelaars bepalen welke logboekinstructies worden uitgevoerd met willekeurige granulariteit op basis van de naam, het logboekniveau en het berichtpatroon van de logboekregistratie. De Serilog-sink, ook wel een appender genoemd, streamt uw logboekgegevens naar uw database, waar u uw logboeken in realtime kunt analyseren en visualiseren.

Splunk

Splunk Enterprise is een softwareplatform waarmee u gegevens uit veel bronnen tegelijk kunt opnemen. De invoegtoepassing Azure Data Explorer verzendt gegevens van Splunk naar een tabel in uw cluster.

Splunk Universal Forwarder

Telegraf

Telegraf is een open source, lichtgewicht, minimale geheugenprintagent voor het verzamelen, verwerken en schrijven van telemetriegegevens, waaronder logboeken, metrische gegevens en IoT-gegevens. Telegraf ondersteunt honderden invoegtoepassingen voor invoer en uitvoer. Het wordt veel gebruikt en goed ondersteund door de open source community. De uitvoerinvoegtoepassing fungeert als de connector van Telegraf en ondersteunt de opname van gegevens uit vele typen invoerinvoegtoepassingen in uw database.