Übersicht über Integrationen
Es gibt viele Datenconnectors, Tools und Integrationen, die nahtlos mit der Plattform für Aufnahme, Orchestrierung, Ausgabe und Datenabfrage funktionieren. Dieses Dokument ist eine allgemeine Übersicht über die verfügbaren Connectors, Tools und Integrationen. Detaillierte Informationen werden für jeden Connector zusammen mit Links zu seiner vollständigen Dokumentation bereitgestellt.
Wenn Sie Übersichtsseiten für einen bestimmten Integrationstyp anzeigen möchten, wählen Sie eine der folgenden Schaltflächen aus.
Vergleichstabellen
In den folgenden Tabellen sind die Funktionen der einzelnen Elemente zusammengefasst. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Jeder Elementname ist mit seiner detaillierten Beschreibung verknüpft.
Die folgende Tabelle enthält eine Übersicht über die verfügbaren Konnektors und ihre Funktionen:
Name | Erfassen | Exportieren | Orchestrieren | Abfrage |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark für Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure-Funktionen | ✔️ | ✔️ | ||
Azure IoT Hubs | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Cribl Stream | ✔️ | |||
Fluent Bit | ✔️ | |||
JDBC | ✔️ | |||
Logic Apps | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
Open Telemetry | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf- | ✔️ |
Detaillierte Beschreibungen
Im Folgenden finden Sie detaillierte Beschreibungen von Connectors und Tools und Integrationen. Wählen Sie die Registerkarte für Connectors oder Tools und Integrationen aus. Alle verfügbaren Elemente werden in den obigen Vergleichstabellen zusammengefasst.
Apache Kafka
Apache Kafka ist eine verteilte Streamingplattform zum Erstellen von Echzeitstreaming-Datenpipelines, mit denen Daten auf zuverlässige Weise zwischen Systemen oder Anwendungen verschoben werden. Kafka Connect ist ein Tool zum skalierbaren und zuverlässigen Streamen von Daten zwischen Apache Kafka und anderen Datensystemen. Die Kafka-Senke dient als Konnektor für Kafka und erfordert keine Verwendung von Code. Von Confluent als „Gold Certified“ ausgezeichnet – Qualität, Vollständigkeit der Features, Einhaltung von Standards und Leistung wurden umfassend geprüft und getestet.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Protokolle, Telemetrie, Zeitreihen
- Zugrunde liegendes SDK: Java
- Repository: Microsoft Azure – https://github.com/Azure/kafka-sink-azure-kusto/
- Dokumentation: Aufnehmen von Daten aus Apache Kafka
- Communityblog: Kafka-Erfassung in Azure Data Explorer
Apache Flink
Apache Flink ist ein Framework und verteiltes Verarbeitungsmodul für zustandsbehaftete Berechnungen über ungebundene und gebundene Datenströme. Der Konnektor implementiert Datensenken zum Verschieben von Daten zwischen Azure Data Explorer und Flink-Clustern. Mit Azure Data Explorer und Apache Flink können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics).
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Streaming
- Anwendungsfälle: Telemetrie
- Zugrunde liegendes SDK: Java
- Repository: Microsoft Azure – https://github.com/Azure/flink-connector-kusto/
- Dokumentation: Erfassung von Daten aus Apache Flink
Apache Log4J 2
Log4J ist ein von der Apache Foundation unterstütztes beliebtes Protokollierungsframework für Java-Anwendungen. Mit Log4j können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Mit der Apache Log4J 2-Senke können Sie Ihre Protokolldaten in Ihre Datenbank streamen und sie dort in Echtzeit analysieren und visualisieren.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Protokolle
- Zugrunde liegendes SDK: Java
- Repository: Microsoft Azure – https://github.com/Azure/azure-kusto-log4j
- Dokumentation: Erfassung von Daten mit dem Apache Log4J 2-Connector
- Communityblog: Erste Schritte mit Apache Log4J und Azure Data Explorer
Apache Spark
Apache Spark ist eine vereinheitlichte Engine zur Verarbeitung von umfangreichen Daten. Der Spark-Konnektor ist ein Open-Source-Projekt, das auf jedem Spark-Cluster ausgeführt werden kann. Er implementiert Datenquellen und Datensenken zum Verschieben von Daten zu oder aus Spark-Clustern. Mit dem Apache Spark-Konnektor können Sie schnelle und skalierbare Anwendungen für datengesteuerte Szenarien erstellen. Beispiele dafür sind maschinelles Lernen (Machine Learning, ML), Extrahieren, Transformieren und Laden (Extract-Transform-Load, ETL) und Protokollanalysen (Log Analytics). Durch den Konnektor wird Ihre Datenbank ein gültiger Datenspeicher für Spark-Standardvorgänge für Quellen und Senken wie „read“, „write“ und „writeStream“.
- Funktionalität: Datenerfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Telemetrie
- Zugrunde liegendes SDK: Java
- Repository: Microsoft Azure – https://github.com/Azure/azure-kusto-spark/
- Dokumentation: Apache Spark Connector
- Communityblog: Datenvorverarbeitung für Azure Data Explorer für Azure Data Explorer mit Apache Spark
Apache Spark für Azure Synapse Analytics
Apache Spark ist ein Framework für die Parallelverarbeitung, das In-Memory-Verarbeitung unterstützt, um die Leistung von Big Data-Analyseanwendungen zu steigern. Apache Spark in Azure Synapse Analytics ist eine der cloudbasierten Apache Spark-Implementierungen von Microsoft. Sie können von Synapse Studio aus mit Apache Spark für Azure Synapse Analytics auf eine Datenbank zugreifen.
- Funktionalität: Datenerfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Telemetrie
- Zugrunde liegendes SDK: Java
- Dokumentation: Herstellen einer Verbindung mit einem Azure Synapse-Arbeitsbereich
Azure Cosmos DB
Die Azure Cosmos DB-Änderungsfeed-Datenverbindung ist eine Erfassungspipeline, die Ihrem Cosmos DB-Änderungsfeed lauscht und die Daten in Ihrer Datenbank erfasst.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Feed ändern
- Dokumentation: Erfassung von Daten aus Azure Cosmos DB (Vorschau)
Azure Data Factory
Azure Data Factory (ADF) ist ein cloudbasierter Datenintegrationsdienst, der die Integration verschiedener Datenspeicher und die Durchführung von Aktivitäten für die Daten ermöglicht.
- Funktionalität: Datenerfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Daten-Orchestrierung
- Dokumentation: Kopieren von Daten in Ihre Datenbank mithilfe von Azure Data Factory
Azure Event Grid
Die Event Grid-Erfassung ist eine Pipeline, die auf Azure Storage lauscht und Ihre Datenbank aktualisiert, um Informationen zu pullen, wenn abonnierte Ereignisse auftreten. Sie können eine kontinuierliche Erfassung aus dem Azure-Speicher (Blobspeicher und ADLSv2) mit einem Azure-Event-Grid-Abonnement für Blob-generierte oder von einem Blob umbenannte Benachrichtigungen konfigurieren und die Benachrichtigungen über Azure Event Hubs streamen.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Ereignisverarbeitung
- Dokumentation: Event Grid-Datenverbindung
Azure Event Hubs
Bei Azure Event Hubs handelt es sich um eine Big Data-Streamingplattform und einen Ereigniserfassungsdienst. Sie können die kontinuierliche Datenerfassung aus von vom Kunden verwalteten Event Hubs konfigurieren.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Dokumentation: Azure Event Hubs-Datenverbindung
Azure-Funktionen
Mit Azure Functions können Sie serverlosen Code in der Cloud nach einem Zeitplan oder als Reaktion auf ein Ereignis ausführen. Mit Eingabe- und Ausgabebindungen für Azure Functions können Sie Ihre Datenbank in Ihre Workflows integrieren, um Daten zu erfassen und Abfragen für Ihre Datenbank auszuführen.
- Funktionalität: Datenerfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Workflowintegrationen
- Dokumentation: Integrieren von Azure Functions mithilfe von Eingabe- und Ausgabebindungen (Vorschau)
- Communityblog: Azure Data Explorer (Kusto) Bindungen für Azure Functions
Azure IoT Hubs
Azure IoT Hub ist ein in der Cloud gehosteter, verwalteter Dienst, der als zentraler Nachrichtenhub für die bidirektionale Kommunikation zwischen Ihrer IoT-Anwendung und den von ihr verwalteten Geräten dient. Sie können die kontinuierliche Aufnahme von vom Kunden verwalteten IoT Hubs konfigurieren, indem Sie die Event Hubs verwenden, die in Endpunkt von Geräte-zu-Cloud-Nachrichten integriert sind.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: IoT-Daten
- Dokumentation: IoT Hub-Datenverbindung
Azure Stream Analytics
Azure Stream Analytics ist eine Engine für Echtzeitanalyse und die komplexe Ereignisverarbeitung, die entwickelt wurde, um große Mengen schneller Streamingdaten aus mehreren Quellen gleichzeitig zu verarbeiten.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Ereignisverarbeitung
- Dokumentation: Aufnehmen von Daten aus Azure Stream Analytics
Cribl Stream
Cribl Stream ist eine Verarbeitungs-Engine, die Computerereignisdaten aus jeder Quelle auf sichere Weise sammelt, verarbeitet und streamt. Sie können diese Daten für jedes Ziel analysieren und verarbeiten.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Maschinendatenverarbeitung, einschließlich Protokolle, Metriken, Instrumentierungsdaten
- Dokumentation: Erfassen von Daten aus Cribl Stream in Azure Data Explorer
Fluent Bit
Fluent Bit ist ein Open Source-Agent, der Protokolle, Metriken und Ablaufverfolgungen aus verschiedenen Quellen sammelt. Es ermöglicht Ihnen, Ereignisdaten zu filtern, zu ändern und zu aggregieren, bevor Sie sie an den Speicher senden.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Protokolle, Metriken, Ablaufverfolgungen
- Repository: fluent-bit Kusto Output Plugin
- Dokumentation: Erfassung von Daten mit Fluent Bit in Azure Data Explorer
- Communityblog: Erste Schritte mit Fluent Bit und Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) ist eine Java-API, die zum Herstellen einer Verbindung mit Datenbanken und zum Ausführen von Abfragen verwendet wird. Sie können JDBC verwenden, um eine Verbindung mit Azure Data Explorer herzustellen.
- Funktionalität: Abfrage, Visualisierung
- Zugrunde liegendes SDK: Java
- Dokumentation: Herstellung einer Verbindung mit Azure Data Explorer mit JDBC
Logic Apps
Mit dem Microsoft Logic Apps-Connector können Sie Abfragen und Befehle automatisch als Teil einer geplanten oder ausgelösten Aufgabe ausführen.
- Funktionalität: Datenerfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Daten-Orchestrierung
- Dokumentation: Microsoft Logic Apps und Azure Data Explorer
Logstash
Mit dem Logstash-Plug-In können Sie Ereignisse von Logstash in einer Azure Data Explorer-Datenbank zur späteren Analyse verarbeiten.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Protokolle
- Zugrunde liegendes SDK: Java
- Repository: Microsoft Azure – https://github.com/Azure/logstash-output-kusto/
- Dokumentation: Aufnehmen von Daten aus Logstash
- Communityblog: Migrieren von Elasticsearch zu Azure Data Explorer
Matlab
MATLAB ist eine Programmier- und Numerische Computerplattform, die verwendet wird, um Daten zu analysieren, Algorithmen zu entwickeln und Modelle zu erstellen. Sie können ein Autorisierungstoken in MATLAB zum Abfragen Ihrer Daten im Azure Data Explorer abrufen.
- Funktionalität: Abfrage
- Dokumentation: Abfragen von Daten mithilfe von MATLAB
NLog
NLog ist eine flexible und kostenlose Protokollierungsplattform für verschiedene .NET-Plattformen wie z.B. .NET-Standard. Mit NLog können Sie in mehrere Ziele schreiben, z.B. in eine Datenbank, Datei oder Konsole. Mit NLog können Sie die Protokollierungskonfiguration spontan ändern. Die NLog-Senke ist ein Ziel für NLog, über das Sie Ihre Protokollnachrichten an Ihre Datenbank senden können. Mit dem Plug-In können Sie Ihre Protokolle effizient an Ihren Cluster weiterleiten.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Telemetrie, Protokolle, Metriken
- Zugrunde liegendes SDK: .NET
- Repository: Microsoft Azure – https://github.com/Azure/azure-kusto-nlog-sink
- Dokumentation: Erfassung von Daten mit der NLog-Senke
- Communityblog: Erste Schritte mit NLog Sink und Azure Data Explorer
ODBC
Die Open Database Connectivity (ODBC) ist eine weit verbreitete Anwendungsprogrammierschnittstelle (API) für Datenbankzugriff. Azure Data Explorer ist mit einer Teilmenge des SQL Server-Kommunikationsprotokolls (MS-TDS) kompatibel. Diese Kompatibilität ermöglicht die Verwendung des ODBC-Treibers für SQL Server mit Azure Data Explorer.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Telemetrie, Protokolle, Metriken
- Dokumentation: Herstellung einer Verbindung mit Azure Data Explorer mit ODBC
Open Telemetry
Der OpenTelemetry-Konnektor unterstützt die Erfassung von Daten von zahlreichen Empfängern in Ihre Datenbank. Er fungiert als Brücke für die Erfassung der von Open Telemetry generierten Daten in Ihrer Datenbank durch Anpassen des Formats der exportierten Daten entsprechend Ihren Anforderungen.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Ablaufverfolgungen, Metriken, Protokolle
- Zugrunde liegendes SDK: Go
- Repository: Open Telemetry – https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Dokumentation: Aufnehmen von Daten aus OpenTelemetry
- Communityblog: Erste Schritte mit Open Telemetry und Azure Data Explorer
Power Apps
Bei Power Apps handelt es sich um eine Suite von Apps, Diensten, Connectors und Datenplattformen, die eine Umgebung für die schnelle Anwendungsentwicklung zum Erstellen benutzerdefinierter Apps bereitstellt, die Ihre Geschäftsdaten verbinden. Der Power Apps-Connector ist nützlich, wenn Sie über eine große und wachsende Sammlung von Streamingdaten in Azure Data Explorer verfügen und eine funktionsreiche App mit wenig Code erstellen möchten, um diese Daten nutzen zu können.
- Funktionalität: Abfrage, Erfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung
- Dokumentation: Verwenden von Power Apps zum Abfragen von Daten im Azure Data Explorer
Power Automate
Power Automate ist ein Orchestrierungsdienst zum Automatisieren von Unternehmensabläufen. Der Konnektor für Power Automate (zuvor Microsoft Flow) ermöglicht es Ihnen, Abläufe zu orchestrieren und zu planen, Benachrichtigungen und Warnungen als Teil eines geplanten oder ausgelösten Vorgangs zu koordinieren und zu planen.
- Funktionalität: Datenerfassung, Export
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Daten-Orchestrierung
- Dokumentation: Microsoft Power Automate-Connector
Serilog
Serilog ist ein beliebtes Protokollierungsframework für .NET-Anwendungen. Mit Serilog können Entwickler steuern, welche Protokollanweisungen ausgehend vom Namen der Protokollierung, der Protokollierungsebene und dem Nachrichtenmuster mit beliebiger Granularität ausgegeben werden sollen. Die Serilog-Senke, auch als Appender bekannt, streamt Ihre Protokolldaten in Ihre Datenbank, wo Sie Ihre Protokolle in Echtzeit analysieren und visualisieren können.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Protokolle
- Zugrunde liegendes SDK: .NET
- Repository: Microsoft Azure – https://github.com/Azure/serilog-sinks-azuredataexplorer
- Dokumentation: Erfassung von Daten mit der Serilog-Senke
- Communityblog: Erste Schritte mit der Serilog-Senke und Azure Data Explorer
Splunk
Splunk Enterprise ist eine Softwareplattform, mit der Sie Daten aus vielen Quellen gleichzeitig erfassen können. Das Azure Data Explorer-Add-On sendet Daten von Splunk zu einer Tabelle in Ihrem Cluster.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Protokolle
- Zugrunde liegendes SDK: Python
- Repository: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Dokumentation: Erfassung von Daten aus Splunk
- Splunk Base: Microsoft Azure Data Explorer Add-On für Splunk
- Communityblog: Erste Schritte mit dem Microsoft Azure Data Explorer-Add-On für Splunk
Splunk Universal Forwarder
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung
- Anwendungsfälle: Protokolle
- Repository: Microsoft Azure – https://github.com/Azure/azure-kusto-splunk
- Dokumentation: Erfassung von Daten aus der universellen Weiterleitung von Splunk an Azure Data Explorer
- Communityblog: Erfassung von Daten mithilfe der Splunk Universal-Weiterleitung in Azure Data Explorer
Telegraf-
Telegraf ist ein leicht, minimaler Open Source-Speicherfußdruck-Agent zum Sammeln, Verarbeiten und Schreiben von Telemetriedaten, einschließlich Protokollen, Metriken und IoT-Daten. Telegraf unterstützt Hunderte von Eingabe- und Ausgabe-Plugins. Es wird von der Open Source Community häufig verwendet und gut unterstützt. Das Ausgabe-Plug-In dient als Konnektor von Telegraf und unterstützt die Erfassung von Daten von vielen Arten von Eingabe-Plug-Ins in Ihre Datenbank.
- Funktionalität: Datenerfassung
- Unterstützter Erfassungstyp: Batchverarbeitung, Streaming
- Anwendungsfälle: Telemetrie, Protokolle, Metriken
- Zugrunde liegendes SDK: Go
- Repository: InfluxData – https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Dokumentation: Aufnehmen von Daten von Telegraf
- Communityblog: Neues Ausgabe-Plug-In für Azure Data Explorer für Telegraf ermöglicht die SQL-Überwachung im großen Maßstab