Vue d’ensemble des intégrations
Il existe de nombreux connecteurs de données, outils et intégrations qui fonctionnent de manière transparente avec la plateforme pour l’ingestion, l’orchestration, la sortie et l’interrogation de données. Ce document est une vue d’ensemble des connecteurs, outils et intégrations disponibles. Des informations détaillées sont fournies pour chaque connecteur ainsi que des liens vers sa documentation complète.
Pour accéder aux pages de vue d’ensemble d’un type d’intégration spécifique, sélectionnez l’un des boutons suivants.
Tableaux de comparaison
Les tableaux suivants récapitulent les fonctionnalités de chaque élément. Sélectionnez l’onglet correspondant aux connecteurs ou aux outils et intégrations. Chaque nom d’élément est lié à sa description détaillée.
Le tableau suivant récapitule les connecteurs disponibles et leurs capacités :
Nom | Ingérer | Export | Orchestrer | Requête |
---|---|---|---|---|
Apache Kafka | ✔️ | |||
Apache Flink | ✔️ | |||
Apache Log4J 2 | ✔️ | |||
Apache Spark | ✔️ | ✔️ | ✔️ | |
Apache Spark pour Azure Synapse Analytics | ✔️ | ✔️ | ✔️ | |
Azure Cosmos DB | ✔️ | |||
Azure Data Factory. | ✔️ | ✔️ | ||
Azure Event Grid | ✔️ | |||
Azure Event Hubs | ✔️ | |||
Azure Functions | ✔️ | ✔️ | ||
Hubs Azure IoT | ✔️ | |||
Azure Stream Analytics | ✔️ | |||
Stream Cribl | ✔️ | |||
Fluent Bit | ✔️ | |||
JDBC | ✔️ | |||
Logic Apps | ✔️ | ✔️ | ✔️ | |
Logstash | ✔️ | |||
Matlab | ✔️ | |||
NLog | ✔️ | |||
ODBC | ✔️ | |||
OpenTelemetry | ✔️ | |||
Power Apps | ✔️ | ✔️ | ||
Power Automate | ✔️ | ✔️ | ✔️ | |
Serilog | ✔️ | |||
Splunk | ✔️ | |||
Splunk Universal Forwarder | ✔️ | |||
Telegraf | ✔️ |
Descriptions détaillées
Vous trouverez ci-dessous des descriptions détaillées des connecteurs, des outils et des intégrations. Sélectionnez l’onglet correspondant aux connecteurs ou aux outils et intégrations. Tous les éléments disponibles sont récapitulés dans les Tableaux de comparaison ci-dessus.
Apache Kafka
Apache Kafka est une plateforme de diffusion en continu distribuée qui permet la création de pipelines de données de diffusion en continu en temps réel, qui déplacent les données de façon fiable entre des systèmes ou des applications. Kafka Connect est un outil pour le streaming de données scalable et fiable entre Apache Kafka et d’autres systèmes de données. Le Kafka Sink sert de connecteur à partir de Kafka et ne demande aucune utilisation de code. Il s’agit d’une certification Gold par Confluent : il a fait l’objet d’un examen et de tests complets en termes de qualité, d’exhaustivité des fonctionnalités, de conformité aux normes et de performances.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : journaux d’activité, télémétrie, séries chronologiques
- SDK sous-jacent : Java
- Référentiel : Microsoft Azure - https://github.com/Azure/kafka-sink-azure-kusto/
- Documentation : Ingérer des données à partir d’Apache Kafka
- Blog de la communauté : Ingestion de Kafka dans Azure Data Explorer
Apache Flink
Apache Flink est une infrastructure et un moteur de traitement distribué pour les calculs avec état sur des flux de données non liés et limités. Le connecteur implémente le récepteur de données pour déplacer les données entre les clusters Azure Data Explorer et Spark. À l’aide d’Azure Data Explorer et d’Apache Flink, vous pouvez créer des applications rapides et évolutives ciblant des scénarios basés sur les données. Par exemple, les scénarios de machine learning (ML), les scénarios ETL et les scénarios Log Analytics.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : diffusion en continu
- Cas d’utilisation : télémétrie
- SDK sous-jacent : Java
- Référentiel : Microsoft Azure - https://github.com/Azure/flink-connector-kusto/
- Documentation : Ingérer des données à partir d’Apache Flink
Apache Log4J 2
Log4J est un framework de journalisation populaire pour les applications Java gérées par Apache Foundation. Log4j permet aux développeurs de contrôler les instructions de journal qui sont générées avec une granularité arbitraire en fonction du nom, du niveau d’enregistreur d’événements et du modèle de message du journal. Le récepteur Apache Log4J 2 vous permet de diffuser en continu vos données de journal dans votre base de données, où vous pouvez analyser et visualiser vos journaux en temps réel.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : journaux d’activité
- SDK sous-jacent : Java
- Référentiel : Microsoft Azure - https://github.com/Azure/azure-kusto-log4j
- Documentation : Ingérer des données avec le connecteur Apache Log4J 2
- Blog de la communauté : Bien démarrer avec Apache Log4J et Azure Data Explorer
Apache Spark
Apache Spark est un moteur d’analytique unifié pour le traitement des données à grande échelle. Le connecteur Spark est projet open source qui peut s’exécuter sur n’importe quel cluster Spark. Il implémente la source de données et le récepteur de données pour déplacer les données depuis ou vers les clusters Spark. À l’aide du connecteur Apache Spark, vous pouvez créer des applications rapides et évolutives ciblant des scénarios basés sur les données. Par exemple, les scénarios de machine learning (ML), les scénarios ETL et les scénarios Log Analytics. Avec le connecteur, votre base de données devient un magasin de données valide pour les opérations de source et de réception Spark standard, telles que write, read et writeStream.
- Fonctionnalité : ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : télémétrie
- SDK sous-jacent : Java
- Référentiel : Microsoft Azure - https://github.com/Azure/azure-kusto-spark/
- Documentation : Connecteur Apache Spark
- Blog de la communauté : Prétraitement de données pour Azure Data Explorer avec Apache Spark
Apache Spark pour Azure Synapse Analytics
Apache Spark est un cadre de traitement parallèle qui prend en charge le traitement en mémoire pour améliorer les performances des applications d’analytique du Big Data. Apache Spark dans Azure Synapse Analytics est l’une des implémentations Microsoft d’Apache Spark dans le cloud. Vous pouvez accéder à une base de données à partir de Synapse Studio avec Apache Spark pour Azure Synapse Analytics.
- Fonctionnalité : ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : télémétrie
- SDK sous-jacent : Java
- Documentation : Se connecter à un espace de travail Azure Synapse
Azure Cosmos DB
La connexion de données du flux de modification Azure Cosmos DB est un pipeline d’ingestion qui écoute votre flux de modification Cosmos DB, et ingère les données dans votre base de données.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’usage : Flux de modification
- Documentation : Ingérer des données à partir d’Azure Cosmos DB (préversion)
Azure Data Factory.
Azure Data Factory (ADF) est un service d’intégration de données basé sur le cloud qui vous permet d’intégrer différents magasins de données et d’effectuer des activités sur les données.
- Fonctionnalité : ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : orchestration des données
- Documentation : Copier des données dans votre base de données à l’aide d’Azure Data Factory
Azure Event Grid
L’ingestion Event Grid est un pipeline qui écoute le stockage Azure, et met à jour votre base de données pour extraire les informations quand des événements associés à des abonnements se produisent. Vous pouvez configurer l’ingestion continue à partir du service Stockage Azure (Stockage Blob et ADLSv2) avec un abonnement Azure Event Grid pour les notifications de création ou de renommage d’objets blob ainsi que pour le streaming de ces notifications via Azure Event Hubs.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : traitement des événements
- Documentation : Connexion de données Event Grid
Azure Event Hubs
Azure Event Hubs est une plateforme de streaming de Big Data et un service d’ingestion d’événements. Vous pouvez configurer l’ingestion continue à partir d’Event Hubs managés par le client.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Documentation : Connexion de données Azure Event Hubs
Azure Functions
Azure Functions vous permet d’exécuter du code serverless dans le cloud selon une planification ou en réponse à un événement. Avec des liaisons d’entrée et de sortie pour Azure Functions, vous pouvez intégrer votre base de données dans vos workflows pour ingérer des données et exécuter des requêtes sur votre base de données.
- Fonctionnalité : ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : intégrations de flux de travail
- Documentation : Intégration d’Azure Functions à l’aide de liaisons d’entrée et de sortie (préversion)
- Blog de la communauté : Liaisons Azure Data Explorer (Kusto) pour Azure Functions
Hubs Azure IoT
Azure IoT Hub est un service managé, hébergé dans le cloud, qui fait office de hub de messages central pour la communication bidirectionnelle entre votre application IoT et les appareils qu’il gère. Vous pouvez configurer l’ingestion continue à partir de hubs IoT Hub gérés par le client, en utilisant son point de terminaison intégré compatible Event Hubs des messages appareil-à-cloud.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’usage : données IoT
- Documentation : Connexion de données IoT Hub
Azure Stream Analytics
Azure Stream Analytics est un moteur de traitement des événements complexes et d’analyse en temps réel conçu pour traiter de grands volumes de données diffusées en Fast Streaming par plusieurs sources à la fois.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : traitement des événements
- Documentation : Ingérer des données à partir d’Azure Stream Analytics
Stream Cribl
Cribl Stream est un moteur de traitement qui collecte, traite et diffuse en continu et en toute sécurité les données d’événements de machine à partir de n’importe quelle source. Il vous permet d’analyser et de traiter ces données pour n’importe quelle destination à des fins d’analyse.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : traitement de données de machine, notamment les journaux d’activité, les métriques et les données d’instrumentation
- Documentation : Ingérer des données à partir de Cribl Stream dans Azure Data Explorer
Fluent Bit
Fluent Bit est un agent open-source qui collecte des logs, des métriques et des traces à partir de différentes sources. Il permet de filtrer, de modifier et d'agréger les données relatives aux événements avant de les envoyer au stockage.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots
- Cas d'utilisation : Journaux, mesures, traces
- Référentiel : Plug-in de sortie Kusto Fluent Bit
- Documentation : Ingérer des données avec Fluent Bit dans Azure Data Explorer
- Blog de la communauté : Bien démarrer avec Fluent Bit et Azure Data Explorer
JDBC
Java Database Connectivity (JDBC) est une API Java utilisée pour se connecter aux bases de données et exécuter des requêtes. Vous pouvez utiliser JDBC pour vous connecter à Azure Data Explorer.
- Fonctionnalité : requête, visualisation
- SDK sous-jacent : Java
- Documentation : Se connecter à Azure Data Explorer avec JDBC
Logic Apps
Le connecteur Microsoft Logic Apps vous permet d’exécuter automatiquement des requêtes et des commandes dans le cadre d’une tâche planifiée ou déclenchée.
- Fonctionnalité : ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : orchestration des données
- Documentation : Microsoft Logic Apps et Azure Data Explorer
Logstash
Le plug-in Logstash vous permet de traiter les événements de Logstash dans une base de données Azure Data Explorer à des fins d’analyse.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : journaux d’activité
- SDK sous-jacent : Java
- Référentiel : Microsoft Azure - https://github.com/Azure/logstash-output-kusto/
- Documentation : Ingérer des données à partir de Logstash
- Blog de la communauté : Comment migrer d’Elasticsearch vers Azure Data Explorer
Matlab
MATLAB est une plateforme de programmation et de calcul numérique, utilisée pour analyser des données, développer des algorithmes et créer des modèles. Vous pouvez obtenir un jeton d’autorisation dans MATLAB pour interroger vos données dans Azure Data Explorer.
- Fonctionnalité : requête
- Documentation : Interroger des données avec MATLAB
NLog
NLog est une plateforme de journalisation flexible et gratuite pour différentes plateformes .NET, notamment .NET standard. NLog vous permet d’écrire dans plusieurs cibles, telles qu’une base de données, un fichier ou une console. Avec NLog, vous pouvez modifier la configuration de journalisation à la volée. Le récepteur NLog est une cible pour NLog qui vous permet d’envoyer vos messages de journalisation à votre base de données. Le plug-in offre un moyen efficace de faire transiter vos journaux d’activité vers votre cluster.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : télémétrie, journaux d’activité, métriques
- SDK sous-jacent : .NET
- Référentiel : Microsoft Azure - https://github.com/Azure/azure-kusto-nlog-sink
- Documentation : Ingérer des données avec le récepteur NLog
- Blog de la communauté : Bien démarrer avec récepteur NLog et Azure Data Explorer
ODBC
L’interface Open Database Connectivity (ODBC) est une interface de programmation d’applications (API) largement acceptée pour l’accès à des bases de données. Azure Data Explorer est compatible avec un sous-ensemble du protocole de communication SQL Server (MS-TDS). Cette compatibilité permet l’utilisation du pilote ODBC pour SQL Server avec Azure Data Explorer.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : télémétrie, journaux d’activité, métriques
- Documentation : Se connecter à Azure Data Explorer avec ODBC
OpenTelemetry
Le connecteur OpenTelemetry prend en charge l’ingestion de données à partir de nombreux récepteurs dans votre base de données. Il fonctionne comme un pont pour ingérer les données générées par Open Telemetry dans votre base de données en personnalisant le format des données exportées en fonction de vos besoins.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : traces, métriques, journaux d’activité
- SDK sous-jacent : Go
- Référentiel : Open Telemetry - https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/exporter/azuredataexplorerexporter
- Documentation : Ingérer des données à partir de OpenTelemetry
- Blog de la communauté : Bien démarrer avec OpenTelemetry et Azure Data Explorer
Power Apps
Power Apps se compose d’une suite d’applications, de services, de connecteurs et d’une plateforme de données, qui fournit un environnement de développement rapide d’application pour créer des applications personnalisées qui se connectent à vos données métier. Le connecteur Power Apps est utile si vous disposez d’une collection importante et croissante de données de streaming dans Azure Data Explorer, et si vous souhaitez créer une application low-code hautement fonctionnelle pour utiliser ces données.
- Fonctionnalité : requête, ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots
- Documentation : Utilisez Power Apps pour interroger des données dans Azure Data Explorer
Power Automate
Power Automate est un service d’orchestration utilisé pour automatiser les processus d’entreprise. Le connecteur Power Automate (précédemment Microsoft Flow) vous permet d’orchestrer et de planifier des flux, d’envoyer des notifications et des alertes, dans le cadre d’une tâche planifiée ou déclenchée.
- Fonctionnalité : ingestion, exportation
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : orchestration des données
- Documentation : Connecteur Microsoft Power Automate
Serilog
Serilog est un framework de journalisation populaire pour les applications .NET. Serilog permet aux développeurs de contrôler les instructions de journal qui sont sorties avec une granularité arbitraire en fonction du nom, du niveau d’enregistreur d’événements et du modèle de message du journal. Le récepteur Serilog, également appelé appender, diffuse en continu vos données de journal dans votre base de données, où vous pouvez analyser et visualiser vos journaux en temps réel.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : journaux d’activité
- SDK sous-jacent : .NET
- Référentiel : Microsoft Azure - https://github.com/Azure/serilog-sinks-azuredataexplorer
- Documentation : Ingérer des données avec le récepteur Serilog
- Blog de la communauté : Bien démarrer avec récepteur Serilog et Azure Data Explorer
Splunk
Splunk Enterprise est une plateforme logicielle qui vous permet d’ingérer des données de nombreuses sources simultanément. L’extension Azure Data Explorer envoie des données de Splunk à une table de votre cluster.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : journaux d’activité
- SDK sous-jacent : Python
- Référentiel : Microsoft Azure - https://github.com/Azure/azure-kusto-splunk/tree/main/splunk-adx-alert-addon
- Documentation : Ingérer des données à partir de Splunk
- Splunkbase : Module complémentaire Microsoft Azure Data Explorer pour Splunk
- Blog de la communauté : Bien démarrer avec le module complémentaire Microsoft Azure Data Explorer pour Splunk
Splunk Universal Forwarder
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots
- Cas d’utilisation : journaux d’activité
- Référentiel : Microsoft Azure - https://github.com/Azure/azure-kusto-splunk
- Documentation : Ingérer des données de Splunk Universal Forwarder vers Azure Data Explorer
- Blog de la communauté : Ingérer des données à l’aide de Splunk Universal Forwarder dans Azure Data Explorer
Telegraf
Telegraf est un agent open source, léger et à empreinte mémoire minimale pour la collecte, le traitement et l'écriture de données de télémétrie, y compris les journaux, les métriques et les données IoT. Telegraf prend en charge des centaines de plug-ins d'entrée et de sortie. Il est largement utilisé et accepté par la communauté open source. Le plug-in de sortie sert de connecteur depuis Telegraf et prend en charge l’ingestion de données provenant de nombreux types de plug-ins d’entrée dans votre base de données.
- Fonctionnalité : ingestion
- Type d’ingestion pris en charge : traitement par lots, diffusion en continu
- Cas d’utilisation : télémétrie, journaux d’activité, métriques
- SDK sous-jacent : Go
- Référentiel : InfluxData - https://github.com/influxdata/telegraf/tree/master/plugins/outputs/azure_data_explorer
- Documentation : Ingérer des données à partir de Telegraf
- Blog de la communauté : Le nouveau plug-in de sortie Azure Data Explorer pour Telegraf permet d’utiliser SQL Monitoring à grande échelle