Partager via


Vue d’ensemble des intégrations

Il existe de nombreux connecteurs de données, outils et intégrations qui fonctionnent de manière transparente avec la plateforme pour l’ingestion, l’orchestration, la sortie et l’interrogation de données. Ce document est une vue d’ensemble des connecteurs, outils et intégrations disponibles. Des informations détaillées sont fournies pour chaque connecteur ainsi que des liens vers sa documentation complète.

Pour accéder aux pages de vue d’ensemble d’un type d’intégration spécifique, sélectionnez l’un des boutons suivants.

Tableaux de comparaison

Les tableaux suivants récapitulent les fonctionnalités de chaque élément. Sélectionnez l’onglet correspondant aux connecteurs ou aux outils et intégrations. Chaque nom d’élément est lié à sa description détaillée.

Le tableau suivant récapitule les connecteurs disponibles et leurs capacités :

Nom Ingérer Export Orchestrer Requête
Apache Kafka ✔️
Apache Flink ✔️
Apache Log4J 2 ✔️
Apache Spark ✔️ ✔️ ✔️
Apache Spark pour Azure Synapse Analytics ✔️ ✔️ ✔️
Azure Cosmos DB ✔️
Azure Data Factory. ✔️ ✔️
Azure Event Grid ✔️
Azure Event Hubs ✔️
Azure Functions ✔️ ✔️
Hubs Azure IoT ✔️
Azure Stream Analytics ✔️
Stream Cribl ✔️
Fluent Bit ✔️
JDBC ✔️
Logic Apps ✔️ ✔️ ✔️
Logstash ✔️
Matlab ✔️
NLog ✔️
ODBC ✔️
OpenTelemetry ✔️
Power Apps ✔️ ✔️
Power Automate ✔️ ✔️ ✔️
Serilog ✔️
Splunk ✔️
Splunk Universal Forwarder ✔️
Telegraf ✔️

Descriptions détaillées

Vous trouverez ci-dessous des descriptions détaillées des connecteurs, des outils et des intégrations. Sélectionnez l’onglet correspondant aux connecteurs ou aux outils et intégrations. Tous les éléments disponibles sont récapitulés dans les Tableaux de comparaison ci-dessus.

Apache Kafka

Apache Kafka est une plateforme de diffusion en continu distribuée qui permet la création de pipelines de données de diffusion en continu en temps réel, qui déplacent les données de façon fiable entre des systèmes ou des applications. Kafka Connect est un outil pour le streaming de données scalable et fiable entre Apache Kafka et d’autres systèmes de données. Le Kafka Sink sert de connecteur à partir de Kafka et ne demande aucune utilisation de code. Il s’agit d’une certification Gold par Confluent : il a fait l’objet d’un examen et de tests complets en termes de qualité, d’exhaustivité des fonctionnalités, de conformité aux normes et de performances.

Apache Flink est une infrastructure et un moteur de traitement distribué pour les calculs avec état sur des flux de données non liés et limités. Le connecteur implémente le récepteur de données pour déplacer les données entre les clusters Azure Data Explorer et Spark. À l’aide d’Azure Data Explorer et d’Apache Flink, vous pouvez créer des applications rapides et évolutives ciblant des scénarios basés sur les données. Par exemple, les scénarios de machine learning (ML), les scénarios ETL et les scénarios Log Analytics.

Apache Log4J 2

Log4J est un framework de journalisation populaire pour les applications Java gérées par Apache Foundation. Log4j permet aux développeurs de contrôler les instructions de journal qui sont générées avec une granularité arbitraire en fonction du nom, du niveau d’enregistreur d’événements et du modèle de message du journal. Le récepteur Apache Log4J 2 vous permet de diffuser en continu vos données de journal dans votre base de données, où vous pouvez analyser et visualiser vos journaux en temps réel.

Apache Spark

Apache Spark est un moteur d’analytique unifié pour le traitement des données à grande échelle. Le connecteur Spark est projet open source qui peut s’exécuter sur n’importe quel cluster Spark. Il implémente la source de données et le récepteur de données pour déplacer les données depuis ou vers les clusters Spark. À l’aide du connecteur Apache Spark, vous pouvez créer des applications rapides et évolutives ciblant des scénarios basés sur les données. Par exemple, les scénarios de machine learning (ML), les scénarios ETL et les scénarios Log Analytics. Avec le connecteur, votre base de données devient un magasin de données valide pour les opérations de source et de réception Spark standard, telles que write, read et writeStream.

Apache Spark pour Azure Synapse Analytics

Apache Spark est un cadre de traitement parallèle qui prend en charge le traitement en mémoire pour améliorer les performances des applications d’analytique du Big Data. Apache Spark dans Azure Synapse Analytics est l’une des implémentations Microsoft d’Apache Spark dans le cloud. Vous pouvez accéder à une base de données à partir de Synapse Studio avec Apache Spark pour Azure Synapse Analytics.

Azure Cosmos DB

La connexion de données du flux de modification Azure Cosmos DB est un pipeline d’ingestion qui écoute votre flux de modification Cosmos DB, et ingère les données dans votre base de données.

Azure Data Factory.

Azure Data Factory (ADF) est un service d’intégration de données basé sur le cloud qui vous permet d’intégrer différents magasins de données et d’effectuer des activités sur les données.

Azure Event Grid

L’ingestion Event Grid est un pipeline qui écoute le stockage Azure, et met à jour votre base de données pour extraire les informations quand des événements associés à des abonnements se produisent. Vous pouvez configurer l’ingestion continue à partir du service Stockage Azure (Stockage Blob et ADLSv2) avec un abonnement Azure Event Grid pour les notifications de création ou de renommage d’objets blob ainsi que pour le streaming de ces notifications via Azure Event Hubs.

  • Fonctionnalité : ingestion
  • Type d’ingestion pris en charge : traitement par lots, diffusion en continu
  • Cas d’utilisation : traitement des événements
  • Documentation : Connexion de données Event Grid

Azure Event Hubs

Azure Event Hubs est une plateforme de streaming de Big Data et un service d’ingestion d’événements. Vous pouvez configurer l’ingestion continue à partir d’Event Hubs managés par le client.

Azure Functions

Azure Functions vous permet d’exécuter du code serverless dans le cloud selon une planification ou en réponse à un événement. Avec des liaisons d’entrée et de sortie pour Azure Functions, vous pouvez intégrer votre base de données dans vos workflows pour ingérer des données et exécuter des requêtes sur votre base de données.

Hubs Azure IoT

Azure IoT Hub est un service managé, hébergé dans le cloud, qui fait office de hub de messages central pour la communication bidirectionnelle entre votre application IoT et les appareils qu’il gère. Vous pouvez configurer l’ingestion continue à partir de hubs IoT Hub gérés par le client, en utilisant son point de terminaison intégré compatible Event Hubs des messages appareil-à-cloud.

  • Fonctionnalité : ingestion
  • Type d’ingestion pris en charge : traitement par lots, diffusion en continu
  • Cas d’usage : données IoT
  • Documentation : Connexion de données IoT Hub

Azure Stream Analytics

Azure Stream Analytics est un moteur de traitement des événements complexes et d’analyse en temps réel conçu pour traiter de grands volumes de données diffusées en Fast Streaming par plusieurs sources à la fois.

Stream Cribl

Cribl Stream est un moteur de traitement qui collecte, traite et diffuse en continu et en toute sécurité les données d’événements de machine à partir de n’importe quelle source. Il vous permet d’analyser et de traiter ces données pour n’importe quelle destination à des fins d’analyse.

Fluent Bit

Fluent Bit est un agent open-source qui collecte des logs, des métriques et des traces à partir de différentes sources. Il permet de filtrer, de modifier et d'agréger les données relatives aux événements avant de les envoyer au stockage.

JDBC

Java Database Connectivity (JDBC) est une API Java utilisée pour se connecter aux bases de données et exécuter des requêtes. Vous pouvez utiliser JDBC pour vous connecter à Azure Data Explorer.

Logic Apps

Le connecteur Microsoft Logic Apps vous permet d’exécuter automatiquement des requêtes et des commandes dans le cadre d’une tâche planifiée ou déclenchée.

Logstash

Le plug-in Logstash vous permet de traiter les événements de Logstash dans une base de données Azure Data Explorer à des fins d’analyse.

Matlab

MATLAB est une plateforme de programmation et de calcul numérique, utilisée pour analyser des données, développer des algorithmes et créer des modèles. Vous pouvez obtenir un jeton d’autorisation dans MATLAB pour interroger vos données dans Azure Data Explorer.

NLog

NLog est une plateforme de journalisation flexible et gratuite pour différentes plateformes .NET, notamment .NET standard. NLog vous permet d’écrire dans plusieurs cibles, telles qu’une base de données, un fichier ou une console. Avec NLog, vous pouvez modifier la configuration de journalisation à la volée. Le récepteur NLog est une cible pour NLog qui vous permet d’envoyer vos messages de journalisation à votre base de données. Le plug-in offre un moyen efficace de faire transiter vos journaux d’activité vers votre cluster.

ODBC

L’interface Open Database Connectivity (ODBC) est une interface de programmation d’applications (API) largement acceptée pour l’accès à des bases de données. Azure Data Explorer est compatible avec un sous-ensemble du protocole de communication SQL Server (MS-TDS). Cette compatibilité permet l’utilisation du pilote ODBC pour SQL Server avec Azure Data Explorer.

  • Fonctionnalité : ingestion
  • Type d’ingestion pris en charge : traitement par lots, diffusion en continu
  • Cas d’utilisation : télémétrie, journaux d’activité, métriques
  • Documentation : Se connecter à Azure Data Explorer avec ODBC

OpenTelemetry

Le connecteur OpenTelemetry prend en charge l’ingestion de données à partir de nombreux récepteurs dans votre base de données. Il fonctionne comme un pont pour ingérer les données générées par Open Telemetry dans votre base de données en personnalisant le format des données exportées en fonction de vos besoins.

Power Apps

Power Apps se compose d’une suite d’applications, de services, de connecteurs et d’une plateforme de données, qui fournit un environnement de développement rapide d’application pour créer des applications personnalisées qui se connectent à vos données métier. Le connecteur Power Apps est utile si vous disposez d’une collection importante et croissante de données de streaming dans Azure Data Explorer, et si vous souhaitez créer une application low-code hautement fonctionnelle pour utiliser ces données.

Power Automate

Power Automate est un service d’orchestration utilisé pour automatiser les processus d’entreprise. Le connecteur Power Automate (précédemment Microsoft Flow) vous permet d’orchestrer et de planifier des flux, d’envoyer des notifications et des alertes, dans le cadre d’une tâche planifiée ou déclenchée.

  • Fonctionnalité : ingestion, exportation
  • Type d’ingestion pris en charge : traitement par lots
  • Cas d’utilisation : orchestration des données
  • Documentation : Connecteur Microsoft Power Automate

Serilog

Serilog est un framework de journalisation populaire pour les applications .NET. Serilog permet aux développeurs de contrôler les instructions de journal qui sont sorties avec une granularité arbitraire en fonction du nom, du niveau d’enregistreur d’événements et du modèle de message du journal. Le récepteur Serilog, également appelé appender, diffuse en continu vos données de journal dans votre base de données, où vous pouvez analyser et visualiser vos journaux en temps réel.

Splunk

Splunk Enterprise est une plateforme logicielle qui vous permet d’ingérer des données de nombreuses sources simultanément. L’extension Azure Data Explorer envoie des données de Splunk à une table de votre cluster.

Splunk Universal Forwarder

Telegraf

Telegraf est un agent open source, léger et à empreinte mémoire minimale pour la collecte, le traitement et l'écriture de données de télémétrie, y compris les journaux, les métriques et les données IoT. Telegraf prend en charge des centaines de plug-ins d'entrée et de sortie. Il est largement utilisé et accepté par la communauté open source. Le plug-in de sortie sert de connecteur depuis Telegraf et prend en charge l’ingestion de données provenant de nombreux types de plug-ins d’entrée dans votre base de données.