Guide du développeur Apache Kafka pour Azure Event Hubs
Cet article fournit des liens vers des articles qui décrivent comment intégrer vos applications Apache Kafka à Azure Event Hubs.
Vue d’ensemble
Event Hubs fournit un point de terminaison Kafka qui peut être utilisé par vos applications Kafka pour éviter d’exécuter votre propre cluster Kafka. Event Hubs fonctionne avec un grand nombre de vos applications Kafka existantes. Pour plus d’informations, consultez Event Hubs pour Apache Kafka
Démarrages rapides
Vous trouverez des démarrages rapides dans GitHub et dans ce jeu de contenus pour vous aider à assimiler rapidement Event Hubs pour Kafka.
Démarrages rapides dans GitHub
Consultez les démarrages rapides suivants dans le référentiel azure-event-hubs-for-kafka :
Langage/structure du client | Description |
---|---|
.NET | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en C# à l’aide de .NET Core 2.0. Cet exemple est basé sur le client .NET Apache Kafka de Confluent, modifié en vue d’une utilisation avec Event Hubs pour Kafka. |
Java | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en Java. |
Node.JS | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en Node. Cet exemple utilise la bibliothèque node-rdkafka. |
Python | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en Python. Cet exemple est basé sur le client Python Apache Kafka de Confluent, modifié en vue d’une utilisation avec Event Hubs pour Kafka. |
Go | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en Go. Cet exemple est basé sur le client Golang Apache Kafka de Confluent, modifié en vue d’une utilisation avec Event Hubs pour Kafka. |
Sarama kafka Go | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en Go grâce à la bibliothèque du client Sarama Kafka. |
Kafka | Ce guide de démarrage rapide montre comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide de l’interface de ligne de commande fournie avec la distribution Apache Kafka. |
kcat | kcat est un consommateur et producteur de ligne de commande non-JVM basé sur librdkafka. Sa popularité tient à sa vitesse et à sa faible empreinte. Ce guide de démarrage rapide contient un exemple de configuration et plusieurs exemples simples de commandes kafkacat. |
Démarrages rapides dans DOCS
Consultez le démarrage rapide : Streaming de données avec Event Hubs en utilisant le protocole Kafka inclus dans ce jeu de contenus, qui fournit des instructions pas à pas sur la façon d’effectuer un streaming dans Event Hubs. Vous allez voir comment utiliser vos producteurs et vos consommateurs pour communiquer avec Event Hubs, avec seulement un changement de configuration dans vos applications.
Tutoriels
Tutoriels dans GitHub
Consultez les tutoriels suivants sur GitHub :
Didacticiel | Description |
---|---|
Akka | Ce tutoriel montre comment connecter Akka Streams à des hubs d’événements prenant en charge Kafka sans modifier vos protocoles clients ni exécuter vos propres clusters. Il existe deux tutoriels distincts qui utilisent les langages de programmation Java et Scala. |
Connexion | Ce document vous guide tout au long de l’intégration de Kafka Connect à Azure Event Hubs et du déploiement des connecteurs FileStreamSource et FileStreamSink de base. Bien que ces connecteurs ne soient pas destinés à une utilisation en production, ils présentent un scénario Kafka Connect de bout en bout où Azure Event Hubs se fait passer pour un répartiteur Kafka. |
Filebeat | Ce document vous guidera tout au long de l’intégration de Filebeat et d’Event Hubs via la sortie Kafka de Filebeat. |
Flink | Ce tutoriel montre comment connecter Apache Flink à des Event Hubs prenant en charge Kafka sans modifier vos protocoles clients ni exécuter vos propres clusters. |
FluentD | Ce document vous guidera tout au long de l’intégration de Fluentd et d’Event Hubs à l’aide du plug-in de sortie out_kafka pour Fluentd. |
Interop | Ce tutoriel vous montre comment échanger des événements entre consommateurs et producteurs à l’aide de différents protocoles. |
Logstash | Ce tutoriel vous guide tout au long de l’intégration de Logstash à des Event Hubs prenant en charge Kafka à l’aide de plug-ins d’entrée/sortie Logstash Kafka. |
MirrorMaker | Ce tutoriel montre comment un Event Hub et Kafka MirrorMaker peuvent intégrer un pipeline Kafka existant dans Azure en mettant en miroir le flux d’entrée Kafka dans le service Event Hubs. |
NiFi | Ce tutoriel montre comment connecter Apache NiFi à un espace de noms Event Hubs. |
OAuth | Les guides de démarrage rapide vous montrent comment créer un point de terminaison Event Hubs Kafka et s’y connecter à l’aide d'un exemple de producteur et de consommateur écrit en Go et dans des langages de programmation Java. |
Schema Registry de Confluent | Ce tutoriel vous guide tout au long de l’intégration de Schema Registry et d’Event Hubs pour Kafka. |
Spark | Ce tutoriel montre comment connecter votre application Spark à un hub d’événements sans modifier vos protocoles clients ni exécuter vos propres clusters Kafka. |
Tutoriels dans DOCS
Consultez également le tutoriel : Processus Apache Kafka pour les événements Event Hubs à l’aide de Stream Analytics dans ce jeu de contenus, qui montre comment diffuser en continu des données dans Event Hubs et les traiter avec Azure Stream Analytics.
Guides pratiques
Consultez les guides pratiques suivants dans notre documentation :
Article | Description |
---|---|
Mettre en miroir un broker Kafka dans un hub d’événements | Montre comment mettre en miroir un répartiteur Kafka dans un hub d’événements à l’aide de Kafka MirrorMaker. |
Connecter Apache Spark à un hub d’événements | Vous montre comment connecter votre application Spark à Event Hubs pour un streaming en temps réel. |
Connecter Apache Flink à un hub d’événements | Vous montre comment connecter Apache Flink à un Event Hub sans modifier vos protocoles clients ni exécuter vos propres clusters. |
Intégrer Apache Kafka Connect à un hub d’événements (préversion) | Vous guide tout au long de l’intégration de Kafka Connect avec un hub d’événements et du déploiement des connecteurs FileStreamSource et FileStreamSink de base. |
Connecter Akka Streams à un hub d’événements | Vous montre comment connecter Akka Streams à un Event Hub sans modifier vos protocoles clients ni exécuter vos propres clusters. |
Utiliser Spring Boot Starter pour Apache Kafka avec Azure Event Hubs | Explique comment configurer un Stream Binder Spring Cloud basé sur Java développé avec l’initialiseur Spring Boot pour utiliser Apache Kafka avec Azure Event Hubs. |
Étapes suivantes
Passez en revue les exemples du référentiel GitHub azure-event-hubs-for-kafka dans les dossiers des guides de démarrage rapide et des tutoriels.
Consultez également les articles suivants :