Découverte d’Azure Event Hubs
Azure Event Hubs est un service de diffusion de données natif cloud qui peut diffuser des millions d’événements par seconde, avec une latence faible, depuis n’importe quelle source vers n’importe quelle destination. Event Hubs est compatible avec Apache Kafka. Il vous permet d’exécuter des charges de travail Kafka existantes sans aucune modification du code.
Avec Event Hubs, ingérez, mettez en mémoire tampon, stockez et traitez votre flux en temps réel pour obtenir des insights actionnables. Event Hubs utilise un modèle de consommateur partitionné. Il permet à plusieurs applications de traiter le flux simultanément et vous laisse le contrôle de la vitesse du traitement. Event Hubs s’intègre aussi à Azure Functions pour les architectures serverless.
Un vaste écosystème est disponible pour le protocole AMQP 1.0, qui est la norme du secteur. Des Kits de développement logiciel (SDK) sont disponibles dans des langages tels que .NET, Java, Python et JavaScript : vous pouvez donc commencer à traiter vos flux provenant d’Event Hubs. Tous les langages client pris en charge fournissent une intégration de faible niveau.
Fonctionnalités clés
Découvrez les principales fonctionnalités d’Azure Event Hubs dans les sections suivantes.
Apache Kafka sur Azure Event Hubs
Event Hubs est un moteur multiprotocole de diffusion en continu d’événements qui prend en charge nativement les protocoles AMQP (Advanced Message Queuing Protocol), Apache Kafka et HTTPS. Comme il prend en charge Apache Kafka, vous pouvez soumettre des charges de travail Kafka à Event Hubs sans modification du code. Vous n’avez pas besoin d’installer, de configurer ou de gérer vos propres clusters Kafka, ni d’utiliser une offre Kafka en tant que service qui n’est pas native sur Azure.
Registre de schémas dans Event Hubs
Le registre de schémas Azure dans Event Hubs fournit un référentiel centralisé pour la gestion des schémas d’applications de diffusion en continu d’événements. Le registre de schémas est gratuit avec chaque espace de noms Event Hubs. Il s’intègre à vos applications Kafka ou aux applications basées sur le Kit de développement logiciel (SDK) Event Hubs.
Traitement en temps réel des événements de diffusion avec Stream Analytics
Event Hubs s’intègre à Azure Stream Analytics pour permettre le traitement des diffusions en temps réel. Avec l’éditeur sans code intégré, vous pouvez développer une tâche Stream Analytics en utilisant la fonctionnalités de glisser-déplacer, sans écrire du code.
Les développeurs peuvent également utiliser le langage de requête Stream Analytics basé sur SQL pour effectuer le traitement d’une diffusion en temps réel et tirer parti d’un large éventail de fonctions pour analyser les données de diffusion.
Concepts clés
Les concentrateurs d’événements incluent les éléments clés suivants :
- Applications productrices : ces applications peuvent ingérer des données dans un hub d’événements en utilisant des Kits de développement logiciel (SDK) Event Hubs ou n’importe quel client de producteur Kafka.
- Espace de noms : le conteneur de gestion d’un ou plusieurs hubs d’événements ou rubriques Kafka. Les tâches de gestion telles que l’allocation de la capacité de diffusion, la configuration de la sécurité réseau et l’activation de la géo-reprise d’activité après sinistre sont gérées au niveau de l’espace de noms.
- Event Hubs/Rubrique Kafka : dans Event Hubs, vous pouvez organiser les événements dans un hub d’événements ou dans une rubrique Kafka. C’est un journal distribué en ajout uniquement, qui peut comprendre une ou plusieurs partitions.
- Partitions : elles sont utilisées pour mettre à l’échelle un hub d’événements. Elles sont comme les voies d’une autoroute. Si vous avez besoin de plus de débit de diffusion, vous pouvez ajouter plus de partitions.
- Applications consommatrices : ces applications consomment des données en recherchant dans le journal des événements et en conservant le décalage consommateur. Les consommateurs peuvent être des clients de Kafka ou des clients du SDK Event Hubs.
- Groupe de consommateurs : ce groupe logique d’instances de consommateur lit des données depuis un hub d’événements ou une rubrique Kafka. Cela permet à plusieurs consommateurs de lire les mêmes données de diffusion dans un hub d’événements indépendamment, à leur propre rythme, avec leurs propres décalages.