Partager via


Flux d'événements Microsoft Fabric – Présentation

La fonctionnalité Eventstreams de l’expérience Intelligence en temps réel de Microsoft Fabric vous permet d’apporter des événements en temps réel dans Fabric, de les transformer, puis de les router vers différentes destinations sans écrire de code (sans code). Créez un Eventstream, qui est une instance de l’élément Eventstream dans Fabric, ajoutez des sources de données d’événement au flux, ajoutez éventuellement des transformations pour transformer les données d’événement, puis routez les données vers des destinations prises en charge.

Intégrer des événements dans Fabric

La fonctionnalité de flux d'événements vous fournit divers connecteurs source pour récupérer des données d'événement à partir de diverses sources. Il existe davantage de sources lorsque vous activez les Fonctionnalités améliorées au moment de la création d’un Eventstream.

Important

Les fonctionnalités améliorées des Eventstreams Fabric sont actuellement en préversion.

Sources Description
Azure Event Hubs Si vous disposez d’un Event Hub Azure, vous pouvez ingérer des données Event Hub dans Microsoft Fabric à l’aide d’Eventstream.
Azure IoT Hub Si vous disposez d’un Hub Azure IoT, vous pouvez ingérer des données IoT dans Microsoft Fabric à l’aide d’Eventstream.
Capture des changements de données (CDC) de la base de données Azure SQL Le connecteur source Azure SQL Database CDC vous permet de capturer une instantané des données actuelles dans une base de données Azure SQL. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
CDC de la base de données PostgreSQL Le connecteur source de capture des changements de données (CDC) PostgreSQL Database vous permet de capturer un instantané des données actuelles dans une base de données PostgreSQL. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
CDC de la base de données MySQL Le connecteur source de capture des changements de données (CDC) Azure MySQL Database vous permet de capturer un instantané des données actuelles dans une base de données Azure Database pour MySQL. Vous pouvez spécifier les tables à surveiller, et le Eventstreams enregistre toutes les futures modifications au niveau des lignes apportées aux tables.
CDC d’Azure Cosmos DB Le connecteur source de la capture des changements de données (CDC) d’Azure Cosmos DB pour les Eventstreams Microsoft Fabric vous permet de capturer un instantané des données actuelles dans une base de données Azure Cosmos DB. Le connecteur surveille et enregistre ensuite les modifications futures au niveau des lignes apportées à ces données.
Google Cloud Pub/Sub Google Pub/Sub est un service de messagerie qui vous permet de publier et de vous abonner aux Eventstreams. Vous pouvez ajouter Google Pub/Sub en tant que source à votre Eventstreams pour capturer, transformer et acheminer des événements en temps réel vers différentes destinations dans Fabric.
Flux de données Amazon Kinesis Le flux de données Amazon Kinesis est une ingestion des données hautement durable et évolutive massivement évolutive et optimisée pour les données de streaming. Grâce à l’intégration des Flux de données Amazon Kinesis en tant que source au sein de votre Eventstreams, vous pouvez traiter en toute transparence les flux de données en temps réel avant de les router vers plusieurs destinations au sein de Fabric.
Confluent Cloud Kafka Confluent Cloud Kafka est une plateforme de diffusion en continu offrant de puissantes fonctionnalités de diffusion en continu et de traitement des données à l’aide d’Apache Kafka. Grâce à l’intégration de Confluent Cloud Kafka en tant que source au sein de votre Eventstreams, vous pouvez traiter en toute transparence les flux de données en temps réel avant de les router vers plusieurs destinations au sein de Fabric.
Événements de stockage blob Azure Les événements de Stockage Blob Azure sont déclenchés quand un client crée, remplace ou supprime un objet blob. Le connecteur vous permet de lier des événements de stockage blob à des événements Fabric dans le hub en temps réel. Vous pouvez convertir ces événements en flux de données continus et les transformer avant de les router vers différentes destinations dans Fabric.
Événements d’élément d’espace de travail Fabric Les événements d’élément d’espace de travail Fabric sont des événements Fabric discrets qui se produisent lorsque des modifications sont apportées à votre espace de travail Fabric. Ces modifications incluent la création, la mise à jour ou la suppression d’un élément Fabric. Avec les Eventstreams Fabric, vous pouvez capturer ces événements d’espace de travail Fabric, les transformer et les router vers différentes destinations dans Fabric pour une analyse plus approfondie.
Exemples de données Vous pouvez choisir les événements Vélos, Taxi jaune ou Marché boursier comme exemple de source de données pour tester l’ingestion des données lors de la configuration d’un Eventstream.
Point de terminaison personnalisé (par exemple, application personnalisée en fonctionnalité standard) La fonctionnalité d’un point de terminaison personnalisé permet à vos applications ou clients Kafka de se connecter à Eventstream à l’aide d’une chaîne de connexion, ce qui permet une ingestion fluide des données de streaming dans Eventstream.

Traiter des événements à l’aide d’une expérience sans code

L'expérience de glisser-déposer vous offre un moyen intuitif et simple de créer votre traitement de données, de transformation et de routage des données d'événement sans écrire de code. Un diagramme de flux de données de bout en bout dans un flux d'événements peut vous fournir une compréhension complète du flux et de l'organisation des données. L'éditeur de processeur d'événements est une expérience sans code qui vous permet d'effectuer un glisser-déposer pour concevoir la logique de traitement des données d'événement.

Transformation Description
Filtrer Utilisez la transformation Filtrer pour filtrer les événements en fonction de la valeur d’un champ dans l’entrée. Selon le type de données (nombre ou texte), la transformation conserve les valeurs qui correspondent à la condition sélectionnée, comme is null ou is not null.
Gérer les champs La transformation Gérer les champs permet d’ajouter, de supprimer, de changer le type de données et de renommer des champs provenant d’une entrée ou d’une autre transformation.
Agrégat Utilisez la transformation Aggregate pour calculer une agrégation (Sum, Minimum, Maximum ou Average) chaque fois qu'un nouvel événement se produit sur une période donnée. Cette opération permet également de renommer ces colonnes calculées et de filtrer ou de découper l’agrégation en fonction d’autres dimensions de vos données. Il peut y avoir plusieurs agrégations dans la même transformation.
Regrouper par Utilisez la transformation Regrouper par pour calculer les agrégations sur tous les événements d’une fenêtre de temps donnée. Vous pouvez regrouper par les valeurs d’un ou plusieurs champs. Il s'agit d'une transformation similaire à la transformation Aggregate qui permet de renommer les colonnes, mais qui offre davantage d'options d'agrégation et des options plus complexes pour les fenêtres temporelles. Comme Aggregate, vous pouvez ajouter plusieurs agrégations par transformation.
Union Utilisez la transformation Union pour connecter deux nœuds ou plus et ajouter des événements qui ont des champs partagés (avec le même nom et le même type de données) dans une table. Les champs qui ne correspondent pas ne sont pas inclus dans la sortie.
Développer Utilisez la transformation Développer le tableau pour créer une ligne pour chaque valeur dans un tableau.
Participer Utilisez la transformation Join pour combiner des données à partir de deux flux en fonction d’une condition de correspondance entre les deux.

Si vous avez activé des fonctionnalités améliorées lors de la création d’un Eventstream, les opérations de transformation sont prises en charge pour toutes les destinations (avec un flux dérivé agissant comme pont intermédiaire pour certaines destinations, comme le point de terminaison personnalisé, Reflex). Si ce n’est pas le cas, les opérations de transformation sont disponibles uniquement pour les destinations Lakehouse et base de données KQL (traitement des événements avant l’ingestion).

Router des événements vers des destinations

La fonctionnalité Eventstream Fabric prend en charge l’envoi de données aux destinations prises en charge suivantes.

Destination Description
Point de terminaison personnalisé (par exemple, application personnalisée en fonctionnalité standard) Avec cette destination, vous pouvez facilement acheminer vos événements en temps réel vers un point de terminaison personnalisé. Vous pouvez connecter vos propres applications au flux d'événements et consommer les données d'événements en temps réel. Cette destination est utile lorsque vous souhaitez faire sortir des données en temps réel vers un système externe à Microsoft Fabric.
Base de données KQL Cette destination vous permet d’ingérer vos données d’événements en temps réel dans une base de données KQL, où vous pouvez utiliser le puissant langage de requête Kusto (KQL) pour interroger et analyser les données. Avec les données de la base de données Kusto, vous pouvez obtenir des insights plus approfondis sur vos données d’événements et créer des rapports et tableaux de bord enrichis. Vous pouvez choisir entre deux modes d’ingestion : l’ingestion directe et le traitement des événements avant l’ingestion.
Lakehouse Cette destination vous permet de transformer vos événements en temps réel avant de les intégrer dans votre lakehouse. Les événements en temps réel sont convertis au format Delta Lake, puis stockés dans les tables lakehouse désignées. Cette destination prend en charge les scénarios d’entrepôt de données.
Système Reflex Cette destination vous permet de connecter directement vos données d'événements en temps réel à un Reflex. Reflex est un type d’agent intelligent qui contient toutes les informations nécessaires pour se connecter aux données, surveiller les conditions et effectuer des actions. Lorsque les données atteignent certains seuils ou correspondent à d’autres modèles, Reflex effectue automatiquement des actions appropriées, telles que l’alerte des utilisateurs ou le lancement de workflows Power Automate.
Flux dérivé Le flux dérivé est un type spécialisé de destination que vous pouvez créer après l’ajout d’opérations de flux, telles que Filtrer ou Gérer les champs, à un Eventstream. Le flux dérivé représente le flux par défaut transformé suivant le traitement de flux. Vous pouvez router le flux dérivé vers plusieurs destinations dans Fabric et afficher le flux dérivé dans le hub en temps réel.

Vous pouvez joindre plusieurs destinations dans un flux d'événements pour recevoir simultanément des données de vos flux d'événements sans interférer les uns avec les autres.

Capture d'écran montrant un aperçu de l'élément Eventstream.

Remarque

Nous vous recommandons d’utiliser la fonctionnalité de flux d’événements Microsoft Fabric avec au moins 4 unités de capacité (référence SKU: F4)

Fonctionnalités améliorées (préversion)

Il existe d’autres fonctionnalités, sources et destinations disponibles lorsque vous activez l’option Fonctionnalités améliorées (préversion) lors de la création d’un Eventstream. Utilisez les onglets Fonctionnalités améliorées (préversion) et Fonctionnalités standard pour en savoir plus sur les sources et destinations supplémentaires prises en charge grâce aux fonctionnalités améliorées.

Voici quelques autres fonctionnalités remarquables des Fonctionnalités améliorées (préversion) :