Événements
31 mars, 23 h - 2 avr., 23 h
L’événement de la communauté Microsoft Fabric, Power BI, SQL et AI ultime. 31 mars au 2 avril 2025.
Inscrivez-vous aujourd’huiCe navigateur n’est plus pris en charge.
Effectuez une mise à niveau vers Microsoft Edge pour tirer parti des dernières fonctionnalités, des mises à jour de sécurité et du support technique.
L’éditeur sans code vous permet de développer une tâche de Stream Analytics sans effort pour traiter vos données de streaming en temps réel, à l’aide de la fonctionnalité glisser-déplacer, sans écrire une seule ligne de code. L’expérience fournit un canevas qui vous permet de vous connecter aux sources d’entrée pour voir rapidement vos données de streaming. Vous pouvez ensuite les transformer avant de les écrire à vos destinations.
Avec l’éditeur sans code, vous pouvez facilement :
Après avoir créé et exécuté vos travaux Stream Analytics, vous pouvez facilement opérationnaliser les charges de travail de production. Utilisez l’ensemble approprié de métriques intégrées pour la supervision et la résolution des problèmes. Les travaux Stream Analytics sont facturés en fonction du modèle de tarification quand ils sont en cours d’exécution.
Avant de développer vos travaux Stream Analytics à l’aide de l’éditeur sans code, vous devez répondre à ces exigences :
Notes
L’éditeur sans code n’est actuellement pas disponible dans la région de la Chine.
Un travail Stream Analytics repose sur trois composants principaux : les entrées de streaming, les transformations et les sorties. Vous pouvez avoir autant de composants que vous le souhaitez, notamment plusieurs entrées, des branches parallèles comportant plusieurs transformations et plusieurs sorties. Pour plus d’informations, consultez la documentation Azure Stream Analytics.
Notes
Les fonctionnalités et types de sortie suivants ne sont pas disponibles lors de l’utilisation de l’éditeur sans code :
Pour accéder à l’éditeur sans code pour la création de votre travail Stream Analytics, il existe deux solutions :
Via le portail Azure Stream Analytics (préversion) : créez un travail Stream Analytics, puis sélectionnez l’éditeur zéro code sous l’onglet Prise en main de la page Vue d’ensemble, ou sélectionnez Éditeur zéro code dans le volet gauche.
Via le portail Azure Event Hubs : ouvrez une instance Event Hubs. Sélectionnez Traiter des données, puis sélectionnez un modèle prédéfini de votre choix.
Les modèles prédéfinis peuvent vous aider à développer et à exécuter un travail pour répondre à différents scénarios, notamment :
La capture d’écran suivante montre un travail Stream Analytics achevé. Il met en évidence toutes les sections disponibles lors de la création.
L’éditeur sans code prend en charge l’entrée de données de streaming à partir de trois types de ressources :
Pour plus d’informations sur les entrées de données de streaming, consultez Données de streaming en tant qu’entrées dans Stream Analytics.
Notes
L’éditeur sans code dans le portail Azure Event Hubs a uniquement Event Hub comme option d’entrée.
Azure Event Hubs est une plateforme de streaming de Big Data et un service d’ingestion d’événements. Il peut recevoir et traiter des millions d’événements par seconde. Les données envoyées à un concentrateur d’événements peuvent être transformées et stockées via des adaptateurs de traitement par lot/stockage ou d’un fournisseur d’analyse en temps réel.
Pour configurer un Event Hub en tant qu’entrée pour votre travail, sélectionnez l’icône Event Hub. Une vignette s’affiche dans la vue schématique, notamment un volet latéral pour sa configuration et sa connexion.
Lorsque vous vous connectez à votre hub d’événements dans l’éditeur sans code, nous vous recommandons de créer un groupe de consommateurs (qui est l’option par défaut). Cette approche permet d’empêcher le hub d’événements d’atteindre la limite de lecteurs simultanés. Pour en savoir plus sur les groupes de consommateurs et comprendre si vous devez sélectionner un groupe de consommateurs existant ou en créer un, consultez Groupes de consommateurs.
Si votre hub d’événements se trouve dans le niveau De base, vous pouvez utiliser uniquement le groupe de consommateurs $Default existant. Si votre hub d’événements se trouve dans un niveau Standard ou Premium, vous pouvez créer un nouveau groupe de consommateurs.
Quand vous vous connectez au hub d’événements, si vous sélectionnez Identité managée comme mode d’authentification, le rôle Propriétaire de données Azure Event Hubs est accordé à l’identité managée pour le travail Stream Analytics. Pour en savoir plus sur les identités managées pour un hub d’événements, consultez Utiliser des identités managées pour accéder à un hub d’événements à partir d’un travail Azure Stream Analytics.
Les identités managées éliminent les limitations des méthodes d’authentification basées sur l’utilisateur. Ces limitations incluent la nécessité de se réauthentifier en cas de changement de mot de passe ou d’expiration du jeton d’utilisateur tous les 90 jours.
Après avoir configuré les détails de votre hub d’événements et sélectionné Connecter, vous pouvez ajouter des champs manuellement à l’aide de l’option + Ajouter un champ si vous connaissez les noms de champs. Pour détecter automatiquement les types de champs et de données en fonction d’un échantillon des messages entrants, sélectionnez Détection automatique des champs. Sélectionnez le symbole de l’engrenage pour modifier les informations de connexion si nécessaire.
Quand les travaux Stream Analytics détectent les champs, vous les voyez dans la liste. Vous voyez également un aperçu en direct des messages entrants dans le tableau Aperçu des données sous la vue du diagramme.
Vous pouvez modifier les noms de champs, supprimer le champ, modifier le type de données, ou modifier l’heure de l’événement (Marquer comme heure de l’événement : clause TIMESTAMP BY si un champ de type DateHeure) en sélectionnant le symbole des points de suspension à côté de chaque champ. Vous avez également la possibilité de développer, de sélectionner et de modifier les champs imbriqués des messages entrants, comme illustré sur l’image suivante.
Conseil
Ceci s’applique également aux données d’entrée provenant d’Azure IoT Hub et d’Azure Data Lake Storage Gen2.
Voici les types de données disponibles :
Azure IoT Hub est un service managé, hébergé dans le cloud, qui joue le rôle de hub de messages central pour la communication entre une application IoT et les appareils attachés. Les données d’appareil IoT envoyées à IoT Hub peuvent être utilisées comme entrée pour un travail Stream Analytics.
Notes
L’entrée Azure IoT Hub est disponible dans l’éditeur sans code sur le portail Azure Stream Analytics.
Pour ajouter un hub IoT en tant qu’entrée de streaming en continu pour votre tâche, sélectionnez le IoT Hub sous Entrées dans le ruban. Renseignez ensuite les informations nécessaires dans le volet droit pour connecter IoT Hub à votre travail. Pour en savoir plus sur les détails de chaque champ, consultez Stream data d’IoT Hub à Stream Analytics job.
Azure Data Lake Storage Gen2 (ADLS Gen2) est une solution de lac de données d’entreprise basée sur le cloud. Il est conçu pour stocker de gros volumes de données dans n’importe quel format et pour faciliter les charges de travail analytiques Big Data. Les données stockées dans ADLS Gen2 peuvent être traitées en tant que flux de données par Stream Analytics. Pour en savoir plus sur ce type d’entrée, consultez Données de streaming d’ADLS Gen2 à la tâche de Stream Analytics
Notes
l’entrée Azure Data Lake Storage Gen2 est disponible dans l’éditeur sans code sur le portail Azure Stream Analytics.
Pour ajouter un ADLS Gen2 en tant qu’entrée de streaming pour votre tâche, sélectionnez l’ADLS Gen2 sous Entrées dans le ruban. Renseignez ensuite les informations nécessaires dans le volet droit pour connecter ADLS Gen2 à votre travail. Pour en savoir plus sur les détails de chaque champ, consultez Données de streaming d’ADLS Gen2 à la tâche de Stream Analytics.
Les données de référence sont statiques ou changent lentement au fil du temps. Elles sont généralement utilisées pour enrichir les flux entrants et effectuer des recherches dans votre travail. Par exemple, vous pouvez joindre une entrée de flux de données à des données de référence, comme vous effectueriez une jointure SQL pour rechercher des valeurs statiques. Pour plus d’informations sur les entrées de données de référence, consultez Utiliser des données de référence pour effectuer des recherches dans Stream Analytics.
L’éditeur sans code prend désormais en charge deux sources de données de référence :
Les données de référence sont modélisées en tant que séquence d’objets Blob dans l’ordre croissant de la date/heure spécifiée dans le nom de blob. Vous pouvez ajouter des blobs à la fin de la séquence en utilisant une date/heure postérieure à celle que le dernier blob spécifiait dans la séquence. Les objets Blob sont définis dans la configuration d’entrée.
Tout d’abord, dans la section Entrées du ruban, sélectionnez Référencer ADLS Gen2. Pour voir des détails sur chaque champ, consultez la section relative aux Stockage Blob Azure dans Utiliser des données de référence pour effectuer des recherches dans Stream Analytics.
Ensuite, chargez un fichier de tableau JSON. Les champs dans le fichier sont détectés. Utilisez ces données de référence pour effectuer une transformation avec des données d’entrée de diffusion en continu à partir d’Event Hubs.
Vous pouvez utiliser Azure SQL Database en tant que données de référence pour votre travail Stream Analytics dans l’éditeur sans code. Pour plus d’informations, consultez la section relative à SQL Database dans Utiliser des données de référence pour effectuer des recherches dans Stream Analytics.
Pour configurer SQL Database comme entrée de données de référence, sélectionnez Référence SQL Database dans la section Entrées sur le ruban. Renseignez ensuite les informations pour connecter votre base de données de référence et sélectionnez la table avec les colonnes dont vous avez besoin. Vous pouvez également extraire les données de référence de votre table en modifiant manuellement la requête SQL.
Les transformations de données de streaming sont fondamentalement différentes des transformations de données par lots. Quasiment toutes les données de diffusion en continu comprennent un composant de temps, qui affecte les tâches de préparation des données impliquées.
Pour ajouter une transformation de données de streaming à votre travail, sélectionnez le symbole de transformation dans la section Opérations du ruban pour cette transformation. La vignette correspondante est supprimée dans la vue schématique. Lorsque vous la sélectionnez, vous voyez apparaître le volet latéral permettant de configurer cette transformation.
Utilisez la transformation Filtrer pour filtrer les événements en fonction de la valeur d’un champ dans l’entrée. Selon le type de données (nombre ou texte), elle conserve les valeurs qui correspondent à la condition sélectionnée.
Notes
Chaque vignette affiche des informations sur les autres éléments dont la transformation a besoin pour être prête. Par exemple, le message Configuration obligatoire apparaît lorsque vous ajoutez une nouvelle vignette. S’il manque un connecteur de nœud, un message d’Erreur ou d’Avertissement s’affiche.
La transformation Gestion des champs permet d’ajouter, de supprimer et de renommer des champs provenant d’une entrée ou d’une autre transformation. Les paramètres dans le volet latéral vous donnent la possibilité d’en ajouter un nouveau en sélectionnant Ajouter un champ ou d’ajouter tous les champs à la fois.
Vous pouvez également ajouter un nouveau champ avec les fonctions intégrées pour agréger les données en amont. Actuellement, les fonctions intégrées que nous prenons en charge sont certaines Fonctions de chaîne, Fonctions de date et heure et Fonctions mathématiques. Pour en savoir plus sur les définitions de ces fonctions, consultez Fonctions intégrées (Azure Stream Analytics).
Conseil
Une fois que vous avez configuré une vignette, la vue de diagramme présente un aperçu des paramètres dans la vignette. Par exemple, vous pouvez voir dans la zone Gestion des champs de l’image précédente les trois premiers champs gérés et les nouveaux noms qui leur sont attribués. Chaque vignette contient des informations pertinentes pour celle-ci.
Vous pouvez utiliser la transformation Agrégation pour calculer une agrégation (Somme, Minimum, Maximum ou Moyenne) chaque fois qu’un nouvel événement se produit sur une période donnée. Cette opération vous offre également la possibilité de filtrer ou de découper l’agrégation en fonction d’autres dimensions de vos données. Il peut y avoir plusieurs agrégations dans la même transformation.
Pour ajouter une agrégation, sélectionnez le symbole de transformation. Ensuite, connectez une entrée, sélectionnez l’agrégation, ajoutez les dimensions de type filtre ou tranche, puis sélectionnez la période sur laquelle elle sera calculée. Dans cet exemple, nous calculons la somme de la valeur de péage en fonction de l’État dans lequel le véhicule se trouve au cours des 10 dernières secondes.
Pour ajouter une autre agrégation à la même transformation, sélectionnez Ajouter une fonction d’agrégation. Gardez à l’esprit que le filtre ou la tranche s’applique à toutes les agrégations de la transformation.
Utilisez la transformation Jointure pour combiner des événements de deux entrées en fonction des paires de champs que vous sélectionnez. Si vous ne sélectionnez pas de paire de champs, la jointure sera basée par défaut sur l’heure. La valeur par défaut est ce qui rend cette transformation différente de celle d’un lot.
Comme avec les jointures classiques, vous disposez d’options pour votre logique de jointure :
Pour sélectionner le type de jointure, sélectionnez le symbole correspondant au type préféré dans le volet latéral.
Enfin, sélectionnez la période sur laquelle la jointure doit être calculée. Dans cet exemple, les 10 dernières secondes sont examinées. Gardez à l’esprit que, plus la période est longue, moins la sortie est fréquente et plus les ressources de traitement utilisées pour la transformation seront importantes.
Par défaut, tous les champs des deux tables sont inclus. Les préfixes à gauche (premier nœud) et à droite (second nœud) dans la sortie vous aident à différencier la source.
Utilisez la transformation Regrouper par pour calculer les agrégations sur tous les événements d’une fenêtre de temps donnée. Vous pouvez regrouper par les valeurs d’un ou plusieurs champs. Cette opération est similaire à la transformation Agrégation, mais elle offre plus d’options pour les agrégations. Elle inclut également des options plus complexes pour les fenêtres de temps. Comme pour Agrégation, vous pouvez ajouter plusieurs agrégations par transformation.
Voici les agrégations disponibles dans la transformation :
Pour configurer la transformation :
Pour ajouter une autre agrégation à la même transformation, sélectionnez Ajouter une fonction d’agrégation. Gardez à l’esprit que le champ Regrouper par et la fonction de fenêtrage s’appliquent à toutes les agrégations de la transformation.
Un horodatage de fin de la fenêtre de temps apparaît pour référence dans la sortie de la transformation. Pour plus d’informations sur les fenêtres de temps que les travaux Stream Analytics prennent en charge, consultez Fonctions de fenêtrage (Azure Stream Analytics).
Utilisez la transformation Union pour connecter deux entrées ou plus afin d’ajouter des événements comportant des champs partagés (même nom et même type de données) dans une table. Les champs qui ne correspondent pas ne sont pas inclus dans la sortie.
Utilisez la transformation Développer le tableau pour créer une ligne pour chaque valeur dans un tableau.
L’expérience de glisser-déplacer sans code prend actuellement en charge plusieurs récepteurs de sortie pour stocker vos données traitées en temps réel.
Data Lake Storage Gen2 fait du stockage Azure la base pour créer des dépôts Data Lake d’entreprise sur Azure. Il est conçu pour traiter plusieurs pétaoctets d’informations tout en maintenant des centaines de gigabits de débit. Il vous permet de gérer facilement de grandes quantités de données. Le Stockage Blob Azure offre une solution peu coûteuse et évolutive pour stocker de grandes quantités de données non structurées dans le cloud.
Dans la section Sorties sur le ruban, sélectionnez ADLS Gen2 comme sortie pour votre travail Stream Analytics. Sélectionnez ensuite le conteneur dans lequel vous souhaitez envoyer la sortie du travail. Pour plus d’informations sur la sortie d’Azure Data Lake Gen2 pour un travail Stream Analytics, consultez Sortie de stockage d’objets blob et Azure Data Lake Gen2 à partir d’Azure Stream Analytics.
Lorsque vous vous connectez à Azure Data Lake Storage Gen2, si vous sélectionnez Identité managée comme mode d’authentification, le rôle Contributeur aux données Blob du stockage est accordé à l’identité managée pour le travail Stream Analytics. Pour en savoir plus sur les identités managées pour Azure Data Lake Storage Gen2, consultez Utiliser des identités managées afin d’authentifier votre tâche Azure Stream Analytics pour le Stockage Blob Azure.
Les identités managées éliminent les limitations des méthodes d’authentification basées sur l’utilisateur. Ces limitations incluent la nécessité de se réauthentifier en cas de changement de mot de passe ou d’expiration du jeton d’utilisateur tous les 90 jours.
La fonctionnalité Livraison seule et unique (préversion) est prise en charge dans ADLS Gen2 comme sortie de l’éditeur zéro code. Vous pouvez l’activer dans la section Mode écriture de la configuration ADLS Gen2. Pour plus d’informations sur cette fonctionnalité, consultez Livraison seule et unique (préversion) dans Azure Data Lake Gen2
L’option Écrire dans une table Delta Lake (préversion) est prise en charge dans ADLS Gen2 comme sortie de l’éditeur zéro code. Vous pouvez accéder à cette option dans la section Sérialisation dans la configuration ADLS Gen2. Pour plus d’informations sur cette fonctionnalité, consultez Écrire dans une table Delta Lake.
Des travaux Azure Stream Analytics peuvent envoyer une sortie à une table de pool SQL dédiée dans Azure Synapse Analytics, et traiter des taux de débit jusqu’à 200 Mo par seconde. Stream Analytics prend en charge les besoins les plus exigeants en matière d’analyse en temps réel et de traitement des données de chemin réactif pour des charges de travail telles que les rapports et les tableaux de bord.
Important
La table de pool SQL dédié doit être présente pour vous permettre de l'ajouter en tant qu'entrée à votre tâche Stream Analytics. Le schéma de table doit correspondre aux champs et aux types dans la sortie de votre travail.
Dans la section Sorties sur le ruban, sélectionnez Synapse comme sortie pour votre travail Stream Analytics. Sélectionnez ensuite la table de pool SQL à laquelle vous souhaitez envoyer la sortie du travail. Pour plus d’informations sur la sortie Azure Synapse pour un travail Stream Analytics, consultez Sortie Azure Synapse Analytics à partir d’Azure Stream Analytics.
Azure Cosmos DB est un service de base de données distribuée à l’échelle mondiale, qui offre une mise à l’échelle élastique et sans limite dans le monde entier. Il offre également des requêtes enrichies et une indexation automatique sur des modèles de données indépendants du schéma.
Dans la section Sorties sur le ruban, sélectionnez CosmosDB comme sortie pour votre travail Stream Analytics. Pour plus d’informations sur la sortie Azure Cosmos DB pour un travail Stream Analytics, consultez Sortie Azure Cosmos DB depuis Azure Stream Analytics.
Lorsque vous vous connectez à Azure Cosmos DB, si vous sélectionnez Identité managée comme mode d’authentification, le rôle Contributeur est accordé à l’identité managée pour le travail Stream Analytics. Pour en savoir plus sur les identités managées pour Azure Cosmos DB, consultez Utiliser des identités managées pour accéder à Azure Cosmos DB à partir d’un travail Azure Stream Analytics (préversion).
La méthode d’authentification des identités managées est également prise en charge dans la sortie Azure Cosmos DB dans l’éditeur sans code qui présente le même avantage que dans la sortie ADLS Gen2 ci-dessus.
Azure SQL Database est un moteur de base de données PaaS (Platform as a Service) entièrement managé qui peut vous aider à créer une couche de stockage de données hautement disponible et haute performance pour les applications et solutions dans Azure. À l’aide de l’éditeur sans code, vous pouvez configurer des travaux Azure Stream Analytics pour écrire les données traitées dans une table existante dans SQL Database.
Pour configurer Azure SQL Database en tant que sortie, dans la section Sorties du ruban, sélectionnez SQL Database. Entrez ensuite les informations nécessaires pour connecter votre base de données SQL et sélectionnez la table dans laquelle vous souhaitez écrire des données.
Important
La table Azure SQL Database doit être présente pour vous permettre de l’ajouter en tant qu’entrée à votre tâche Stream Analytics. Le schéma de table doit correspondre aux champs et aux types dans la sortie de votre travail.
Pour plus d’informations sur la sortie dans Azure SQL Database d’un travail Stream Analytics, consultez Sortie dans Azure SQL Database d’Azure Stream Analytics.
Avec les données en temps réel qui transitent vers Azure Stream Analytics, l’éditeur zéro code peut transformer et enrichir les données, puis les envoyer à un autre hub d’événements. Vous pouvez choisir la sortie Event Hubs quand vous configurez votre travail Azure Stream Analytics.
Pour configurer Event Hubs en tant que sortie, dans la section Sorties du ruban, sélectionnez Event Hub. Renseignez ensuite les informations nécessaires pour connecter votre hub d’événements dans lequel vous souhaitez écrire des données.
Pour plus d’informations sur la sortie Event Hubs pour un travail Stream Analytics, consultez Sortie Event Hubs à partir d’Azure Stream Analytics.
Azure Data Explorer est une plateforme d’analytique Big Data très performante et complètement managée, qui facilite l’analyse de grands volumes de données. Vous pouvez également utiliser Azure Data Explorer comme sortie pour votre travail Azure Stream Analytics à l’aide de l’éditeur sans code.
Pour configurer Azure Data Explorer en tant que sortie, dans la section Sorties du ruban, sélectionnez Azure Data Explorer. Entrez ensuite les informations nécessaires pour connecter votre base de données Azure Data Explorer et spécifiez la table dans laquelle vous souhaitez écrire des données.
Important
La table doit exister dans votre base de données sélectionnée, et le schéma de la table doit correspondre exactement aux champs et à leurs types dans la sortie de votre travail.
Pour plus d’informations sur la sortie dans Azure Data Explorer d’un travail Stream Analytics, consultez Sortie dans Azure Data Explorer à partir Azure Stream Analytics (préversion).
Power BI propose une expérience de visualisation complète pour vos résultats d’analyse de données. Avec la sortie Power BI dans Stream Analytics, les données de streaming traitées sont écrites dans le jeu de données de streaming Power BI, puis elles peuvent être utilisées pour générer le tableau de bord Power BI en quasi temps réel. Pour en savoir plus sur la création du tableau de bord en quasi temps réel, consultez Créer un tableau de bord en temps réel avec un jeu de données Power BI produit à partir de Stream Analytics sans éditeur de code.
Pour configurer Power BI en tant que sortie, sélectionnez Power BI sous la section Sorties du ruban. Renseignez ensuite les informations nécessaires pour connecter votre espace de travail Power BI et fournissez les noms du jeu de données de streaming et le tableau dans lesquels vous souhaitez écrire les données. Pour en savoir plus sur les détails de chaque champ, consultez Sortie Power BI d’Azure Stream Analytics.
L’expérience de glisser-déplacer sans code fournit des outils permettant de créer un pipeline d’analyse, de résoudre ses problèmes et d’évaluer son niveau de performance pour les données de diffusion en continu.
Quand vous vous connectez à une source d'entrée, par exemple : Event Hub et que vous sélectionnez sa vignette dans la vue schématique (onglet Aperçu des données), vous obtenez un aperçu en direct des données entrantes si toutes les conditions suivantes sont remplies :
Comme illustré dans la capture d’écran suivante, si vous souhaitez afficher ou accéder à une section spécifique, vous pouvez suspendre l’aperçu (1). Vous pouvez également le redémarrer si vous avez terminé.
Vous pouvez également afficher les détails d’un enregistrement spécifique (une cellule dans la table) en le sélectionnant, puis en sélectionnant Afficher/masquer les détails (2). La capture d’écran montre la vue détaillée d’un objet imbriqué dans un enregistrement.
Après avoir ajouté et configuré des étapes dans la vue schématique, vous pouvez tester leur comportement en sélectionnant Obtenir un aperçu statique.
Après cette opération, le travail Stream Analytics évalue l’ensemble des transformations et des sorties pour vérifier qu’elles sont configurées correctement. Stream Analytics affiche ensuite les résultats dans l’aperçu statique des données, comme illustré dans l’image suivante.
Vous pouvez actualiser l’aperçu en sélectionnant Actualiser l’aperçu statique (1). Quand vous actualisez l’aperçu, le travail Stream Analytics utilise de nouvelles données à partir de l’entrée et évalue toutes les transformations. Il renvoie ensuite une sortie avec les mises à jour que vous pourriez avoir effectuées. L’option Afficher/masquer les détails est également disponible (2).
En cas d’erreurs ou d’avertissements de création, l’onglet Erreurs de création les répertorie, comme illustré dans la capture d’écran suivante. La liste comprend les détails de l’erreur ou de l’avertissement, le type de carte (entrée, transformation ou sortie), le niveau d’erreur et une description de l’erreur ou de l’avertissement.
Des journaux de runtime apparaissent aux niveaux avertissement, erreur ou information quand un travail est en cours d’exécution. Ces journaux sont utiles quand vous souhaitez modifier la topologie ou la configuration de votre travail Stream Analytics à des fins de résolution des problèmes. Nous vous recommandons vivement d’activer les journaux de diagnostic et de les envoyer à l’espace de travail Log Analytics dans Paramètres pour obtenir plus d’insights sur vos travaux en cours d’exécution à des fins de débogage.
Dans l’exemple de capture d’écran suivant, l’utilisateur a configuré une sortie SQL Database avec un schéma de table ne correspondant pas aux champs de la sortie du travail.
Si le travail est en cours d’exécution, vous pouvez surveiller son intégrité sous l’onglet Métriques. Les quatre métriques affichées par défaut sont Délai en filigrane, Événements d’entrée, Événements d’entrée en backlog et Événements de sortie. Vous pouvez utiliser ces métriques pour comprendre si les événements circulent en entrée et sortie du travail sans backlog d’entrée.
Vous pouvez sélectionner d’autres métriques dans la liste. Pour comprendre toutes les métriques en détail, consultez Métriques des travaux Azure Stream Analytics.
Vous pouvez enregistrer le travail à tout moment lors de sa création. Après avoir configuré les entrées de streaming, les transformations et les sorties de diffusion en continu pour le travail, vous pouvez le démarrer.
Notes
Bien que l’éditeur sans code soit en préversion dans le portail Azure Stream Analytics, le service Azure Stream Analytics est en disponibilité générale.
Vous pouvez configurer les options suivantes :
Pour afficher la liste de tous les travaux Stream Analytics que vous avez créés à l’aide de l’expérience glisser-déplacer sans code dans le portail Azure Event Hubs, sélectionnez Traiter les données>Travaux Stream Analytics.
Les éléments de l’onglet Travaux Stream Analytics sont les suivants :
Découvrez comment utiliser l’éditeur sans code pour traiter les scénarios courants à l’aide de modèles prédéfinis :
Événements
31 mars, 23 h - 2 avr., 23 h
L’événement de la communauté Microsoft Fabric, Power BI, SQL et AI ultime. 31 mars au 2 avril 2025.
Inscrivez-vous aujourd’huiEntrainement
Module
Azure Stream Analytics fournit un moteur de traitement des données en temps réel que vous pouvez utiliser pour ingérer des données d’événements de streaming dans Azure Synapse Analytics en vue d’une analyse supplémentaire et de la création de rapports.