Traitement des flux sans code dans Azure Stream Analytics

L’éditeur sans code vous permet de développer une tâche de Stream Analytics sans effort pour traiter vos données de streaming en temps réel, à l’aide de la fonctionnalité glisser-déplacer, sans écrire une seule ligne de code. L’expérience fournit un canevas qui vous permet de vous connecter aux sources d’entrée pour voir rapidement vos données de streaming. Vous pouvez ensuite les transformer avant de les écrire à vos destinations.

Avec l’éditeur sans code, vous pouvez facilement :

  • Modifier les schémas d’entrée.
  • Effectuer des opérations de préparation des données comme les jointures et les filtres.
  • Approcher des scénarios avancés, comme les agrégations de fenêtres de temps (fenêtres bascule, récurrentes et de session) pour les opérations de regroupement.

Après avoir créé et exécuté vos travaux Stream Analytics, vous pouvez facilement opérationnaliser les charges de travail de production. Utilisez l’ensemble approprié de métriques intégrées pour la supervision et la résolution des problèmes. Les travaux Stream Analytics sont facturés en fonction du modèle de tarification quand ils sont en cours d’exécution.

Prérequis

Avant de développer vos travaux Stream Analytics à l’aide de l’éditeur sans code, vous devez répondre à ces exigences :

  • Les sources d’entrée de streaming et les ressources de destination cibles pour le travail de Stream Analytics doivent être accessibles publiquement et ne peuvent pas se trouver dans un réseau virtuel Azure.
  • Vous devez disposer des autorisations nécessaires pour accéder aux ressources d’entrée et de sortie de streaming.
  • Vous devez conserver les autorisations pour créer et modifier des ressources Azure Stream Analytics.

Notes

L’éditeur sans code n’est actuellement pas disponible dans la région de la Chine.

Tâche Azure Stream Analytics

Un travail Stream Analytics repose sur trois composants principaux : les entrées de streaming, les transformations et les sorties. Vous pouvez avoir autant de composants que vous le souhaitez, notamment plusieurs entrées, des branches parallèles comportant plusieurs transformations et plusieurs sorties. Pour plus d’informations, consultez la documentation Azure Stream Analytics.

Notes

Les fonctionnalités et types de sortie suivants ne sont pas disponibles lors de l’utilisation de l’éditeur sans code :

  • Fonctions définies par l’utilisateur.
  • Modification de requête dans le panneau de requête Azure Stream Analytics. Toutefois, vous pouvez afficher la requête générée par l’éditeur sans code dans le panneau de requête.
  • Ajout d’entrée/sortie dans les panneaux d’entrée/sortie Azure Stream Analytics. Toutefois, vous pouvez afficher l’entrée/sortie générée par l’éditeur sans code dans le panneau entrée/sortie.
  • Les types de sortie suivants ne sont pas disponibles : Fonction Azure, ADLS Gen1, Base de données PostgreSQL, File d’attente/rubrique Service Bus, Stockage Table.

Pour accéder à l’éditeur sans code pour la création de votre travail Stream Analytics, il existe deux solutions :

  1. Via le portail Azure Stream Analytics (préversion) : créez un travail Stream Analytics, puis sélectionnez l’éditeur zéro code sous l’onglet Prise en main de la page Vue d’ensemble, ou sélectionnez Éditeur zéro code dans le volet gauche.

    Capture d’écran montrant l’éditeur zéro code sur les emplacements du portail Azure Stream Analytics.

  2. Via le portail Azure Event Hubs : ouvrez une instance Event Hubs. Sélectionnez Traiter des données, puis sélectionnez un modèle prédéfini de votre choix.

    Capture d’écran montrant des sélections pour créer un nouveau travail Stream Analytics.

    Les modèles prédéfinis peuvent vous aider à développer et à exécuter un travail pour répondre à différents scénarios, notamment :

La capture d’écran suivante montre un travail Stream Analytics achevé. Il met en évidence toutes les sections disponibles lors de la création.

Capture d’écran montrant les sections de l’interface de création.

  1. Ruban : dans le ruban, les sections suivent l’ordre d’un processus d’analyse classique – un hub d’événements comme entrée (également appelé source de données), des transformations (opérations ETL [Extraire, transformer et charger] de streaming), des sorties, un bouton pour enregistrer votre progression et un bouton pour démarrer le travail.
  2. Vue schématique : représentation graphique de votre travail Stream Analytics, de l’entrée aux sorties, en passant par les opérations.
  3. Volet latéral : selon le composant sélectionné dans la vue du diagramme, vous voyez des paramètres pour modifier l’entrée, la transformation ou la sortie.
  4. Onglets pour l’aperçu des données, les erreurs de création, les journaux de runtime et les métriques : pour chaque vignette, l’aperçu des données montre les résultats de cette étape (en direct pour les entrées, à la demande pour les transformations et les sorties). Cette section résume également les éventuelles erreurs de création et les avertissements susceptibles de survenir quand vous développez le travail. Sélectionnez une erreur ou un avertissement pour sélectionner cette transformation. Elle fournit également les métriques de travail pour vous permettre de surveiller l’intégrité du travail en cours d’exécution.

Entrée de données de streaming

L’éditeur sans code prend en charge l’entrée de données de streaming à partir de trois types de ressources :

  • Hubs d'événements Azure
  • Azure IoT Hub
  • Azure Data Lake Storage Gen2

Pour plus d’informations sur les entrées de données de streaming, consultez Données de streaming en tant qu’entrées dans Stream Analytics.

Notes

L’éditeur sans code dans le portail Azure Event Hubs a uniquement Event Hub comme option d’entrée.

Capture d’écran montrant le type d’entrée de streaming.

Event Hubs comme entrée de streaming

Azure Event Hubs est une plateforme de streaming de Big Data et un service d’ingestion d’événements. Il peut recevoir et traiter des millions d’événements par seconde. Les données envoyées à un concentrateur d’événements peuvent être transformées et stockées via des adaptateurs de traitement par lot/stockage ou d’un fournisseur d’analyse en temps réel.

Pour configurer un Event Hub en tant qu’entrée pour votre travail, sélectionnez l’icône Event Hub. Une vignette s’affiche dans la vue schématique, notamment un volet latéral pour sa configuration et sa connexion.

Lorsque vous vous connectez à votre hub d’événements dans l’éditeur sans code, nous vous recommandons de créer un groupe de consommateurs (qui est l’option par défaut). Cette approche permet d’empêcher le hub d’événements d’atteindre la limite de lecteurs simultanés. Pour en savoir plus sur les groupes de consommateurs et comprendre si vous devez sélectionner un groupe de consommateurs existant ou en créer un, consultez Groupes de consommateurs.

Si votre hub d’événements se trouve dans le niveau De base, vous pouvez utiliser uniquement le groupe de consommateurs $Default existant. Si votre hub d’événements se trouve dans un niveau Standard ou Premium, vous pouvez créer un nouveau groupe de consommateurs.

Capture d’écran montrant la sélection du groupe de consommateurs lors de la configuration d’un hub d’événements.

Quand vous vous connectez au hub d’événements, si vous sélectionnez Identité managée comme mode d’authentification, le rôle Propriétaire de données Azure Event Hubs est accordé à l’identité managée pour le travail Stream Analytics. Pour en savoir plus sur les identités managées pour un hub d’événements, consultez Utiliser des identités managées pour accéder à un hub d’événements à partir d’un travail Azure Stream Analytics.

Les identités managées éliminent les limitations des méthodes d’authentification basées sur l’utilisateur. Ces limitations incluent la nécessité de se réauthentifier en cas de changement de mot de passe ou d’expiration du jeton d’utilisateur tous les 90 jours.

Capture d’écran montrant l’identité managée sélectionnée comme méthode d’authentification.

Après avoir configuré les détails de votre hub d’événements et sélectionné Connecter, vous pouvez ajouter des champs manuellement à l’aide de l’option + Ajouter un champ si vous connaissez les noms de champs. Pour détecter automatiquement les types de champs et de données en fonction d’un échantillon des messages entrants, sélectionnez Détection automatique des champs. Sélectionnez le symbole de l’engrenage pour modifier les informations de connexion si nécessaire.

Quand les travaux Stream Analytics détectent les champs, vous les voyez dans la liste. Vous voyez également un aperçu en direct des messages entrants dans le tableau Aperçu des données sous la vue du diagramme.

Modifier les données d’entrée

Vous pouvez modifier les noms de champs, supprimer le champ, modifier le type de données, ou modifier l’heure de l’événement (Marquer comme heure de l’événement : clause TIMESTAMP BY si un champ de type DateHeure) en sélectionnant le symbole des points de suspension à côté de chaque champ. Vous avez également la possibilité de développer, de sélectionner et de modifier les champs imbriqués des messages entrants, comme illustré sur l’image suivante.

Conseil

Ceci s’applique également aux données d’entrée provenant d’Azure IoT Hub et d’Azure Data Lake Storage Gen2.

Capture d’écran montrant les sélections pour l’ajout, la suppression et la modification des champs d’un hub d’événements.

Voici les types de données disponibles :

  • DateHeure : champ de date et heure au format ISO.
  • Flottant : nombre décimal.
  • Entier : nombre entier.
  • Enregistrement : objet imbriqué comportant plusieurs enregistrements.
  • Chaîne : texte.

Azure IoT Hub comme entrée de streaming

Azure IoT Hub est un service managé, hébergé dans le cloud, qui joue le rôle de hub de messages central pour la communication entre une application IoT et les appareils attachés. Les données d’appareil IoT envoyées à IoT Hub peuvent être utilisées comme entrée pour un travail Stream Analytics.

Notes

L’entrée Azure IoT Hub est disponible dans l’éditeur sans code sur le portail Azure Stream Analytics.

Pour ajouter un hub IoT en tant qu’entrée de streaming en continu pour votre tâche, sélectionnez le IoT Hub sous Entrées dans le ruban. Renseignez ensuite les informations nécessaires dans le volet droit pour connecter IoT Hub à votre travail. Pour en savoir plus sur les détails de chaque champ, consultez Stream data d’IoT Hub à Stream Analytics job.

Capture d'écran montrant la configuration IoT Hub.

Azure Data Lake Storage Gen2 en tant qu’entrée de streaming

Azure Data Lake Storage Gen2 (ADLS Gen2) est une solution de lac de données d’entreprise basée sur le cloud. Il est conçu pour stocker de gros volumes de données dans n’importe quel format et pour faciliter les charges de travail analytiques Big Data. Les données stockées dans ADLS Gen2 peuvent être traitées en tant que flux de données par Stream Analytics. Pour en savoir plus sur ce type d’entrée, consultez Données de streaming d’ADLS Gen2 à la tâche de Stream Analytics

Notes

l’entrée Azure Data Lake Storage Gen2 est disponible dans l’éditeur sans code sur le portail Azure Stream Analytics.

Pour ajouter un ADLS Gen2 en tant qu’entrée de streaming pour votre tâche, sélectionnez l’ADLS Gen2 sous Entrées dans le ruban. Renseignez ensuite les informations nécessaires dans le volet droit pour connecter ADLS Gen2 à votre travail. Pour en savoir plus sur les détails de chaque champ, consultez Données de streaming d’ADLS Gen2 à la tâche de Stream Analytics.

Capture d’écran montrant la configuration d’entrée d’Azure Data Lake Storage Gen2.

Entrées de données de référence

Les données de référence sont statiques ou changent lentement au fil du temps. Elles sont généralement utilisées pour enrichir les flux entrants et effectuer des recherches dans votre travail. Par exemple, vous pouvez joindre une entrée de flux de données à des données de référence, comme vous effectueriez une jointure SQL pour rechercher des valeurs statiques. Pour plus d’informations sur les entrées de données de référence, consultez Utiliser des données de référence pour effectuer des recherches dans Stream Analytics.

L’éditeur sans code prend désormais en charge deux sources de données de référence :

  • Azure Data Lake Storage Gen2
  • Azure SQL Database

Capture d’écran montrant un nœud d’entrée de référence SQL Database.

Azure Data Lake Storage Gen2 en tant que données de référence

Les données de référence sont modélisées en tant que séquence d’objets Blob dans l’ordre croissant de la date/heure spécifiée dans le nom de blob. Vous pouvez ajouter des blobs à la fin de la séquence en utilisant une date/heure postérieure à celle que le dernier blob spécifiait dans la séquence. Les objets Blob sont définis dans la configuration d’entrée.

Tout d’abord, dans la section Entrées du ruban, sélectionnez Référencer ADLS Gen2. Pour voir des détails sur chaque champ, consultez la section relative aux Stockage Blob Azure dans Utiliser des données de référence pour effectuer des recherches dans Stream Analytics.

Capture d’écran montrant des champs permettant de configurer Azure Data Lake Storage Gen2 en tant qu’entrée dans l’éditeur sans code.

Ensuite, chargez un fichier de tableau JSON. Les champs dans le fichier sont détectés. Utilisez ces données de référence pour effectuer une transformation avec des données d’entrée de diffusion en continu à partir d’Event Hubs.

Capture d’écran montrant des sélections pour le chargement de JSON pour des données de référence.

Azure SQL Database en tant que données de référence

Vous pouvez utiliser Azure SQL Database en tant que données de référence pour votre travail Stream Analytics dans l’éditeur sans code. Pour plus d’informations, consultez la section relative à SQL Database dans Utiliser des données de référence pour effectuer des recherches dans Stream Analytics.

Pour configurer SQL Database comme entrée de données de référence, sélectionnez Référence SQL Database dans la section Entrées sur le ruban. Renseignez ensuite les informations pour connecter votre base de données de référence et sélectionnez la table avec les colonnes dont vous avez besoin. Vous pouvez également extraire les données de référence de votre table en modifiant manuellement la requête SQL.

Capture d’écran montrant une configuration d’entrée de référence SQL Database.

Transformations

Les transformations de données de streaming sont fondamentalement différentes des transformations de données par lots. Quasiment toutes les données de diffusion en continu comprennent un composant de temps, qui affecte les tâches de préparation des données impliquées.

Pour ajouter une transformation de données de streaming à votre travail, sélectionnez le symbole de transformation dans la section Opérations du ruban pour cette transformation. La vignette correspondante est supprimée dans la vue schématique. Lorsque vous la sélectionnez, vous voyez apparaître le volet latéral permettant de configurer cette transformation.

Capture d’écran montrant les opérations de transformation.

Filtrer

Utilisez la transformation Filtrer pour filtrer les événements en fonction de la valeur d’un champ dans l’entrée. Selon le type de données (nombre ou texte), elle conserve les valeurs qui correspondent à la condition sélectionnée.

Capture d’écran montrant les sélections pour la création d’un filtre.

Notes

Chaque vignette affiche des informations sur les autres éléments dont la transformation a besoin pour être prête. Par exemple, le message Configuration obligatoire apparaît lorsque vous ajoutez une nouvelle vignette. S’il manque un connecteur de nœud, un message d’Erreur ou d’Avertissement s’affiche.

Gérer les champs

La transformation Gestion des champs permet d’ajouter, de supprimer et de renommer des champs provenant d’une entrée ou d’une autre transformation. Les paramètres dans le volet latéral vous donnent la possibilité d’en ajouter un nouveau en sélectionnant Ajouter un champ ou d’ajouter tous les champs à la fois.

Capture d’écran montrant les sélections pour la gestion des champs.

Vous pouvez également ajouter un nouveau champ avec les fonctions intégrées pour agréger les données en amont. Actuellement, les fonctions intégrées que nous prenons en charge sont certaines Fonctions de chaîne, Fonctions de date et heure et Fonctions mathématiques. Pour en savoir plus sur les définitions de ces fonctions, consultez Fonctions intégrées (Azure Stream Analytics).

Capture d’écran montrant les fonctions intégrées.

Conseil

Une fois que vous avez configuré une vignette, la vue de diagramme présente un aperçu des paramètres dans la vignette. Par exemple, vous pouvez voir dans la zone Gestion des champs de l’image précédente les trois premiers champs gérés et les nouveaux noms qui leur sont attribués. Chaque vignette contient des informations pertinentes pour celle-ci.

Agrégat

Vous pouvez utiliser la transformation Agrégation pour calculer une agrégation (Somme, Minimum, Maximum ou Moyenne) chaque fois qu’un nouvel événement se produit sur une période donnée. Cette opération vous offre également la possibilité de filtrer ou de découper l’agrégation en fonction d’autres dimensions de vos données. Il peut y avoir plusieurs agrégations dans la même transformation.

Pour ajouter une agrégation, sélectionnez le symbole de transformation. Ensuite, connectez une entrée, sélectionnez l’agrégation, ajoutez les dimensions de type filtre ou tranche, puis sélectionnez la période sur laquelle elle sera calculée. Dans cet exemple, nous calculons la somme de la valeur de péage en fonction de l’État dans lequel le véhicule se trouve au cours des 10 dernières secondes.

Capture d’écran montrant les sélections pour le calcul d’une agrégation.

Pour ajouter une autre agrégation à la même transformation, sélectionnez Ajouter une fonction d’agrégation. Gardez à l’esprit que le filtre ou la tranche s’applique à toutes les agrégations de la transformation.

Join

Utilisez la transformation Jointure pour combiner des événements de deux entrées en fonction des paires de champs que vous sélectionnez. Si vous ne sélectionnez pas de paire de champs, la jointure sera basée par défaut sur l’heure. La valeur par défaut est ce qui rend cette transformation différente de celle d’un lot.

Comme avec les jointures classiques, vous disposez d’options pour votre logique de jointure :

  • Jointure interne : inclure uniquement les enregistrements des deux tables correspondant à la paire. Dans cet exemple, où la plaque de licence correspond aux deux entrées.
  • Jointure externe gauche : inclure tous les enregistrements de la table de gauche (la première) et uniquement les enregistrements de la deuxième table correspondant à la paire de champs. Si aucune correspondance n’est trouvée, les champs de la deuxième entrée sont vides.

Pour sélectionner le type de jointure, sélectionnez le symbole correspondant au type préféré dans le volet latéral.

Enfin, sélectionnez la période sur laquelle la jointure doit être calculée. Dans cet exemple, les 10 dernières secondes sont examinées. Gardez à l’esprit que, plus la période est longue, moins la sortie est fréquente et plus les ressources de traitement utilisées pour la transformation seront importantes.

Par défaut, tous les champs des deux tables sont inclus. Les préfixes à gauche (premier nœud) et à droite (second nœud) dans la sortie vous aident à différencier la source.

Capture d’écran montrant les sélections pour la création d’une jointure.

Regrouper par

Utilisez la transformation Regrouper par pour calculer les agrégations sur tous les événements d’une fenêtre de temps donnée. Vous pouvez regrouper par les valeurs d’un ou plusieurs champs. Cette opération est similaire à la transformation Agrégation, mais elle offre plus d’options pour les agrégations. Elle inclut également des options plus complexes pour les fenêtres de temps. Comme pour Agrégation, vous pouvez ajouter plusieurs agrégations par transformation.

Voici les agrégations disponibles dans la transformation :

  • Average
  • Count
  • Maximum
  • Minimum
  • Centile (continu et discret)
  • Écart type
  • Sum
  • Variance

Pour configurer la transformation :

  1. Sélectionnez votre agrégation par défaut.
  2. Sélectionnez le champ sur lequel vous souhaitez effectuer l’agrégation.
  3. Sélectionnez un champ de regroupement si vous souhaitez obtenir le calcul d’agrégation pour une autre dimension ou catégorie. Par exemple, État.
  4. Sélectionnez votre fonction pour les fenêtres de temps.

Pour ajouter une autre agrégation à la même transformation, sélectionnez Ajouter une fonction d’agrégation. Gardez à l’esprit que le champ Regrouper par et la fonction de fenêtrage s’appliquent à toutes les agrégations de la transformation.

Capture d’écran montrant les sélections pour le calcul d’une agrégation avec l’option de regroupement par valeurs.

Un horodatage de fin de la fenêtre de temps apparaît pour référence dans la sortie de la transformation. Pour plus d’informations sur les fenêtres de temps que les travaux Stream Analytics prennent en charge, consultez Fonctions de fenêtrage (Azure Stream Analytics).

Union

Utilisez la transformation Union pour connecter deux entrées ou plus afin d’ajouter des événements comportant des champs partagés (même nom et même type de données) dans une table. Les champs qui ne correspondent pas ne sont pas inclus dans la sortie.

Développer le tableau

Utilisez la transformation Développer le tableau pour créer une ligne pour chaque valeur dans un tableau.

Capture d’écran montrant les options de développement d’un tableau.

Sorties de streaming

L’expérience de glisser-déplacer sans code prend actuellement en charge plusieurs récepteurs de sortie pour stocker vos données traitées en temps réel.

Capture d’écran montrant les options de sortie de diffusion en continu.

Azure Data Lake Storage Gen2

Data Lake Storage Gen2 fait du stockage Azure la base pour créer des dépôts Data Lake d’entreprise sur Azure. Il est conçu pour traiter plusieurs pétaoctets d’informations tout en maintenant des centaines de gigabits de débit. Il vous permet de gérer facilement de grandes quantités de données. Le Stockage Blob Azure offre une solution peu coûteuse et évolutive pour stocker de grandes quantités de données non structurées dans le cloud.

Dans la section Sorties sur le ruban, sélectionnez ADLS Gen2 comme sortie pour votre travail Stream Analytics. Sélectionnez ensuite le conteneur dans lequel vous souhaitez envoyer la sortie du travail. Pour plus d’informations sur la sortie d’Azure Data Lake Gen2 pour un travail Stream Analytics, consultez Sortie de stockage d’objets blob et Azure Data Lake Gen2 à partir d’Azure Stream Analytics.

Lorsque vous vous connectez à Azure Data Lake Storage Gen2, si vous sélectionnez Identité managée comme mode d’authentification, le rôle Contributeur aux données Blob du stockage est accordé à l’identité managée pour le travail Stream Analytics. Pour en savoir plus sur les identités managées pour Azure Data Lake Storage Gen2, consultez Utiliser des identités managées afin d’authentifier votre tâche Azure Stream Analytics pour le Stockage Blob Azure.

Les identités managées éliminent les limitations des méthodes d’authentification basées sur l’utilisateur. Ces limitations incluent la nécessité de se réauthentifier en cas de changement de mot de passe ou d’expiration du jeton d’utilisateur tous les 90 jours.

Capture d’écran montrant la sélection de l’identité managée comme méthode d’authentification pour Azure Data Lake Storage Gen2

La fonctionnalité Livraison seule et unique (préversion) est prise en charge dans ADLS Gen2 comme sortie de l’éditeur zéro code. Vous pouvez l’activer dans la section Mode écriture de la configuration ADLS Gen2. Pour plus d’informations sur cette fonctionnalité, consultez Livraison seule et unique (préversion) dans Azure Data Lake Gen2

Capture d’écran montrant la configuration unique dans la sortie ADLS Gen2.

L’option Écrire dans une table Delta Lake (préversion) est prise en charge dans ADLS Gen2 comme sortie de l’éditeur zéro code. Vous pouvez accéder à cette option dans la section Sérialisation dans la configuration ADLS Gen2. Pour plus d’informations sur cette fonctionnalité, consultez Écrire dans une table Delta Lake.

Capture d’écran montrant la configuration Delta Lake dans la sortie ADLS Gen2.

Azure Synapse Analytics

Des travaux Azure Stream Analytics peuvent envoyer une sortie à une table de pool SQL dédiée dans Azure Synapse Analytics, et traiter des taux de débit jusqu’à 200 Mo par seconde. Stream Analytics prend en charge les besoins les plus exigeants en matière d’analyse en temps réel et de traitement des données de chemin réactif pour des charges de travail telles que les rapports et les tableaux de bord.

Important

La table de pool SQL dédié doit être présente pour vous permettre de l'ajouter en tant qu'entrée à votre tâche Stream Analytics. Le schéma de table doit correspondre aux champs et aux types dans la sortie de votre travail.

Dans la section Sorties sur le ruban, sélectionnez Synapse comme sortie pour votre travail Stream Analytics. Sélectionnez ensuite la table de pool SQL à laquelle vous souhaitez envoyer la sortie du travail. Pour plus d’informations sur la sortie Azure Synapse pour un travail Stream Analytics, consultez Sortie Azure Synapse Analytics à partir d’Azure Stream Analytics.

Azure Cosmos DB

Azure Cosmos DB est un service de base de données distribuée à l’échelle mondiale, qui offre une mise à l’échelle élastique et sans limite dans le monde entier. Il offre également des requêtes enrichies et une indexation automatique sur des modèles de données indépendants du schéma.

Dans la section Sorties sur le ruban, sélectionnez CosmosDB comme sortie pour votre travail Stream Analytics. Pour plus d’informations sur la sortie Azure Cosmos DB pour un travail Stream Analytics, consultez Sortie Azure Cosmos DB depuis Azure Stream Analytics.

Lorsque vous vous connectez à Azure Cosmos DB, si vous sélectionnez Identité managée comme mode d’authentification, le rôle Contributeur est accordé à l’identité managée pour le travail Stream Analytics. Pour en savoir plus sur les identités managées pour Azure Cosmos DB, consultez Utiliser des identités managées pour accéder à Azure Cosmos DB à partir d’un travail Azure Stream Analytics (préversion).

La méthode d’authentification des identités managées est également prise en charge dans la sortie Azure Cosmos DB dans l’éditeur sans code qui présente le même avantage que dans la sortie ADLS Gen2 ci-dessus.

Azure SQL Database

Azure SQL Database est un moteur de base de données PaaS (Platform as a Service) entièrement managé qui peut vous aider à créer une couche de stockage de données hautement disponible et haute performance pour les applications et solutions dans Azure. À l’aide de l’éditeur sans code, vous pouvez configurer des travaux Azure Stream Analytics pour écrire les données traitées dans une table existante dans SQL Database.

Pour configurer Azure SQL Database en tant que sortie, dans la section Sorties du ruban, sélectionnez SQL Database. Entrez ensuite les informations nécessaires pour connecter votre base de données SQL et sélectionnez la table dans laquelle vous souhaitez écrire des données.

Important

La table Azure SQL Database doit être présente pour vous permettre de l’ajouter en tant qu’entrée à votre tâche Stream Analytics. Le schéma de table doit correspondre aux champs et aux types dans la sortie de votre travail.

Pour plus d’informations sur la sortie dans Azure SQL Database d’un travail Stream Analytics, consultez Sortie dans Azure SQL Database d’Azure Stream Analytics.

Event Hubs

Avec les données en temps réel qui transitent vers Azure Stream Analytics, l’éditeur zéro code peut transformer et enrichir les données, puis les envoyer à un autre hub d’événements. Vous pouvez choisir la sortie Event Hubs quand vous configurez votre travail Azure Stream Analytics.

Pour configurer Event Hubs en tant que sortie, dans la section Sorties du ruban, sélectionnez Event Hub. Renseignez ensuite les informations nécessaires pour connecter votre hub d’événements dans lequel vous souhaitez écrire des données.

Pour plus d’informations sur la sortie Event Hubs pour un travail Stream Analytics, consultez Sortie Event Hubs à partir d’Azure Stream Analytics.

Explorateur de données Azure

Azure Data Explorer est une plateforme d’analytique Big Data très performante et complètement managée, qui facilite l’analyse de grands volumes de données. Vous pouvez également utiliser Azure Data Explorer comme sortie pour votre travail Azure Stream Analytics à l’aide de l’éditeur sans code.

Pour configurer Azure Data Explorer en tant que sortie, dans la section Sorties du ruban, sélectionnez Azure Data Explorer. Entrez ensuite les informations nécessaires pour connecter votre base de données Azure Data Explorer et spécifiez la table dans laquelle vous souhaitez écrire des données.

Important

La table doit exister dans votre base de données sélectionnée, et le schéma de la table doit correspondre exactement aux champs et à leurs types dans la sortie de votre travail.

Pour plus d’informations sur la sortie dans Azure Data Explorer d’un travail Stream Analytics, consultez Sortie dans Azure Data Explorer à partir Azure Stream Analytics (préversion).

Power BI

Power BI propose une expérience de visualisation complète pour vos résultats d’analyse de données. Avec la sortie Power BI dans Stream Analytics, les données de streaming traitées sont écrites dans le jeu de données de streaming Power BI, puis elles peuvent être utilisées pour générer le tableau de bord Power BI en quasi temps réel. Pour en savoir plus sur la création du tableau de bord en quasi temps réel, consultez Créer un tableau de bord en temps réel avec un jeu de données Power BI produit à partir de Stream Analytics sans éditeur de code.

Pour configurer Power BI en tant que sortie, sélectionnez Power BI sous la section Sorties du ruban. Renseignez ensuite les informations nécessaires pour connecter votre espace de travail Power BI et fournissez les noms du jeu de données de streaming et le tableau dans lesquels vous souhaitez écrire les données. Pour en savoir plus sur les détails de chaque champ, consultez Sortie Power BI d’Azure Stream Analytics.

Aperçu des données, erreurs de création, journaux de runtime et métriques

L’expérience de glisser-déplacer sans code fournit des outils permettant de créer un pipeline d’analyse, de résoudre ses problèmes et d’évaluer son niveau de performance pour les données de diffusion en continu.

Aperçu instantané des données pour les entrées

Quand vous vous connectez à une source d'entrée, par exemple : Event Hub et que vous sélectionnez sa vignette dans la vue schématique (onglet Aperçu des données), vous obtenez un aperçu en direct des données entrantes si toutes les conditions suivantes sont remplies :

  • Les données sont en cours de transmission de type push.
  • L’entrée est configurée correctement.
  • Des champs ont été ajoutés.

Comme illustré dans la capture d’écran suivante, si vous souhaitez afficher ou accéder à une section spécifique, vous pouvez suspendre l’aperçu (1). Vous pouvez également le redémarrer si vous avez terminé.

Vous pouvez également afficher les détails d’un enregistrement spécifique (une cellule dans la table) en le sélectionnant, puis en sélectionnant Afficher/masquer les détails (2). La capture d’écran montre la vue détaillée d’un objet imbriqué dans un enregistrement.

Capture d’écran montrant l’onglet Aperçu des données, où vous pouvez suspendre l’aperçu de diffusion en continu et afficher ou masquer des détails.

Aperçu statique pour les transformations et les sorties

Après avoir ajouté et configuré des étapes dans la vue schématique, vous pouvez tester leur comportement en sélectionnant Obtenir un aperçu statique.

Capture d’écran montrant le bouton permettant d’obtenir un aperçu statique.

Après cette opération, le travail Stream Analytics évalue l’ensemble des transformations et des sorties pour vérifier qu’elles sont configurées correctement. Stream Analytics affiche ensuite les résultats dans l’aperçu statique des données, comme illustré dans l’image suivante.

Capture d’écran montrant l’onglet Aperçu des données, où vous pouvez actualiser l’aperçu statique.

Vous pouvez actualiser l’aperçu en sélectionnant Actualiser l’aperçu statique (1). Quand vous actualisez l’aperçu, le travail Stream Analytics utilise de nouvelles données à partir de l’entrée et évalue toutes les transformations. Il renvoie ensuite une sortie avec les mises à jour que vous pourriez avoir effectuées. L’option Afficher/masquer les détails est également disponible (2).

Erreurs de création

En cas d’erreurs ou d’avertissements de création, l’onglet Erreurs de création les répertorie, comme illustré dans la capture d’écran suivante. La liste comprend les détails de l’erreur ou de l’avertissement, le type de carte (entrée, transformation ou sortie), le niveau d’erreur et une description de l’erreur ou de l’avertissement.

Capture d’écran montrant une liste d’exemples d’erreurs de création.

Journaux de runtime

Des journaux de runtime apparaissent aux niveaux avertissement, erreur ou information quand un travail est en cours d’exécution. Ces journaux sont utiles quand vous souhaitez modifier la topologie ou la configuration de votre travail Stream Analytics à des fins de résolution des problèmes. Nous vous recommandons vivement d’activer les journaux de diagnostic et de les envoyer à l’espace de travail Log Analytics dans Paramètres pour obtenir plus d’insights sur vos travaux en cours d’exécution à des fins de débogage.

Capture d’écran montrant la configuration du journal de diagnostic dans l’éditeur sans code.

Dans l’exemple de capture d’écran suivant, l’utilisateur a configuré une sortie SQL Database avec un schéma de table ne correspondant pas aux champs de la sortie du travail.

Capture d’écran montrant l’onglet pour les erreurs de runtime.

Mesures

Si le travail est en cours d’exécution, vous pouvez surveiller son intégrité sous l’onglet Métriques. Les quatre métriques affichées par défaut sont Délai en filigrane, Événements d’entrée, Événements d’entrée en backlog et Événements de sortie. Vous pouvez utiliser ces métriques pour comprendre si les événements circulent en entrée et sortie du travail sans backlog d’entrée.

Capture d’écran montrant les métriques d’un travail créé à partir de l’éditeur sans code.

Vous pouvez sélectionner d’autres métriques dans la liste. Pour comprendre toutes les métriques en détail, consultez Métriques des travaux Azure Stream Analytics.

Démarrage d’un travail Stream Analytics

Vous pouvez enregistrer le travail à tout moment lors de sa création. Après avoir configuré les entrées de streaming, les transformations et les sorties de diffusion en continu pour le travail, vous pouvez le démarrer.

Notes

Bien que l’éditeur sans code soit en préversion dans le portail Azure Stream Analytics, le service Azure Stream Analytics est généralement disponible.

Capture d’écran montrant les boutons Enregistrer et Démarrer.

Vous pouvez configurer les options suivantes :

  • Heure de début de la sortie : quand vous démarrez un travail, vous sélectionnez l’heure à laquelle le travail doit commencer à créer la sortie.
    • Maintenant : cette option a pour effet que le point de départ du flux d’événements de sortie est identique au démarrage du travail.
    • Personnalisé : vous pouvez choisir le point de départ de la sortie.
    • Lors du dernier arrêt : cette option est disponible quand le travail a été démarré précédemment, mais a été arrêté manuellement ou a échoué. Quand vous choisissez cette option, la dernière heure de sortie est utilisée pour redémarrer le travail. Par conséquent, aucune donnée n’est perdue.
  • Unités de streaming : les unités de streaming représentent la quantité de calcul et de mémoire attribuée au travail pendant l’exécution de celui-ci. Si vous ignorez la quantité d’unités de requête à choisir, nous vous recommandons de commencer par trois et d’ajuster cette valeur selon vos besoins.
  • Gestion des erreurs des données de sortie : les stratégies de gestion des erreurs de sortie s’appliquent uniquement quand l’événement de sortie généré par un travail Stream Analytics n’est pas conforme au schéma du récepteur cible. Vous pouvez configurer la stratégie en choisissant Nouvelle tentative ou Supprimer. Pour plus d’informations, consultez Stratégies d’erreur de sortie d’Azure Stream Analytics.
  • Démarrer : ce bouton démarre le travail Stream Analytics.

Capture d’écran montrant la boîte de dialogue pour examiner la configuration du travail Stream Analytics et démarrer celui-ci.

Liste des travaux Stream Analytics dans Azure Event Hubs portail

Pour afficher la liste de tous les travaux Stream Analytics que vous avez créés à l’aide de l’expérience glisser-déplacer sans code dans le portail Azure Event Hubs, sélectionnez Traiter les données>Travaux Stream Analytics.

Capture d’écran montrant la liste des travaux Stream Analytics dans laquelle vous examinez l’état du travail.

Les éléments de l’onglet Travaux Stream Analytics sont les suivants :

  • Filtrer : vous pouvez filtrer la liste par nom de travail.
  • Actualiser : actuellement, la liste ne s’actualise pas automatiquement. Utilisez l’option Actualiser pour actualiser la liste et afficher l’état le plus récent.
  • Nom du travail : le nom de cette zone est celui que vous avez fourni à la première étape de création du travail. Vous ne pouvez pas le modifier. Sélectionnez le nom du travail pour ouvrir le travail dans l’expérience glisser-déplacer sans code où vous pouvez arrêter le travail, le modifier et le redémarrer.
  • État : cette zone affiche l’état du travail. Sélectionnez Actualiser en haut de la liste pour afficher l’état le plus récent.
  • Unités de streaming : cette zone affiche le nombre d’unités de streaming que vous avez sélectionnées quand vous avez démarré le travail.
  • Filigrane de sortie : cette zone fournit un indicateur de dynamisme des données que le travail produit. Tous les événements avant l’horodateur (timestamp) sont déjà calculés.
  • Surveillance du travail : sélectionnez Ouvrir les métriques pour afficher les métriques associées à ce travail Stream Analytics. Pour plus d’informations sur les métriques que vous pouvez utiliser pour superviser votre travail Stream Analytics, consultez Métriques des travaux Azure Stream Analytics.
  • Opérations : démarrer, arrêter ou supprimer le travail.

Étapes suivantes

Découvrez comment utiliser l’éditeur sans code pour traiter les scénarios courants à l’aide de modèles prédéfinis :