Partager via


Parcourir les applications Apache Spark dans le hub de supervision Fabric

Le hub de supervision sert de portail centralisé pour parcourir les activités Apache Spark à travers les éléments. Lorsque vous êtes dans Ingénieurs de données ou Science des données, vous pouvez afficher les applications Apache Spark en cours déclenchées à partir de notebooks, de définitions de travaux Apache Spark et de pipelines. Vous pouvez également rechercher et filtrer des applications Apache Spark en fonction de différents critères. En outre, vous pouvez annuler vos applications Apache Spark en cours et descendre dans la hiérarchie pour afficher plus de détails d’exécution d’une application Apache Spark.

Accéder au hub de supervision

Vous pouvez accéder au hub de supervision pour afficher diverses activités Apache Spark en sélectionnant Hub de supervision dans les liens de navigation de gauche.

Capture d’écran montrant le hub de supervision dans la barre de navigation de gauche.

Trier, rechercher, filtrer les applications Apache Spark et modifier les options de colonne

Pour une meilleure utilisation et une meilleure détectabilité, vous pouvez trier les applications Apache Spark en sélectionnant différentes colonnes dans l’interface utilisateur. Vous pouvez également filtrer les applications en fonction de différentes colonnes et rechercher des applications spécifiques. Vous pouvez également ajuster l’affichage et l’ordre de tri des colonnes indépendamment par le biais des options de colonne.

Trier les applications Apache Spark

Pour trier les applications Apache Spark, vous pouvez sélectionner sur chaque en-tête de colonne, par exemple Nom, État, Type d’élément, Heure de début, Emplacement, etc.

Capture d’écran montrant le tri pour l’application Spark.

Filtrer les applications Apache Spark

Vous pouvez filtrer les applications Apache Spark par État, Type d’élément, Heure de début, Expéditeur etEmplacement à l’aide du volet Filtre dans le coin supérieur droit.

Capture d’écran montrant le filtre pour l’application Spark.

Rechercher des applications Apache Spark

Pour rechercher des applications Apache Spark, vous pouvez entrer certains mots clés dans la zone de recherche située dans le coin supérieur droit.

Capture d’écran montrant la recherche pour l’application Spark.

Modifier les options de colonne des applications Apache Spark

Vous pouvez modifier l’ordre dans lequel les listes sont affichées en sélectionnant la liste à afficher et en la faisant glisser parmi les options de liste.

Capture d’écran montrant les options de colonne déplaçable.

Si vous avez planifié l’exécution de notebooks et de définitions de travaux Spark dans des pipelines, vous pouvez voir les activités Spark de ces notebooks et définitions de travaux Spark dans le hub de supervision. En outre, vous pouvez également voir le pipeline parent correspondant et toutes ses activités dans le Hub de surveillance.

  1. Sélectionnez l'option de colonne Exécution en amont.

Capture d’écran montrant les options de la colonne d’exécution en amont.

  1. Affichez le cycle de pipeline parent associé dans la colonne Exécution en amont, et cliquez sur l’exécution de pipeline pour afficher toutes ses activités.

Capture d’écran montrant le bouton d’exécution en amont dans la liste.

Gérer une application Apache Spark

Lorsque vous pointez sur une ligne d’application Apache Spark, vous pouvez voir différentes actions au niveau des lignes qui vous permettent de gérer une application Apache Spark particulière.

Afficher le volet Détails de l’application Apache Spark

Vous pouvez pointer sur une ligne d’application Apache Spark et cliquer sur l’icône Afficher les détails pour ouvrir le volet Détails et afficher plus de détails sur une application Apache Spark.

Capture d’écran montrant l’affichage du volet Détails pour l’application Spark.

Annuler une application Apache Spark

Si vous devez annuler une application Apache Spark en cours, pointez sur sa ligne et cliquez sur l’icône Annuler.

Capture d’écran montrant l’annulation d’une application Spark.

Si vous avez besoin d’informations supplémentaires sur les statistiques d’exécution Apache Spark, accéder aux journaux Apache Spark ou vérifier les données d’entrée et de sortie, vous pouvez cliquer sur le nom d’une application Apache Spark pour accéder à sa page Détails de l’application Apache Spark correspondante.