Esplorare le applicazioni Apache Spark nell'hub di monitoraggio di Fabric

L'hub di monitoraggio funge da portale centralizzato per esplorare le attività di Apache Spark tra gli elementi. Quando ci si trova nella Ingegneria dei dati o nell'esperienza di data science, è possibile visualizzare le applicazioni Apache Spark in corso attivate da notebook, definizioni di processi Apache Spark e pipeline. È anche possibile cercare e filtrare le applicazioni Apache Spark in base a criteri diversi. È anche possibile annullare le applicazioni Apache Spark in corso ed eseguire il drill-down per visualizzare altri dettagli di esecuzione di un'applicazione Apache Spark.

Accedere all'hub di monitoraggio

È possibile accedere all'hub di monitoraggio per visualizzare varie attività di Apache Spark selezionando Hub di monitoraggio nei collegamenti di spostamento a sinistra.

Screenshot showing the monitoring hub in the left side navigation bar.

Ordinare, cercare, filtrare e colonne applicazioni Apache Spark

Per migliorare l'usabilità e l'individuabilità, è possibile ordinare le applicazioni Apache Spark selezionando colonne diverse nell'interfaccia utente. È anche possibile filtrare le applicazioni in base a colonne diverse e cercare applicazioni specifiche. È anche possibile regolare la visualizzazione e l'ordinamento delle colonne in modo indipendente tramite le opzioni di colonna.

Ordinare le applicazioni Apache Spark

Per ordinare le applicazioni Apache Spark, è possibile selezionare in ogni intestazione di colonna, ad esempio Nome, Stato, Tipo di elemento, Ora di inizio, Posizione e così via.

Screenshot showing the sort spark application.

Filtrare le applicazioni Apache Spark

È possibile filtrare le applicazioni Apache Spark in base allo stato, al tipo di elemento, all'ora di inizio, al mittente e alla posizione usando il riquadro Filtro nell'angolo superiore destro.

Screenshot showing the filter spark applications.

Cercare applicazioni Apache Spark

Per cercare applicazioni Apache Spark specifiche, è possibile immettere determinate parole chiave nella casella di ricerca che si trova nell'angolo superiore destro.

Screenshot showing the search spark application.

Opzioni di colonna Applicazioni Apache Spark

È possibile modificare l'ordine in cui vengono visualizzati gli elenchi selezionando l'elenco da visualizzare e quindi trascinando le opzioni elenco.

Screenshot showing the draggable column options.

Se sono state pianificate definizioni di notebook e processi Spark da eseguire nelle pipeline, è possibile visualizzare le attività spark da questi notebook e definizioni di processi Spark nell'hub di monitoraggio. Inoltre, è anche possibile visualizzare la pipeline padre corrispondente e tutte le relative attività nell'hub di monitoraggio.

  1. Selezionare l'opzione Colonna di esecuzione upstream.

Screenshot showing the upstream run column options.

  1. Visualizzare l'esecuzione della pipeline padre correlata nella colonna Di esecuzione Upstream e fare clic sull'esecuzione della pipeline per visualizzare tutte le relative attività.

Screenshot showing the upstream run button in list.

Gestire un'applicazione Apache Spark

Quando si passa il puntatore del mouse su una riga dell'applicazione Apache Spark, è possibile visualizzare varie azioni a livello di riga che consentono di gestire una particolare applicazione Apache Spark.

Visualizzare il riquadro dei dettagli dell'applicazione Apache Spark

È possibile passare il puntatore del mouse su una riga dell'applicazione Apache Spark e fare clic sull'icona Visualizza dettagli per aprire il riquadro Dettagli e visualizzare altri dettagli su un'applicazione Apache Spark.

Screenshot showing the view spark application detail pane.

Annullare un'applicazione Apache Spark

Se è necessario annullare un'applicazione Apache Spark in corso, passare il puntatore del mouse sulla riga e fare clic sull'icona Annulla .

Screenshot showing the cancel a spark application.

Se sono necessarie altre informazioni sulle statistiche di esecuzione di Apache Spark, accedere ai log di Apache Spark o controllare i dati di input e output, è possibile fare clic sul nome di un'applicazione Apache Spark per passare alla corrispondente pagina dei dettagli dell'applicazione Apache Spark.