Condividi tramite


Esplorare le applicazioni Apache Spark nell'hub di monitoraggio di Fabric

L'hub di monitoraggio funge da portale centralizzato per esplorare le attività di Apache Spark tra gli elementi. Quando ci si trova in Ingegneria dei dati o data science, è possibile visualizzare le applicazioni Apache Spark in corso attivate da notebook, definizioni di processi Apache Spark e pipeline. È anche possibile cercare e filtrare le applicazioni Apache Spark in base a criteri diversi. È anche possibile annullare le applicazioni Apache Spark in corso ed eseguire il drill-down per visualizzare altri dettagli di esecuzione di un'applicazione Apache Spark.

Accedere all'hub di monitoraggio

È possibile accedere all'hub di monitoraggio per visualizzare varie attività di Apache Spark selezionando Hub di monitoraggio nei collegamenti di spostamento a sinistra.

Screenshot che mostra l'hub di monitoraggio nella barra di spostamento sul lato sinistro.

Ordinare, cercare, filtrare e colonne applicazioni Apache Spark

Per migliorare l'usabilità e l'individuabilità, è possibile ordinare le applicazioni Apache Spark selezionando colonne diverse nell'interfaccia utente. È anche possibile filtrare le applicazioni in base a colonne diverse e cercare applicazioni specifiche. È anche possibile regolare la visualizzazione e l'ordinamento delle colonne in modo indipendente tramite le opzioni di colonna.

Ordinare le applicazioni Apache Spark

Per ordinare le applicazioni Apache Spark, è possibile selezionare in ogni intestazione di colonna, ad esempio Nome, Stato, Tipo di elemento, Ora di inizio, Posizione e così via.

Screenshot che mostra l'applicazione Spark di ordinamento.

Filtrare le applicazioni Apache Spark

È possibile filtrare le applicazioni Apache Spark in base allo stato, al tipo di elemento, all'ora di inizio, al mittente e alla posizione usando il riquadro Filtro nell'angolo superiore destro.

Screenshot che mostra le applicazioni Spark di filtro.

Cercare applicazioni Apache Spark

Per cercare applicazioni Apache Spark specifiche, è possibile immettere determinate parole chiave nella casella di ricerca che si trova nell'angolo superiore destro.

Screenshot che mostra l'applicazione Spark di ricerca.

Opzioni di colonna Applicazioni Apache Spark

È possibile modificare l'ordine in cui vengono visualizzati gli elenchi selezionando l'elenco da visualizzare e quindi trascinando le opzioni elenco.

Screenshot che mostra le opzioni di colonna trascinabili.

Se sono state pianificate definizioni di notebook e processi Spark da eseguire nelle pipeline, è possibile visualizzare le attività Spark da questi notebook e definizioni di processi Spark nell'hub di monitoraggio. Inoltre, è anche possibile visualizzare la pipeline padre corrispondente e tutte le relative attività nell'hub di monitoraggio.

  1. Selezionare l'opzione Colonna di esecuzione upstream.

Screenshot che mostra le opzioni delle colonne di esecuzione upstream.

  1. Visualizzare l'esecuzione della pipeline padre correlata nella colonna Di esecuzione Upstream e fare clic sull'esecuzione della pipeline per visualizzare tutte le relative attività.

Screenshot che mostra il pulsante di esecuzione upstream nell'elenco.

Gestire un'applicazione Apache Spark

Quando si passa il puntatore del mouse su una riga dell'applicazione Apache Spark, è possibile visualizzare varie azioni a livello di riga che consentono di gestire una particolare applicazione Apache Spark.

Visualizzare il riquadro dei dettagli dell'applicazione Apache Spark

È possibile passare il puntatore del mouse su una riga dell'applicazione Apache Spark e fare clic sull'icona Visualizza dettagli per aprire il riquadro Dettagli e visualizzare altri dettagli su un'applicazione Apache Spark.

Screenshot che mostra il riquadro dei dettagli dell'applicazione Spark.

Annullare un'applicazione Apache Spark

Se è necessario annullare un'applicazione Apache Spark in corso, passare il puntatore del mouse sulla riga e fare clic sull'icona Annulla .

Screenshot che mostra l'annullamento di un'applicazione Spark.

Se sono necessarie altre informazioni sulle statistiche di esecuzione di Apache Spark, accedere ai log di Apache Spark o controllare i dati di input e output, è possibile fare clic sul nome di un'applicazione Apache Spark per passare alla corrispondente pagina dei dettagli dell'applicazione Apache Spark.