Esplorare le applicazioni Apache Spark nell'hub di monitoraggio di Fabric
L'hub di monitoraggio funge da portale centralizzato per esplorare le attività di Apache Spark tra gli elementi. Quando ci si trova in Ingegneria dei dati o data science, è possibile visualizzare le applicazioni Apache Spark in corso attivate da notebook, definizioni di processi Apache Spark e pipeline. È anche possibile cercare e filtrare le applicazioni Apache Spark in base a criteri diversi. È anche possibile annullare le applicazioni Apache Spark in corso ed eseguire il drill-down per visualizzare altri dettagli di esecuzione di un'applicazione Apache Spark.
Accedere all'hub di monitoraggio
È possibile accedere all'hub di monitoraggio per visualizzare varie attività di Apache Spark selezionando Hub di monitoraggio nei collegamenti di spostamento a sinistra.
Ordinare, cercare, filtrare e colonne applicazioni Apache Spark
Per migliorare l'usabilità e l'individuabilità, è possibile ordinare le applicazioni Apache Spark selezionando colonne diverse nell'interfaccia utente. È anche possibile filtrare le applicazioni in base a colonne diverse e cercare applicazioni specifiche. È anche possibile regolare la visualizzazione e l'ordinamento delle colonne in modo indipendente tramite le opzioni di colonna.
Ordinare le applicazioni Apache Spark
Per ordinare le applicazioni Apache Spark, è possibile selezionare in ogni intestazione di colonna, ad esempio Nome, Stato, Tipo di elemento, Ora di inizio, Posizione e così via.
Filtrare le applicazioni Apache Spark
È possibile filtrare le applicazioni Apache Spark in base allo stato, al tipo di elemento, all'ora di inizio, al mittente e alla posizione usando il riquadro Filtro nell'angolo superiore destro.
Cercare applicazioni Apache Spark
Per cercare applicazioni Apache Spark specifiche, è possibile immettere determinate parole chiave nella casella di ricerca che si trova nell'angolo superiore destro.
Opzioni di colonna Applicazioni Apache Spark
È possibile modificare l'ordine in cui vengono visualizzati gli elenchi selezionando l'elenco da visualizzare e quindi trascinando le opzioni elenco.
Abilitare la visualizzazione upstream per le pipeline correlate
Se sono state pianificate definizioni di notebook e processi Spark da eseguire nelle pipeline, è possibile visualizzare le attività Spark da questi notebook e definizioni di processi Spark nell'hub di monitoraggio. Inoltre, è anche possibile visualizzare la pipeline padre corrispondente e tutte le relative attività nell'hub di monitoraggio.
- Selezionare l'opzione Colonna di esecuzione upstream.
- Visualizzare l'esecuzione della pipeline padre correlata nella colonna Di esecuzione Upstream e fare clic sull'esecuzione della pipeline per visualizzare tutte le relative attività.
Gestire un'applicazione Apache Spark
Quando si passa il puntatore del mouse su una riga dell'applicazione Apache Spark, è possibile visualizzare varie azioni a livello di riga che consentono di gestire una particolare applicazione Apache Spark.
Visualizzare il riquadro dei dettagli dell'applicazione Apache Spark
È possibile passare il puntatore del mouse su una riga dell'applicazione Apache Spark e fare clic sull'icona Visualizza dettagli per aprire il riquadro Dettagli e visualizzare altri dettagli su un'applicazione Apache Spark.
Annullare un'applicazione Apache Spark
Se è necessario annullare un'applicazione Apache Spark in corso, passare il puntatore del mouse sulla riga e fare clic sull'icona Annulla .
Passare alla visualizzazione dei dettagli dell'applicazione Apache Spark
Se sono necessarie altre informazioni sulle statistiche di esecuzione di Apache Spark, accedere ai log di Apache Spark o controllare i dati di input e output, è possibile fare clic sul nome di un'applicazione Apache Spark per passare alla corrispondente pagina dei dettagli dell'applicazione Apache Spark.