az synapse spark job
Gestire i processi batch di Synapse Spark.
Comandi
Nome | Descrizione | Tipo | Status |
---|---|---|---|
az synapse spark job cancel |
Annullare un processo Spark. |
Core | Disponibilità generale |
az synapse spark job list |
Elencare tutti i processi Spark. |
Core | Disponibilità generale |
az synapse spark job show |
Ottenere un processo Spark. |
Core | Disponibilità generale |
az synapse spark job submit |
Inviare un processo Spark. |
Core | Disponibilità generale |
az synapse spark job cancel
Annullare un processo Spark.
az synapse spark job cancel --livy-id
--spark-pool-name
--workspace-name
[--yes]
Esempio
Annullare un processo Spark.
az synapse spark job cancel --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool
Parametri necessari
ID del processo Spark.
Nome del pool di Spark.
Nome dell'area di lavoro.
Parametri facoltativi
Indica che non è richiesta la conferma.
Parametri globali
Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.
Visualizza questo messaggio della guida ed esce.
Mostra solo gli errori, eliminando gli avvisi.
Formato di output.
Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.
Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID
.
Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.
az synapse spark job list
Elencare tutti i processi Spark.
az synapse spark job list --spark-pool-name
--workspace-name
[--from-index]
[--size]
Esempio
Elencare tutti i processi Spark.
az synapse spark job list --workspace-name testsynapseworkspace --spark-pool-name testsparkpool
Parametri necessari
Nome del pool di Spark.
Nome dell'area di lavoro.
Parametri facoltativi
Parametro facoltativo che specifica l'indice da cui iniziare l'elenco.
Dimensioni dell'elenco restituito. Per impostazione predefinita, è 20 e questo è il valore massimo.
Parametri globali
Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.
Visualizza questo messaggio della guida ed esce.
Mostra solo gli errori, eliminando gli avvisi.
Formato di output.
Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.
Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID
.
Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.
az synapse spark job show
Ottenere un processo Spark.
az synapse spark job show --livy-id
--spark-pool-name
--workspace-name
Esempio
Ottenere un processo Spark.
az synapse spark job show --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool
Parametri necessari
ID del processo Spark.
Nome del pool di Spark.
Nome dell'area di lavoro.
Parametri globali
Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.
Visualizza questo messaggio della guida ed esce.
Mostra solo gli errori, eliminando gli avvisi.
Formato di output.
Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.
Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID
.
Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.
az synapse spark job submit
Inviare un processo Spark.
az synapse spark job submit --executor-size {Large, Medium, Small}
--executors
--main-definition-file
--name
--spark-pool-name
--workspace-name
[--archives]
[--arguments]
[--configuration]
[--language {CSharp, PySpark, Python, Scala, Spark, SparkDotNet}]
[--main-class-name]
[--python-files]
[--reference-files]
[--tags]
Esempio
Inviare un processo Java Spark.
az synapse spark job submit --name WordCount_Java --workspace-name testsynapseworkspace \
--spark-pool-name testsparkpool \
--main-definition-file abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/wordcount.jar \
--main-class-name WordCount \
--arguments abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/shakespeare.txt \
abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/result/ \
--executors 2 --executor-size Small
Parametri necessari
Dimensioni dell'executor.
Numero di executor.
File principale usato per il processo.
Nome del processo Spark.
Nome del pool di Spark.
Nome dell'area di lavoro.
Parametri facoltativi
Matrice di archivi.
Argomenti facoltativi per il processo (nota: usare gli URI di archiviazione per gli argomenti di file).
Configurazione del processo Spark.
Linguaggio del processo Spark.
Identificatore completo o classe principale presente nel file di definizione principale.
Matrice di file usati per il refenence nel file di definizione python principale. Gli esempi includono file whl personalizzati e file Python personalizzati. Può passare più file, ad esempio "az synapse spark job sumbit <other_args> --python_files abfss://file1 abss://file2".
File aggiuntivi usati come riferimento nel file di definizione principale.
Tag separati da spazi: key[=value] [key[=value] ...]. Usare "" per cancellare i tag esistenti.
Parametri globali
Aumenta il livello di dettaglio della registrazione per mostrare tutti i log di debug.
Visualizza questo messaggio della guida ed esce.
Mostra solo gli errori, eliminando gli avvisi.
Formato di output.
Stringa di query JMESPath. Per altre informazioni ed esempi, vedere http://jmespath.org/.
Nome o ID della sottoscrizione. È possibile configurare la posizione predefinito usando az account set -s NAME_OR_ID
.
Aumenta il livello di dettaglio della registrazione. Usare --debug per log di debug completi.