Compartir vía


az synapse spark job

Administración de trabajos por lotes de Synapse Spark.

Comandos

Nombre Description Tipo Estado
az synapse spark job cancel

Cancelar un trabajo de Spark.

Núcleo GA
az synapse spark job list

Enumerar todos los trabajos de Spark.

Núcleo GA
az synapse spark job show

Obtener un trabajo de Spark.

Núcleo GA
az synapse spark job submit

Envíe un trabajo de Spark.

Núcleo GA

az synapse spark job cancel

Cancelar un trabajo de Spark.

az synapse spark job cancel --livy-id
                            --spark-pool-name
                            --workspace-name
                            [--yes]

Ejemplos

Cancelar un trabajo de Spark.

az synapse spark job cancel --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Parámetros requeridos

--livy-id

Identificador del trabajo de Spark.

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

Nombre del área de trabajo.

Parámetros opcionales

--yes -y

No solicita confirmación.

Valor predeterminado: False
Parámetros globales
--debug

Aumente el nivel de detalle del registro para mostrar todos los registros de depuración.

--help -h

Mostrar este mensaje de ayuda y salir.

--only-show-errors

Solo se muestran errores, suprimiendo advertencias.

--output -o

Formato de salida.

Valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
Valor predeterminado: json
--query

Cadena de consulta JMESPath. Consulte http://jmespath.org/ para obtener más información y ejemplos.

--subscription

Nombre o identificador de la suscripción. Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle del registro. Usa --debug para ver registros de depuración completos.

az synapse spark job list

Enumerar todos los trabajos de Spark.

az synapse spark job list --spark-pool-name
                          --workspace-name
                          [--from-index]
                          [--size]

Ejemplos

Enumerar todos los trabajos de Spark.

az synapse spark job list --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Parámetros requeridos

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

Nombre del área de trabajo.

Parámetros opcionales

--from-index

Parámetro opcional que especifica desde qué índice debe comenzar la lista.

--size

Tamaño de la lista devuelta. De forma predeterminada, es 20 y es el máximo.

Parámetros globales
--debug

Aumente el nivel de detalle del registro para mostrar todos los registros de depuración.

--help -h

Mostrar este mensaje de ayuda y salir.

--only-show-errors

Solo se muestran errores, suprimiendo advertencias.

--output -o

Formato de salida.

Valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
Valor predeterminado: json
--query

Cadena de consulta JMESPath. Consulte http://jmespath.org/ para obtener más información y ejemplos.

--subscription

Nombre o identificador de la suscripción. Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle del registro. Usa --debug para ver registros de depuración completos.

az synapse spark job show

Obtener un trabajo de Spark.

az synapse spark job show --livy-id
                          --spark-pool-name
                          --workspace-name

Ejemplos

Obtener un trabajo de Spark.

az synapse spark job show --livy-id 1 --workspace-name testsynapseworkspace --spark-pool-name testsparkpool

Parámetros requeridos

--livy-id

Identificador del trabajo de Spark.

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

Nombre del área de trabajo.

Parámetros globales
--debug

Aumente el nivel de detalle del registro para mostrar todos los registros de depuración.

--help -h

Mostrar este mensaje de ayuda y salir.

--only-show-errors

Solo se muestran errores, suprimiendo advertencias.

--output -o

Formato de salida.

Valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
Valor predeterminado: json
--query

Cadena de consulta JMESPath. Consulte http://jmespath.org/ para obtener más información y ejemplos.

--subscription

Nombre o identificador de la suscripción. Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle del registro. Usa --debug para ver registros de depuración completos.

az synapse spark job submit

Envíe un trabajo de Spark.

az synapse spark job submit --executor-size {Large, Medium, Small}
                            --executors
                            --main-definition-file
                            --name
                            --spark-pool-name
                            --workspace-name
                            [--archives]
                            [--arguments]
                            [--configuration]
                            [--language {CSharp, PySpark, Python, Scala, Spark, SparkDotNet}]
                            [--main-class-name]
                            [--python-files]
                            [--reference-files]
                            [--tags]

Ejemplos

Envíe un trabajo de Java Spark.

az synapse spark job submit --name WordCount_Java --workspace-name testsynapseworkspace \
--spark-pool-name testsparkpool \
--main-definition-file abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/wordcount.jar \
--main-class-name WordCount \
--arguments abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/shakespeare.txt \
abfss://testfilesystem@testadlsgen2.dfs.core.windows.net/samples/java/wordcount/result/ \
--executors 2 --executor-size Small

Parámetros requeridos

--executor-size

Tamaño del ejecutor.

Valores aceptados: Large, Medium, Small
--executors

Número de ejecutores.

--main-definition-file

Archivo principal usado para el trabajo.

--name -n

Nombre del trabajo de Spark.

--spark-pool-name

Nombre del grupo de Spark.

--workspace-name

Nombre del área de trabajo.

Parámetros opcionales

--archives

Matriz de archivos.

--arguments

Argumentos opcionales para el trabajo (nota: use los URI de almacenamiento para los argumentos de archivo).

--configuration

Configuración del trabajo de Spark.

--language

Lenguaje de trabajo de Spark.

Valores aceptados: CSharp, PySpark, Python, Scala, Spark, SparkDotNet
Valor predeterminado: Scala
--main-class-name

Identificador completo o la clase principal que se encuentra en el archivo de definición principal.

--python-files

Matriz de archivos usados para la revalencia en el archivo de definición de Python principal. Algunos ejemplos son los archivos whl personalizados y los archivos de Python personalizados. Puede pasar varios archivos, como az synapse spark job sumbit <other_args> --python_files abfss://file1 abss://file2.

--reference-files

Archivos adicionales usados como referencia en el archivo de definición principal.

--tags

Etiquetas separadas por espacios: key[=value] [key[=value] ...]. Use "" para borrar las etiquetas existentes.

Parámetros globales
--debug

Aumente el nivel de detalle del registro para mostrar todos los registros de depuración.

--help -h

Mostrar este mensaje de ayuda y salir.

--only-show-errors

Solo se muestran errores, suprimiendo advertencias.

--output -o

Formato de salida.

Valores aceptados: json, jsonc, none, table, tsv, yaml, yamlc
Valor predeterminado: json
--query

Cadena de consulta JMESPath. Consulte http://jmespath.org/ para obtener más información y ejemplos.

--subscription

Nombre o identificador de la suscripción. Puede configurar la suscripción predeterminada mediante az account set -s NAME_OR_ID.

--verbose

Aumente el nivel de detalle del registro. Usa --debug para ver registros de depuración completos.