Programación y ejecución de una definición de trabajo de Apache Spark
En este tutorial, aprenderá a ejecutar un elemento de definición de trabajo de Spark de Microsoft Fabric y a supervisar el trabajo.
Importante
Microsoft Fabric está actualmente en versión preliminar. Esta información está relacionada con un producto en versión preliminar que puede modificarse considerablemente antes de su lanzamiento. Microsoft no ofrece ninguna garantía, expresa o implícita, con respecto a la información que se ofrece aquí.
Requisitos previos
Para empezar, debe tener los siguientes requisitos previos:
- Una cuenta de inquilino de Microsoft Fabric con una suscripción activa. Cree una cuenta gratuita.
- Descripción de la definición del trabajo de Spark: ¿Qué es una definición de trabajo de Apache Spark?
- Creación de una definición de trabajo de Spark: creación de una definición de trabajo de Apache Spark.
Ejecución de una definición de trabajo de Spark
Hay dos maneras en que un usuario podría ejecutar una definición de trabajo de Spark:
Ejecute manualmente un elemento de definición de trabajo de Spark haciendo clic en el botón Ejecutar del elemento de definición de trabajo de Spark.
Programe un elemento de definición de trabajo de Spark configurando el plan de programación en la pestaña Configuración . Seleccione Configuración en la barra de herramientas y, a continuación, seleccione la pestaña Programación .
Importante
Para ejecutar una definición de trabajo de Spark, debe tener el archivo de definición principal y el contexto de lakehouse predeterminado.
Sugerencia
Para la ejecución desencadenada por el botón "Ejecutar", la cuenta del usuario de inicio de sesión actual se usará para enviar el trabajo Para la ejecución desencadenada por el plan de programación, la cuenta del usuario que configura el plan de programación se usará para enviar el trabajo.
Una vez que haya enviado la ejecución, después de tres a cinco segundos, aparecerá una nueva fila en la pestaña Ejecuciones . La fila muestra detalles sobre la nueva ejecución. La columna Estado muestra el estado casi en tiempo real del trabajo y la columna Run Kind muestra si el trabajo es manual o programado.
Para obtener información detallada sobre cómo supervisar el trabajo, consulte Supervisión de un trabajo de Spark.
Cómo cancelar un trabajo en ejecución
Una vez enviado el trabajo, puede cancelar el trabajo haciendo clic en el botón Cancelar del elemento de definición de trabajo de Spark de la lista de trabajos.