Editar

Compartir a través de


Preguntas más frecuentes sobre la configuración de administración del área de trabajo de Apache Spark

En este artículo, se muestran las respuestas a las preguntas más frecuentes sobre la configuración de administración del área de trabajo de Apache Spark.

¿Cómo puedo usar los roles RBAC para configurar las opciones del área de trabajo de Spark?

Use el menú Administrar acceso para agregar permisos de Administración para usuarios específicos, grupos de distribución o grupos de seguridad. También puede usar este menú para realizar cambios en el área de trabajo y para conceder acceso para agregar, modificar o eliminar la configuración del área de trabajo de Spark.

¿Los cambios realizados en las propiedades de Spark en el nivel de área de trabajo se aplican a las sesiones activas del cuaderno o a los trabajos de Spark programados?

Cuando se realiza un cambio de configuración en el nivel de área de trabajo, no se aplica a las sesiones activas de Spark. Esto incluye sesiones basadas en lotes o cuadernos. Debe iniciar un nuevo cuaderno o una sesión por lotes después de guardar las nuevas opciones de configuración para que la configuración surta efecto.

¿Puedo configurar la familia de nodos, el entorno de ejecución de Spark y las propiedades de Spark en un nivel de capacidad?

Sí, puede cambiar el entorno de ejecución o administrar las propiedades de Spark mediante la configuración de Ingeniería de datos o Ciencia de datos como parte de la página de configuración del administrador de capacidad. Necesita tener acceso de administrador de capacidad para ver y cambiar esta configuración de capacidad.

¿Puedo elegir diferentes familias de nodos para distintos cuadernos y definiciones de trabajos de Spark en mi área de trabajo?

Actualmente, solo puede seleccionar la familia de nodos optimizada para memoria para toda el área de trabajo.

¿Qué versiones de Spark se admiten?

Actualmente, la versión 3.3 de Spark es la única versión admitida. Las versiones adicionales estarán disponibles en la próxima versión.

¿Puedo configurar estas opciones en un nivel de cuaderno?

Actualmente, la configuración de administración de Spark solo está disponible en el nivel de área de trabajo y capacidad.

¿Puedo configurar el número mínimo y máximo de nodos para la familia de nodos seleccionada?

Actualmente, la configuración del límite de nodos no está disponible. Esta funcionalidad se habilitará en futuras versiones.

¿Puedo habilitar el escalado automático para los grupos de Spark en una familia de nodos basada en GPU optimizada para memoria o acelerada mediante hardware?

El escalado automático no está disponible actualmente. Esta funcionalidad se habilitará en futuras versiones.

¿El almacenamiento en caché inteligente para los grupos de Spark es compatible o está habilitado de forma predeterminada para un área de trabajo?

El almacenamiento en caché inteligente está habilitado de forma predeterminada para los grupos de Spark para todas las áreas de trabajo.