Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Puede establecer las propiedades de configuración de Spark (propiedades de configuración de Spark) para personalizar los ajustes en su entorno de computación.
Por lo general, Databricks recomienda no configurar la mayoría de las propiedades de Spark. Especialmente al migrar desde Apache Spark de código abierto o al actualizar versiones de Databricks Runtime, las configuraciones heredadas de Spark pueden invalidar nuevos comportamientos predeterminados que optimizan las cargas de trabajo.
Para muchos comportamientos controlados por las propiedades de Spark, Azure Databricks también proporciona opciones para habilitar el comportamiento en un nivel de tabla o para configurar el comportamiento personalizado como parte de una operación de escritura. Por ejemplo, la evolución del esquema se controló previamente mediante una propiedad Spark, pero ahora tiene cobertura en SQL, Python y Scala. Consulte Sintaxis de evolución del esquema para la combinación.
Configuración de las propiedades de Spark para cuadernos y trabajos
Puede establecer las propiedades de Spark para cuadernos y trabajos. El ámbito de la configuración depende de cómo lo establezca.
Propiedades configuradas: | Se aplica a: |
---|---|
Uso de la configuración del cómputo | Todos los cuadernos y trabajos utilizan el recurso de computación. |
Dentro de un cuaderno | Solo SparkSession para el cuaderno actual. |
Para obtener instrucciones sobre cómo configurar las propiedades de Spark en el nivel de proceso, consulte Configuración de Spark.
Para establecer una propiedad de Spark en un cuaderno, use la sintaxis siguiente:
SQL
SET spark.sql.ansi.enabled = true
Pitón
spark.conf.set("spark.sql.ansi.enabled", "true")
Scala
spark.conf.set("spark.sql.ansi.enabled", "true")
Configuración de las propiedades de Spark en Databricks SQL
Databricks SQL permite a los administradores configurar las propiedades de Spark para el acceso a datos en el menú de configuración del área de trabajo. Consulte Configuraciones de acceso a datos
Aparte de las configuraciones de acceso a datos, Databricks SQL solo permite una serie de configuraciones de Spark, que tienen nombres más cortos para simplificar. Vea Parámetros de configuración.
Para la mayoría de las configuraciones de SQL admitidas, puede sobrescribir el comportamiento global en su sesión actual. En el ejemplo siguiente se desactiva el modo ANSI:
SET ANSI_MODE = false
Configuración de las propiedades de Spark para canalizaciones declarativas de Lakeflow
Lakeflow Declarative Pipelines permite configurar las propiedades de Spark para una canalización, para un recurso de proceso configurado para una canalización o para flujos individuales, vistas materializadas o tablas de streaming.
Puede establecer propiedades de Spark de canalización y proceso mediante la interfaz de usuario o JSON. Consulte Configuración de canalizaciones declarativas de Lakeflow.
Utiliza la opción spark_conf
en las funciones decoradoras de Pipelines Declarativos de Lakeflow para configurar propiedades de Spark para flujos, vistas o tablas. Consulte Referencia del lenguaje Python de Lakeflow para Canalizaciones Declarativas.
Configuración de las propiedades de Spark para cuadernos y trabajos sin servidor
La computación sin servidor no admite la configuración de la mayoría de las propiedades de Spark en cuadernos o trabajos. A continuación se muestran las propiedades que puede configurar:
Propiedad | Predeterminado | Descripción |
---|---|---|
spark.databricks.execution.timeout |
9000 |
Tiempo de espera de ejecución, en segundos, para las consultas de Spark Connect. El valor predeterminado solo es aplicable a los cuadernos que se ejecutan en proceso sin servidor. En el caso de los trabajos que se ejecutan en computación sin servidor y computación con modo de acceso estándar, no hay tiempo de espera a menos que se establezca esta propiedad. |
spark.sql.legacy.timeParserPolicy |
CORRECTED |
Directiva del analizador de tiempo. |
spark.sql.session.timeZone |
Etc/UTC |
Identificador de la zona horaria local de sesión en formato de identificadores de zona basados en la región o en desplazamientos de zona. |
spark.sql.shuffle.partitions |
auto |
Número predeterminado de particiones que se van a usar al ordenar aleatoriamente datos para combinaciones o agregaciones. |
spark.sql.ansi.enabled |
true |
Cuando es true, Spark SQL usa un dialecto compatible con ANSI en lugar de ser compatible con Hive. |
Obtener el ajuste actual de una configuración de Spark
Use la sintaxis siguiente para revisar la configuración actual de una configuración de Spark:
spark.conf.get("configuration_name")