Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las siguientes características y mejoras de Databricks SQL se publicaron en 2026.
Febrero de 2026
Databricks SQL, versión 2025.40, se está implementando en la versión actual.
23 de febrero de 2026
Databricks SQL versión 2025.40 se está implementando en el canal Current. Consulte las características de 2025.40.
Databricks SQL versión 2025.40 ya está disponible en versión preliminar
11 de febrero de 2026
Databricks SQL versión 2025.40 ya está disponible en el canal de versión preliminar . Revise la siguiente sección para obtener información sobre las nuevas características, los cambios de comportamiento y las correcciones de errores.
El scripting de SQL está disponible con carácter general
El scripting de SQL ya está disponible con carácter general. Escriba lógica de procedimientos con SQL, incluidas instrucciones condicionales, bucles, variables locales y control de excepciones.
Ahora se admiten marcadores de parámetros en más contextos SQL
Ahora puede usar marcadores de parámetro con nombre (:param) y sin nombre (?) en cualquier lugar donde se permita un valor literal del tipo adecuado. Esto incluye instrucciones DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de columna como DECIMAL(:p, :s), y comentarios como COMMENT ON t IS :comment. Esto le permite parametrizar una gran variedad de instrucciones SQL sin exponer el código a ataques por inyección de código SQL. Consulte Marcadores de parámetros.
IDENTIFIER cláusula ampliada a más contextos SQL
La IDENTIFIER cláusula , que convierte cadenas en nombres de objeto de SQL, ahora se admite en casi todos los contextos en los que se permite un identificador. En combinación con el soporte ampliado para marcadores de parámetros y el soporte para la unión de cadenas literales, es posible parametrizar cualquier elemento, desde alias de columna (AS IDENTIFIER(:name)) hasta definiciones de columna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte la cláusula IDENTIFIER.
Coalescencia de cadenas literales admitida universalmente
Literales de cadena secuenciales, como 'Hello' ' World', ahora se combinan en 'Hello World' en cualquier contexto donde se permitan literales de cadena, incluido COMMENT 'This' ' is a ' 'comment'. Vea el tipo STRING.
Nueva función de BITMAP_AND_AGG
Ahora hay disponible una nueva función BITMAP_AND_AGG para complementar la biblioteca de BITMAP funciones existente.
Nuevas funciones de Theta Sketch para recuentos distintos aproximados
Ahora está disponible una nueva biblioteca de funciones para recuentos distintos aproximados y operaciones de conjuntos utilizando Datasketches Theta Sketch.
-
theta_sketch_aggfunción de agregación -
theta_union_aggfunción de agregación -
theta_intersection_aggfunción de agregación -
theta_sketch_estimateFunción -
theta_unionFunción -
theta_differenceFunción -
theta_intersectionFunción
Nuevas funciones de croquis KLL para cuantiles aproximados
Ahora hay disponible una nueva biblioteca de funciones para crear bocetos KLL para el cálculo cuantiles aproximado:
-
kll_sketch_agg_bigintfunción de agregación -
kll_sketch_get_quantile_bigintFunción -
kll_sketch_merge_bigintFunción -
kll_sketch_agg_doublefunción de agregación -
kll_sketch_get_quantile_doubleFunción -
kll_sketch_merge_doubleFunción -
kll_sketch_agg_floatfunción de agregación -
kll_sketch_get_quantile_floatFunción -
kll_sketch_merge_floatFunción -
kll_sketch_get_n_bigintFunción -
kll_sketch_get_rank_bigintFunción -
kll_sketch_to_string_bigintFunción -
kll_sketch_get_n_doubleFunción -
kll_sketch_get_rank_doubleFunción -
kll_sketch_to_string_doubleFunción -
kll_sketch_get_n_floatFunción -
kll_sketch_get_rank_floatFunción -
kll_sketch_to_string_floatFunción
Puede combinar varios bocetos de KLL en un contexto de agregación mediante kll_merge_agg_bigint, kll_merge_agg_double y kll_merge_agg_float.
Funciones de ventana SQL en vistas de métricas
Ahora puede usar funciones de ventana SQL en vistas de métricas para calcular los totales en ejecución, las clasificaciones y otros cálculos basados en ventanas.
Nuevas funciones geoespaciales
Las siguientes nuevas funciones geoespaciales ahora están disponibles:
-
st_azimuthfunción: Devuelve el azimut basado en el norte desde el primer punto hasta el segundo en radianes en[0, 2π). -
st_boundaryfunction: devuelve el límite de la geometría de entrada. -
st_closestpointfunction: devuelve la proyección 2D de un punto en la primera geometría más cercana a la segunda geometría. -
st_geogfromewktfunción: analiza una descripción de Texto Bien Conocido Extendido (EWKT) de una geografía. -
st_geomfromewktfunción: interpreta una descripción de Texto Bien Conocido Extendido (EWKT) de geometría.
Compatibilidad de entrada de EWKT con funciones de geometría y geografía existentes
Las funciones siguientes ahora aceptan Extended Well-Known Text (EWKT) como entrada:
Rendimiento mejorado para consultas repetidas sobre tablas con filtros de fila y máscaras de columna
Las consultas válidas repetidas sobre tablas con filtros de fila y máscaras de columna ahora se benefician del almacenamiento en caché de resultados de consulta mejorado, lo que da lugar a tiempos de ejecución más rápidos.
Rendimiento mejorado de la función geoespacial
El rendimiento de la combinación espacial se mejora con la compatibilidad con combinaciones espaciales distribuidas al azar. Las siguientes funciones ST ahora tienen implementaciones de Photon:
FSCK REPAIR TABLE incluye la reparación de metadatos de forma predeterminada
FSCK REPAIR TABLE ahora incluye un paso de reparación de metadatos inicial antes de comprobar si faltan archivos de datos, lo que le permite trabajar en tablas con puntos de control dañados o valores de partición no válidos. Además, la dataFilePath columna del FSCK REPAIR TABLE DRY RUN esquema de salida ahora admite valores NULL para admitir nuevos tipos de problemas en los que la ruta de acceso del archivo de datos no es aplicable.
DESCRIBE TABLE output incluye la columna de metadatos
La salida de DESCRIBE TABLE [EXTENDED] ahora incluye una columna metadata para todos los tipos de tabla. Esta columna contiene metadatos semánticos (nombre para mostrar, formato y sinónimos) definidos en la tabla como una cadena JSON.
Structs NULL conservados en las operaciones MERGE, UPDATE, y de escritura en streaming
Las estructuras NULL ahora se conservan como NULL en Delta Lake MERGE, UPDATE, y en las operaciones de escritura en streaming que incluyen conversiones de tipo struct. Anteriormente, las estructuras NULL se expandían a estructuras con todos los campos establecidos en NULL.
Columnas de partición materializadas en archivos Parquet
Las tablas particionadas de Delta Lake ahora materializan las columnas de partición en los archivos de datos Parquet recién escritos. Anteriormente, los valores de partición solo se almacenaban en los metadatos del registro de transacciones de Delta Lake. Las tareas que leen directamente archivos Parquet creados por Delta Lake observan columnas de partición adicionales en los archivos recién generados.
Los valores de partición de la marca de tiempo respetan la zona horaria de la sesión.
Los valores de partición de marca de tiempo ahora se ajustan correctamente usando la configuración spark.sql.session.timeZone. Anteriormente, se convertían incorrectamente a UTC mediante la zona horaria de JVM.
Restricciones sobre el viaje en el tiempo actualizadas
Azure Databricks ahora bloquea las consultas de retroceso temporal más allá del deletedFileRetentionDuration umbral para todas las tablas. El VACUUM comando omite el argumento de duración de retención, excepto cuando el valor es 0 horas. No se puede establecer deletedFileRetentionDuration un valor mayor que logRetentionDuration.
SHOW TABLES DROPPED respeta la cláusula LIMIT
SHOW TABLES DROPPED ahora respeta correctamente la LIMIT cláusula .