Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Nota:
La compatibilidad con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para conocer todas las versiones de Databricks Runtime compatibles, consulte las notas de lanzamientos y compatibilidad de Databricks Runtime.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 16.3, con tecnología de Apache Spark 3.5.2.
Databricks publicó esta versión en marzo de 2025.
Cambios de comportamiento
Corrección de errores para las opciones del cargador automático: modifiedBefore, modifiedAfter, pathGlobFilter
Anteriormente, modificar los valores de las opciones modifiedBeforede Auto Loader , modifiedAftery pathGlobFilter no tenía ningún efecto. Este problema se ha corregido.
Ahora, al modificar los valores de estos filtros, Auto Loader ingiere nuevos archivos que pasan los filtros. Si hay menos archivos elegibles en función de los valores de filtro actualizados, los archivos que ya no son elegibles no se quitan del depósito, pero siguen siendo ingeridos.
Mensaje de error mejorado cuando kafka.sasl.client.callback.handler.class se asigna un valor no válido
Esta versión incluye un cambio para devolver un mensaje de error más descriptivo cuando kafka.sasl.client.callback.handler.class se le asigna un valor no válido.
El nuevo mensaje de error es org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
Anteriormente, el mensaje de error devuelto era org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Nuevas características y mejoras
- El soporte con lectores de estado es GA para el proceso estándar
- Degradación del protocolo de tabla Delta está GA con protección de puntos de comprobación
- Escritura de scripts SQL de procedimientos basados en ANSI SQL/PSM (versión preliminar pública)
- Intercalación predeterminada de nivel de tabla y vista
- Instalación de dependencias personalizadas en UDF de Python del catálogo de Unity (versión preliminar pública)
- Modificar varias columnas de tabla en una ALTER TABLE instrucción
-
Compatibilidad con
transformWithStateInPandasen el proceso estándar -
Compatibilidad con
MERGE INTOtablas con control de acceso específico en proceso dedicado (versión preliminar pública) - Compatibilidad con la anexión de datos a tablas con control de acceso detallado en un proceso dedicado
- Soporte mejorada con autocombinaciones con objetos controlados por acceso específico en proceso dedicado
- Nuevas funciones H3
El soporte con lectores de estado es GA para el proceso estándar
El soporte con la lectura de la información de estado de las consultas de Structured Streaming ahora está disponible con carácter general para el proceso configurado con el modo de acceso estándar. Consulte Leer información de estado de Structured Streaming.
La degradación del protocolo de tabla delta está disponible con protección de puntos de comprobación
DROP FEATURE está disponible con carácter general para quitar las características de la tabla de Delta Lake y degradar el protocolo de tabla. De manera predeterminada, DROP FEATURE ahora crea puntos de control protegidos para una experiencia de degradación más optimizada y simplificada que no requiere ningún tiempo de espera o truncamiento del historial. Consulte Eliminar una característica de tabla de Delta Lake y degradar el protocolo de tabla.
Escritura de scripts SQL de procedimientos basados en ANSI SQL/PSM (versión preliminar pública)
Ahora puede usar funcionalidades de scripting basadas en ANSI SQL/PSM para escribir lógica de procedimientos con SQL, incluidas instrucciones de flujo de control, variables locales y control de excepciones. Consulte Scripting de SQL.
Intercalación predeterminada de nivel de tabla y vista
Ahora puede especificar una intercalación predeterminada para tablas y vistas. Esto simplifica la creación de tablas y vistas en las que todas o la mayoría de las columnas comparten la misma intercalación. Consulte Intercalación.
Instalación de dependencias personalizadas en UDF de Python del catálogo de Unity (versión preliminar pública)
Amplíe la funcionalidad de las UDF de Python más allá del entorno en tiempo de ejecución de Databricks mediante la definición de dependencias personalizadas para bibliotecas externas. Consulte Extensión de UDF mediante dependencias personalizadas.
Modificar varias columnas de tabla en una instrucción ALTER TABLE
En Databricks Runtime 16.3, puede modificar varias columnas en una sola ALTER TABLE instrucción. Ver ALTER TABLE ... COLUMN cláusula.
Compatibilidad con transformWithStateInPandas en la computación estándar
Ahora puede usar transformWithStateInPandas en computación configurada con el modo de acceso estándar. Consulte Compilación de una aplicación con estado personalizada.
Compatibilidad para MERGE INTO en tablas con control de acceso detallado en proceso informático dedicado (versión preliminar pública)
En Databricks Runtime 16.3 y versiones posteriores, el cómputo dedicado admite MERGE INTO a las tablas del Catálogo de Unity que utilizan un control de acceso granular. De forma similar a la lectura de estos objetos, los MERGE comandos se pasan automáticamente al proceso sin servidor cuando es necesario.
Consulte Control de acceso detallado en la computación dedicada.
Compatibilidad con la anexión de datos a tablas con control de acceso detallado en un proceso dedicado
En Databricks Runtime 16.3 y versiones posteriores, el proceso dedicado admite la anexión a objetos de Unity Catalog que usan un control de acceso específico. Para usar esta característica, use la función DataFrame.write.mode("append") en la API de Apache Spark. De forma similar a la lectura de estos objetos, las escrituras de anexión se pasan automáticamente al proceso sin servidor cuando es necesario.
Para obtener más información sobre el uso de cómputo dedicado con objetos del Catálogo de Unity controlados por acceso fino, consulte Control de acceso fino en cómputo dedicado.
Compatibilidad mejorada con autouniones con objetos con control de acceso detallado en un proceso dedicado
En Databricks Runtime 16.3 y versiones posteriores, la funcionalidad de filtrado de datos para el control de acceso específico en el proceso dedicado ahora sincroniza automáticamente las instantáneas entre los recursos de proceso dedicados y sin servidor, a excepción de las vistas materializadas y cualquier vista, vista materializada y tablas de streaming compartidas mediante delta Sharing. Esta funcionalidad mejorada garantiza que las combinaciones automáticas devuelvan instantáneas idénticas cuando se usa el filtrado de datos. Consulte Control de acceso detallado en la computación dedicada.
Nuevas funciones H3
Se han agregado tres nuevas funciones H3: h3_try_coverash3, h3_try_coverash3string, y h3_try_tessellateaswkb.
Actualizaciones de bibliotecas
Bibliotecas de Python actualizadas:
- mlflow-skinny de 2.15.1 a 2.19.0
Bibliotecas de R actualizadas:
Bibliotecas de Java actualizadas:
Apache Spark
Databricks Runtime 16.3 incluye Apache Spark 3.5.2. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 16.2 (EoS), así como las siguientes correcciones de errores adicionales y mejoras realizadas en Spark:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Usar un esquema vacío al guardar una vista que no es compatible con Hive
- [SPARK-51388] [SC-190503][sql] Mejorar la propagación de fragmentos sql en to_timestamp y UNION
- [SPARK-51394] [SC-190492][ml] Optimizar el orden aleatorio adicional en las pruebas de estadísticas
- [SPARK-51385] [SC-190486][sql] Normalizar la proyección agregada en DeduplicateRelations para la desduplicación de salida secundaria de unión
- [SPARK-51357] [SC-190485][sql] Conservar el nivel de registro de cambios del plan para las vistas
- [SPARK-50654] [SC-186686][ss] CommitMetadata debe establecer stateUniqueIds en None en V1
- [SPARK-51362] [SC-190352][sql] Cambie toJSON para usar la API NextIterator para eliminar la dependencia de registros adyacentes.
-
[SPARK-51375] [SC-190355][sql][CONNECT] Suprimir mensajes de registro de
SparkConnect(Execution|Session)Manager.periodicMaintenance - [SPARK-50596] [SC-184060][python] Actualización de Py4J de 0.10.9.7 a 0.10.9.8
- [SPARK-51097] [SC-190456][revert] Revertir el cambio en las métricas de instancia de RocksDB
-
[SPARK-51363] [SC-190343][sql]
Desc As JSONAgrupación en clústeres de nombres de columna - [SPARK-51373] [SC-190370] [SS] Eliminar una copia adicional para el prefijo de la familia de columnas de "ReplyChangelog"
- [SPARK-51378] [SC-190363][core] Aplicar accumulableExcludeList de JsonProtocol a ExecutorMetricsUpdate y TaskEndReason
- [SPARK-51369] [SC-190253][sql] Corregir para que la variable de cursor FOR funcione con nombres que combinan mayúsculas y minúsculas
-
[SPARK-51381] [SC-190360][sql][CONNECT] Mostrar
Session IDen la páginaSpark Connect Session - [SPARK-51119] [SC-188491][sql] Los lectores en ejecutores que resuelven EXISTS_DEFAULT no deberían llamar a catálogos
- [SPARK-51322] [SC-190013][sql] Mejor mensaje de error para la expresión de subconsulta de streaming
- [SPARK-50817] [SC-186642][ss] Corregir informes de errores de RocksDB
- [SPARK-51370] [SC-190286] Mejoras de claridad del código para los códigos de análisis INSERT INTO en AstBuilder.scala
- [SPARK-51083] [SC-189217][core][16.x] Modificar JavaUtils para no tragar InterruptedExceptions
- [SPARK-51324] [SC-189997][sql] Corregir la instrucción FOR anidada que produce un error si el resultado está vacío
- [SPARK-49756] [SC-178793][sql] El dialecto Postgres admite funciones de fecha y hora de delegación.
- [SPARK-51270] [SC-190108][sql] Admite el tipo UUID en Variant
- [SPARK-51310] [SC-190018][sql] Resolver el tipo de expresiones que generan cadenas predeterminadas
- [SPARK-49488] [SC-176685][sql] El dialecto MySQL admite funciones de fecha y hora de delegación.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Compatibilidad de Spark Connect con TransformWithStateInPandas en Python
-
[SPARK-50553] [SC-190076][connect] Lanzar
InvalidPlanInputpara un mensaje de plan no válido - [SPARK-51337] [16.x][sc-190105][SQL] Agregar maxRows a CTERelationDef y CTERelationRef
- [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 debe respetar la opción de ruta de acceso
- [SPARK-51323] [SC-190005][python] Duplicar "total" en métricas de Py SQL
-
[SPARK-48618] [SC-174007][sql] Usar los
ErrorCodeySQLStatedevueltos en SQLException para que los errores sean más precisos - [SPARK-47871] [SC-162873][sql] Oracle: Asignar TimestampType a TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-50993] [SC-187319][sql] Mover nullDataSourceOption de QueryCompilationErrors a QueryExecutionErrors
- [SPARK-47761] [SC-162288][sql] Oracle: Admite la lectura de AnsiIntervalTypes
- [SPARK-51265] [SC-189826][sql] IncrementalExecution debe establecer correctamente el código de ejecución del comando.
- [SPARK-50785] [SC-189722][sql] Refactorizar la instrucción FOR para usar las variables locales correctamente.
- [SPARK-51315] [SC-189838][sql] Habilitación de intercalaciones de nivel de objeto de forma predeterminada
- [SPARK-51312] [SC-189824][sql] Corregir createDataFrame desde RDD[Row]
-
[SPARK-51305] [SC-189625][sql][CONNECT] Mejorar
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] Corrección del formato de marca de tiempo para PySparkLogger
- [SPARK-51095] [SC-189623][core][SQL] Incluir el contexto del llamador en los registros de auditoría de HDFS para las llamadas que provienen del controlador
- [SPARK-51292] [SC-189566][sql] Quitar la herencia innecesaria de PlanTestBase, ExpressionEvalHelper y PlanTest
- [SPARK-50739] [SC-186903][sql][FOLLOW] Simplificar ResolveRecursiveCTESuite con DSL
- [SPARK-51097] [SC-189428] [SS] Agregar métricas de instancia del almacén de estado para la última versión de la instantánea cargada en RocksDB
- [SPARK-49912] [SC-189615] Refactorización de la instrucción CASE simple para evaluar la variable del caso solo una vez
- [SPARK-50655] [16x][sc-189235][SS] Mover la asignación relacionada con la familia de columnas virtuales a la capa de base de datos en lugar de al codificador
-
[SPARK-51177] [SC-188989][python][CONNECT] Agregar
InvalidCommandInputal cliente python de Spark Connect -
[SPARK-51278] [SC-189608][python] Use la estructura adecuada del formato JSON para
PySparkLogger - [SPARK-48530] [SC-189357][sql] Compatibilidad con variables locales en scripting de SQL
- [SPARK-51258] [SC-189551][sql] Quitar la herencia innecesaria de SQLConfHelper
- [SPARK-50739] [SC-186818][sql] CTE recursiva. El analizador cambia para desencapsular y resolver los componentes de recursividad.
- [SPARK-51284] [SC-189483][sql] Corregir la ejecución de scripts SQL para obtener un resultado vacío
- [SPARK-50881] [SC-188407][python] Usar el esquema almacenado en caché siempre que sea posible en connect dataframe.py
- [SPARK-51274] [SC-189516][python] PySparkLogger debe respetar los argumentos de palabra clave esperados.
- [SPARK-50636] [SC-184783][sql] Extensión de CTESubstitution.scala para que sea consciente de la recursividad
-
[SPARK-50960] [SC-188821][python][CONNECT] Agregar
InvalidPlanInputal cliente python de Spark Connect - [SPARK-51109] [SC-188394][sql] CTE en la expresión de subconsulta como columna de agrupación
- [SPARK-51067] [16.x][sc-188855][SQL] Revertir la intercalación de nivel de sesión para consultas DML y aplicar intercalación de nivel de objeto para consultas DDL
- [SPARK-50849] [SC-189071][connect] Agregar un proyecto de ejemplo para mostrar las bibliotecas de servidores de Spark Connect
- [SPARK-51259] [SC-189344][sql] Refactorizar de forma natural y usando claves de cálculo
- [SPARK-51185] [SC-188832][core] Revertir simplificaciones a la API PartitionedFileUtil para reducir los requisitos de memoria
- [SPARK-51237] [16x][sc-189028][SS] Agregar detalles de la API para la nueva API de ayuda transformWithState según sea necesario
- [SPARK-51247] [SC-189236][sql] Mover SubstituteExecuteImmediate al lote de "resolución" y prepararlo para las variables locales de script SQL.
-
[SPARK-50403] [SC-186416][sql] Corregir
EXECUTE IMMEDIATEparametrizado - [SPARK-50598] [SC-183992][sql] Una solicitud de cambios inicial sin operaciones que agrega nuevos parámetros a las clases ya existentes UnresolvedWith, CTERelationRef y CTERelationDef para habilitar la implementación posterior de CTE recursivas.
- [SPARK-48114] [SC-189176][sql] Mover la validación de subconsulta fuera de CheckAnalysis
-
[SPARK-50767] [SC-189169][sql] Quitar codegen de
from_json - [SPARK-51242] [SC-189200][conenct][PYTHON] Mejorar el rendimiento de las columnas cuando DQC está deshabilitado
- [SPARK-51202] [SC-189208][ml][PYTHON] Pasar la sesión en los escritores de Python del meta algoritmo
- [SPARK-51246] [SC-189175][sql] Hacer que InTypeCoercion genere Casts resueltos
-
[SPARK-51192] [SC-189070][connect] Exponer
processWithoutResponseObserverForTestingenSparkConnectPlanner - [SPARK-51183] [SC-189010][sql] Vínculo a la especificación de Parquet en las documentaciones de variantes
-
[SPARK-51189] [SC-188829][core] Promover
JobFailedaDeveloperApi -
[SPARK-51184] [SC-188801][core] Quitar lógica
TaskState.LOSTdeTaskSchedulerImpl - [SPARK-51218] [SC-189012][sql] Evitar map/flatMap en NondeterministicExpressionCollection
- [SPARK-51228] [SC-189022][sql] Introducir la normalización de subconsultas en NormalizePlan
- [SPARK-51113] [SC-188883][sql] Corregir la precisión con UNION/EXCEPT/INTERSECT dentro de una vista o EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] Mejorar
getCurrentUserNamepara controlar Java 24+ - [SPARK-50953] [SC-188409][python][CONNECT] Agregar compatibilidad con rutas de acceso no literales en VariantGet
- [SPARK-51181] [SC-188854] [SQL] Exigir determinismo al extraer expresiones no deterministas del plan lógico
- [SPARK-50872] [SC-186901][sql][UI] Hace que la expresión ToPrettyString no afecte a la presentación de la interfaz de usuario
- [SPARK-51150] [SC-188512][ml] Pasar explícitamente la sesión en los escritores de metaalgoritmos
- [SPARK-51008] [SC-188655][sql] Agregar ResultStage para AQE
- [SPARK-51114] [SC-188633] [SQL] Refactorización de la regla PullOutNondeterministic
- [SPARK-51160] [SC-188666][sql] Refactorizar la resolución de función literal
- [SPARK-51127] [SC-188366][python] Eliminar el trabajo de Python en tiempo de espera de inactividad
- [SPARK-51099] [SC-188350][python] Agregar registros cuando el trabajo de Python está atascado
- [SPARK-51157] [SC-188536][sql] Adición de la anotación de Scala @varargs que falta para las API de función de Scala
-
[SPARK-51155] [CORE] Hacer que
SparkContextmuestre el tiempo de ejecución total después de detenerse - [SPARK-51140] [SC-188487][ml] Ordenar los parámetros antes de guardar
- [SPARK-51135] [SC-188392][sql] Corregir ViewResolverSuite para los modos ANSI
- [SPARK-51057] [SC-188191][ss] Eliminar API de variante basada en la opción Scala para el estado de valor
- [SPARK-51131] [SC-188359][sql] Lanzar excepción cuando se encuentra el script SQL dentro del comando EXECUTE IMMEDIATE
- [SPARK-51048] [SC-188369][core] Compatibilidad con detener el contexto de Spark de Java con código de salida
- [SPARK-50234] [SC-181433][python][SQL] Mejora del mensaje de error y la prueba para transponer DataFrame API
- [SPARK-51074] [SC-188153][ss][CONNECT] Establecer el tiempo de expiración para comunicar configuraciones de inicialización en streaming foreachBatch
- [SPARK-48353] [SC-187986][sql] Introducción al mecanismo de control de excepciones en scripting sql
- [SPARK-50596] [SC-184060][python] Actualización de Py4J de 0.10.9.7 a 0.10.9.8
- [SPARK-51043] [SC-187928][ss][CONNECT] Registro de usuarios específico para Spark Connect foreachBatch
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Asignar la clase de error adecuada para
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][sql] Leer y escribir los campos Mes y Días de intervalos con una llamada en clases Unsafe*
- [SPARK-51010] [SC-188188][sql] Corrección de que AlterColumnSpec no notifica correctamente el estado resuelto
- [SPARK-50799] [SC-188169][python] Restringir docstring de rlike, length, octet_length, bit_length y transform
-
[SPARK-51061] [SC-187910][core] Ocultar información
Jettyen la API de envío de REST - [SPARK-51055] [SC-187993][ss][CONNECT] El streaming foreachBatch debe llamar a la lógica init dentro de un intento
- [SPARK-50982] [SC-188059][sql] Compatibilidad con más funcionalidad de ruta de acceso de lectura de SQL/DataFrame en el analizador de paso único
-
[SPARK-51081] [SC-188092][sql] Refactorizar
Join.outputpara la resolución de paso único -
[SPARK-51064] [SC-188039][sql] Habilitar
spark.sql.sources.v2.bucketing.enabledde forma predeterminada - [SPARK-50883] [LC-5998][sc-187120][SQL] Compatibilidad con la modificación de varias columnas en el mismo comando
- [SPARK-51034] [SC-187985][sql] Reformatear el diccionario de estadísticas Describir como JSON para mejorar su capacidad de análisis
- [SPARK-51058] [SC-187961][python] Evite usar jvm. SparkSession
- [SPARK-51056] [SC-187871][python] Evite la creación innecesaria de objetos en SparkSession.getActiveSession.
- [SPARK-50967] [SC-187860][ss] Agregar opción para omitir la emisión de claves de estado iniciales dentro del operador FMGWS
- [SPARK-50813] [SC-186457][sql] Permitir solo nombres de etiqueta no calificados dentro de scripts SQL
- [SPARK-50858] [SC-187399][python] Agregar configuración para esconder la traza de pila de UDF de Python
- [SPARK-50853] [SC-187219][core] Cerrar canal grabable de archivo de orden aleatorio temporal
- [SPARK-50663] [SC-187541][sql] Corrección de gramática para la instrucción IF ELSE (ELSE IF -> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] Impedir la invocación de
HiveClient.runSqlHiveen entornos que no son de prueba - [SPARK-50977] [SC-187400][sc-187006][CORE] Mejorar la disponibilidad de la lógica que realiza la agregación de resultados del acumulador
- [SPARK-51001] [SC-187442][sql] Restringir arrayEquals
- [SPARK-50962] [SC-187168][sql] Evite StringIndexOutOfBoundsException en AttributeNameParser
- [SPARK-50683] [SC-184728][sql] Insertar la expresión común en Con si se utiliza una vez
- [SPARK-50959] [SC-187139][ml][PYTHON] Ignorar la excepción de JavaWrapper.del
- [SPARK-50558] [SC-187337][sql] Introducción a simpleString para ExpressionSet
- [SPARK-50648] [SC-184706][core] Limpieza de tareas zombis en fases que no se ejecutan cuando se cancela el trabajo
-
[SPARK-50990] [SC-187316][sql] Refactorizar resolución
UpCastfuera delAnalyzer - [SPARK-49491] [SC-184714][sql] Reemplazar AnyRefMap por HashMap
- [SPARK-50685] [SC-186941][python] Mejorar el rendimiento de Py4J aprovechando getattr
- [SPARK-50688] [SC-184666][sql] Eliminar la ambigüedad de rowTag que falta en la ruta de acceso de escritura xml
-
[SPARK-50976] [SC-187265][ml][PYTHON] Corregir el guardado/carga de
TargetEncoder - [SPARK-49639] [SC-187297][sql] Quitar la sugerencia de configuración ANSI en INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
- [SPARK-50118] [SC-187110]Revertir "[CONNET] Restablecer la caché de estado aislada cuando se ejecutan las tareas"
- [SPARK-47579] [16.x][sc-166971][CORE][part3] Núcleo de Spark: Migración de logInfo con variables al marco de registro estructurado
- [SPARK-50669] [SC-184566][es-1327450][PHOTON][test-only] Ampliar las pruebas unitarias de fotones para la expresión TimestampAdd con tipos largos
- [SPARK-50909] [SC-187119][python] Configuración de faulthandler en PythonPlannerRunners
- [SPARK-50774] [SC-186349][sql] Centralizar nombres de intercalación en un solo lugar
- [SPARK-50804] [SC-186684][sql] to_protobuf() no debe lanzar un MatchError
- [SPARK-50957] [SC-187136][protobuf] Hacer que protobuf.utils.SchemaConverters sea privado
- [SPARK-50900] [SC-186948][ml][CONNECT] Agregar VectorUDT y MatrixUDT a ProtoDataTypes
- [SPARK-50895] [SC-186998][sql] Crear interfaz común para expresiones que producen el tipo de cadena predeterminado
- [SPARK-50558] [SC-184216][sql] Agregar límites de registro configurables para el número de elementos de InSet e In
- [SPARK-50875] [SC-186951][sql][16.x] Agregar intercalaciones RTRIM a TVF
-
[SPARK-50579] [SC-183826][sql] Corrección de
truncatedString
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Entorno del sistema
-
Sistema operativo: Ubuntu 24.04.2 LTS
- Nota: Esta es la versión de Ubuntu que usan los contenedores de Databricks Runtime. Los contenedores de Databricks Runtime se ejecutan en las máquinas virtuales del proveedor de nube, que pueden usar una versión de Ubuntu o una distribución de Linux diferente.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | "asttokens" | 2.0.5 | astunparse | 1.6.3 |
| comando automático | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| Servicio de Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | negro | 24.4.2 |
| intermitente | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | Haz clic | 8.1.7 |
| cloudpickle | 2.2.1 | Comunicación | 0.2.1 | contourpy | 1.2.0 |
| criptografía | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| SDK de Databricks | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorator | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| Conversión de docstring a markdown | 0.11 | executing | 0.8.3 | visión general de las facetas | 1.1.1 |
| bloqueo de archivos | 3.15.4 | fonttools | 4.51.0 | gitdb | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth | 2.35.0 |
| google-cloud-core | 2.4.1 | Google Cloud Storage (almacenamiento en la nube de Google) | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media (medios reanudables de Google) | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | idna | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | convenciones-semánticas-de-opentelemetry | 0.48b0 | embalaje | 24.1 |
| Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| chivo expiatorio | 0.5.6 | pexpect | 4.8.0 | almohada | 10.3.0 |
| pip | 24,2 | platformdirs | 3.10.0 | plotly | 5.22.0 |
| pluggy | 1.0.0 | prompt-toolkit | 3.0.43 | proto-plus | 1.24.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | Python-dateutil | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.10.0 | configuración de herramienta Python | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | solicitudes | 2.32.2 |
| cuerda | 1.12.0 | rsa | 4,9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy | 1.13.1 | biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 |
| setuptools | 74.0.0 | six | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id | 5.11 | stack-data | 0.2.0 |
| statsmodels (paquete de Python para análisis estadístico) | 0.14.2 | tenacidad | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| tipos-de-solicitudes | 2.31.0.0 | types-setuptools | 68.0.0.0 | seis tipos | 1.16.0 |
| types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 | ujson | 5.10.0 |
| unattended-upgrades | 0,1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | ¿Qué es el parche? | 1.0.2 |
| rueda | 0.43.0 | envuelto | 1.14.1 | yapf | 0.33.0 |
| zipp | 3.17.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del administrador de paquetes de Posit el 2024-08-04.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 16.1.0 | askpass | 1.2.0 | asegúrate de que | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit 64 | 4.0.5 |
| bitops | 1,0 - 8 | mancha | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | escoba | 1.0.6 |
| bslib | 0.8.0 | cachemir | 1.1.0 | callr | 3.7.6 |
| caret | 6.0-94 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 | chron | 2.3-61 |
| class | 7.3-22 | Interfaz de línea de comandos (CLI) | 3.6.3 | clipr | 0.8.0 |
| reloj | 0.7.1 | conglomerado | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | Confuso | 1.2.0 | cpp11 | 0.4.7 |
| crayón | 1.5.3 | credentials | 2.0.1 | curl | 5.2.1 |
| tabla de datos | 1.15.4 | Conjuntos de datos | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | descripción | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | digerir | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | elipsis | 0.3.2 | evaluar | 0.24.0 |
| fans | 1.0.6 | colores | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| extranjero | 0,8-86 | forge | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | aplicación futura | 1.11.2 | gargle | 1.5.2 |
| genéricos | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | pegamento | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| gráficos | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | refugio | 2.5.4 |
| más alto | 0.11 | hms | 1.1.3 | herramientas de HTML | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | etiquetado | 0.4.3 |
| más tarde | 1.3.2 | retícula | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Formato Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matrix | 1.6-5 | memorización | 2.0.1 | métodos | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI (Interfaz de Usuario) | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | elogio | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progreso | 1.2.3 |
| progressr | 0.14.0 | promesas | 1.3.0 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | ps | 1.7.7 | ronroneo | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | Bosque Aleatorio (randomForest) | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | r-reactable | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recetas | 1.1.0 | partido de revancha | 2.0.0 | segunda revancha | 2.1.2 |
| remotes | 2.5.0 | ejemplo reproducible | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2,27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| balanzas | 1.3.0 | selectr | 0.4-2 | información de sesión | 1.2.2 |
| forma | 1.4.6.1 | brillante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | spatial | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Estadísticas | 4.4.0 | estadísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | supervivencia | 3.6-4 | swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | Formateo de texto | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| cambio de hora | 0.3.0 | timeDate | 4032.109 | tinytex | 0,52 |
| herramientas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
| usa esto | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| Identificador Único Universal (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | Waldo | 0.5.2 |
| whisker | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | archivo comprimido | 2.3.1 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.12)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1. nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1. nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1. nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1. nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/26 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.3 |
| io.dropwizard.metrics | métricas-anotación | 4.2.19 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | cliente_simple_común | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coleccionista | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | núcleo de memoria de flecha | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | marco de trabajo para curadores | 2.13.0 |
| org.apache.curator | recetas del curador | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | calzos de orco | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | Anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.9.2 |
| org.apache.zookeeper | Zookeeper-Jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | colecciones de eclipse | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | validador de hibernación | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Cuñas | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |