Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
La compatibilidad con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones admitidas de Databricks Runtime, consulte Notas de la versión y compatibilidad de Databricks Runtime.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 16.2, con tecnología de Apache Spark 3.5.2.
Databricks publicó esta versión en febrero de 2025.
Cambios de comportamiento
ANALYZE ahora omite las columnas con tipos no admitidos
ANALYZE TABLE ya no genera un mensaje de error cuando se ejecuta en una tabla con tipos no admitidos, como ARRAY o MAP. Las columnas no admitidas ahora se omiten automáticamente. Los usuarios que han implementado lógica que espera estos errores deben actualizar su código.
En Delta Sharing, el historial de tablas está habilitado de forma predeterminada.
Los recursos compartidos creados con el comando SQL ALTER SHARE <share> ADD TABLE <table> ahora tienen habilitado el uso compartido del historial (WITH HISTORY) de manera predeterminada. Consulte ALTER SHARE.
Las instrucciones SQL de credenciales devuelven un error cuando hay un error de coincidencia de tipo de credencial
Con esta versión, si el tipo de credencial especificado en una instrucción SQL de administración de credenciales no coincide con el tipo del argumento de credencial, se devuelve un error y la instrucción no se ejecuta. Por ejemplo, para la instrucción DROP STORAGE CREDENTIAL 'credential-name', si credential-name no es una credencial de almacenamiento, la instrucción produce un error.
Este cambio se realiza para ayudar a evitar errores de usuario. Anteriormente, estas instrucciones se ejecutarían correctamente, incluso si se pasó una credencial que no coincide con el tipo de credencial especificado. Por ejemplo, la siguiente instrucción quitaría correctamente storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Este cambio afecta a las siguientes declaraciones:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… EN... CREDENCIAL
- REVOKE… EN... CREDENCIAL
- SHOW GRANTS EN... CREDENCIAL
Nuevas características y mejoras
-
Creación de aplicaciones con estado personalizadas con
transformWithState - Autenticación en el almacenamiento de objetos en la nube con credenciales de servicio
- El acceso controlado por el Catálogo de Unity a servicios en la nube externos mediante credenciales de servicio ahora es GA
- Los cuadernos se admiten como archivos del área de trabajo.
-
Usar las
timestampdiffexpresiones de columna ytimestampadden las generadas - Compatibilidad con la sintaxis de canalización de SQL
-
Realización de una solicitud HTTP mediante la
http_requestfunción -
Actualizar para
DESCRIBE TABLEdevolver metadatos como JSON estructurado - Intercalaciones que no distinguen espacios en blanco finales
- Conversión de tablas de Apache Incremental con particiones de cubos en tablas Delta sin particiones
-
El proceso del modo de acceso estándar (anteriormente modo de acceso compartido) ahora admite los métodos
foreachde Spark Scala ,foreachBatchyflatMapGroupsWithState
Creación de aplicaciones con estado personalizadas con transformWithState
Ahora puede usar transformWithState y las API relacionadas para implementar aplicaciones con estado personalizadas como parte de las consultas de Structured Streaming. Consulte Compilación de una aplicación con estado personalizada.
Autenticación en el almacenamiento de objetos en la nube con credenciales de servicio
Ahora puede usar las credenciales de servicio de Databricks para autenticarse en el almacenamiento de objetos en la nube con Auto Loader. Consulte Configuración de flujos del cargador automático en modo de notificación de archivos.
El acceso regulado por el catálogo de Unity a servicios en la nube externos mediante las credenciales de servicio ahora está disponible con disponibilidad general.
Las credenciales de servicio permiten la autenticación sencilla y segura con los servicios del inquilino en la nube de Azure Databricks. Con Databricks Runtime 16.2, las credenciales de servicio están disponibles con carácter general y ahora admiten SDK de Scala, además del SDK de Python que se admitía en la versión preliminar pública. Consulte Creación de credenciales de servicio.
Los cuadernos se admiten como archivos del área de trabajo.
En Databricks Runtime 16.2 y versiones posteriores, los cuadernos se admiten como archivos del área de trabajo. Ahora puede interactuar mediante programación con cuadernos desde cualquier lugar en el que esté disponible el sistema de archivos del área de trabajo, incluida la escritura, la lectura y la eliminación de cuadernos como cualquier otro archivo. Para obtener más información, consulte Creación, actualización y eliminación de archivos y directorios mediante programación.
Uso del timestampdiff & timestampadd en expresiones de columna generadas
En Databricks Runtime 16.2 y versiones posteriores, puede usar las funciones timestampdiff y timestampadd en expresiones de columna generadas por Delta Lake. Consulte Columnas generadas por Delta Lake.
Compatibilidad con la sintaxis de canalización de SQL
En Databricks Runtime 16.2 y versiones posteriores, puede componer canalizaciones de SQL. Una canalización de SQL estructura una consulta estándar, como SELECT c2 FROM T WHERE c1 = 5, en una secuencia paso a paso, como se muestra en el ejemplo siguiente:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para obtener información sobre la sintaxis admitida para canalizaciones SQL, consulte Sintaxis de canalización SQL.
Para obtener información general sobre esta extensión entre sectores, consulte SQL tiene problemas. Podemos corregirlos: sintaxis de canalización en SQL (por Google Research).
Realización de una solicitud HTTP mediante la función http_request
En Databricks Runtime 16.2 y versiones posteriores, puede crear conexiones HTTP y realizar solicitudes HTTP mediante la función http_request .
La actualización a DESCRIBE TABLE devuelve metadatos como JSON estructurado
En Databricks Runtime 16.2 y versiones posteriores, puede usar el DESCRIBE TABLE AS JSON comando para devolver metadatos de tabla como documento JSON. La salida JSON está más estructurada que el informe legible predeterminado y se puede usar para interpretar el esquema de una tabla mediante programación. Para más información, consulte DESCRIBE TABLE AS JSON.
Intercalaciones que no distinguen espacios en blanco finales
Databricks Runtime 16.2 agrega compatibilidad con intercalaciones que no distinguen espacios en blanco finales, lo que agrega a la compatibilidad de intercalación agregada en Databricks Runtime 16.1. Por ejemplo, estas clasificaciones tratan 'Hello' y 'Hello ' como iguales. Para obtener más información, consulte Intercalación RTRIM.
Conversión de tablas de Apache Incremental con particiones de cubos en tablas Delta sin particiones
Las CONVERT TO DELTA instrucciones y CREATE TABLE CLONE ahora admiten la conversión de una tabla de Apache Docker con particiones de cubos en una tabla Delta sin particiones.
El proceso del modo de acceso estándar (anteriormente modo de acceso compartido) ahora admite los métodos foreachde Spark Scala , foreachBatchy flatMapGroupsWithState
En Databricks Runtime 16.2 y versiones posteriores, el proceso del modo de acceso estándar ahora admite los métodos DataStreamWriter.foreachBatch de Scala y KeyValueGroupedDataset.flatMapGroupsWithState. En Databricks Runtime 16.1 y versiones posteriores, el proceso del modo de acceso estándar ahora admite el método DataStreamWriter.foreachScala .
Corrección de errores
Procesamiento de clon incremental mejorado
Esta versión incluye una corrección para un caso perimetral en el que un CLONE incremental podría volver a copiar archivos ya copiados de una tabla de origen a una tabla de destino. Consulte Clonación de una tabla en Azure Databricks.
Actualizaciones de biblioteca
- Bibliotecas de Python actualizadas:
- Bibliotecas de R actualizadas:
- Bibliotecas de Java actualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 a 4.0.7
Apache Spark
Databricks Runtime 16.2 incluye Apache Spark 3.5.2. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 16.1 (EoS), así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
-
[SPARK-49966] Revertir "[SC-179501][sql] Usar
Invokepara implementarJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Corrección de la ejecución de consultas del caminador de expresiones de intercalación
- [SPARK-49666] [SQL] Habilitación de pruebas de recorte para la expresión InSet
- [SPARK-50669] [ SC-184566][es-1327450][SQL] Cambiar la firma de la expresión TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Almacenar marca de tiempo como
longtipo endescribeLinkedHashMap - [SPARK-50870] [SC-186950][sql] Agregar la zona horaria al convertir a marca de tiempo en V2ScanRelationPushDown
- [SPARK-50735] [ SC-186944][connect] Error en ExecuteResponseObserver da como resultado solicitudes de reasociación infinitas.
- [SPARK-50522] [SC-186500][sql] Compatibilidad con la intercalación indeterminada
- [SPARK-50525] [SC-186058][sql] Definir regla del optimizador InsertMapSortInRepartitionExpressions
- [SPARK-50679] [ SC-184572][sql] Expresiones comunes duplicadas en diferentes With solo se deben proyectar una vez
- [SPARK-50847] [SC-186916] [SQL] Denegar ApplyCharTypePadding de aplicar en expresiones In específicas
- [SPARK-50714] [ SC-186786][sql][SS] Habilitar la evolución del esquema para TransformWithState cuando se usa la codificación avro
-
[SPARK-50795] [SC-186390][sql] Mostrar todas las fechas DESCRIBE AS JSON en formato ISO-8601 y tipos como
dataType.simpleString - [SPARK-50561] [ SC-185924][sql] DBR 16.x cherrypick: mejorar la coerción de tipos y la comprobación de límites para la función UNIFORM SQL
-
[SPARK-50700] [ SC-184845][sql]
spark.sql.catalog.spark_catalogadmite elbuiltinvalor mágico. - [SPARK-50831] [SC-186736][sql] Habilitar la intercalación de recorte de forma predeterminada
-
[SPARK-50263] [SC-186793][connect] Reemplazar
System.currentTimeMillisporSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para funciones escalares y de tabla de SQL
- [SPARK-50830] [SC-186718] [SQL] Devolver el resultado de un solo paso como resultado de análisis de ejecución dual
- [SPARK-50707] [SC-186098][sql] Habilitación de la conversión hacia/desde char/varchar
- [SPARK-49490] [SC-182137][sql] Agregar pruebas comparativas para initCap
-
[SPARK-50529] [SC-184535][sql] Cambiar el comportamiento char/varchar en la
spark.sql.preserveCharVarcharTypeInfoconfiguración - [SPARK-49632] [SC-184179][sql] Quitar la sugerencia de configuración ANSI en CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [ SC-186487][python][SQL] Corrección del error en el que pasar variantes nulas en createDataFrame hace que se produzca un error y agregar compatibilidad con Variant en createDataFrame en Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] En desuso
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Establecer analizado en caso de fallo de análisis
- [SPARK-50824] [SC-186472][python] Evite importar paquetes opcionales de Python para comprobar
- [SPARK-50755] [SC-185521][sql] Pantalla de plan bastante para InsertIntoHiveTable
- [SPARK-50789] [ SC-186312][connect] Las entradas para agregaciones con tipo deben analizarse.
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corregir NPE en el control de errores del Almacén de estado
-
[SPARK-50801] [SC-186365] [SQL] Mejorar
PlanLogger.logPlanResolutionpara que muestre planes sin resolver y resueltos - [SPARK-50749] [SC-185925][sql] Corrección del error de ordenación en el método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Estandarizar el nombre de archivo y el diseño de los resultados del perfilador de JVM en DFS
- [SPARK-50790] [SC-186354][python] Implementación de parse json en pyspark
- [SPARK-50738] [SC-184856][python] Actualizar negro a 23.12.1
- [SPARK-50764] [SC-185930][python] Refinar la docstring de métodos relacionados con xpath
-
[SPARK-50798] [ SC-186277][sql] Mejorar
NormalizePlan - [SPARK-49883] [ SC-183787][ss] Integración de la estructura de puntos de control del almacén de estado V2 con RocksDB y RocksDBFileManager
- [SPARK-50779] [ SC-186062][sql] Adición de la marca de característica para intercalaciones de nivel de objeto
- [SPARK-50778] [ SC-186183][python] Agregar metadataColumn a PySpark DataFrame
- [SPARK-49565] [ SC-186056][sql] DBR 16.x cherrypick: Mejora de los alias de expresión generados automáticamente con operadores de canalización SQL
- [SPARK-50541] [16.x][sc-184937] Describir la tabla como JSON
- [SPARK-50772] [ SC-185923][sql] DBR 16.x cherrypick: Conservar alias de tabla después SETde , EXTEND, operadores DROP
- [SPARK-50769] [SC-185919][sql] Corregir ClassCastException en HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar diferencias de código delta con DBR
- [SPARK-50752] [ SC-185547][python][SQL] Introducción a las configuraciones para optimizar UDF de Python sin flecha
-
[SPARK-50705] [SC-185944][sql] Liberar
QueryPlanbloqueos - [SPARK-50690] [16.x][sc-184640][SQL] Corregir discrepancias en DESCRIBE TABLE las columnas de salida de consulta de vista entre comillas
- [SPARK-50746] [ SC-184932][sql] Reemplace Cualquiera por VariantPathSegment.
-
[SPARK-50715] [ SC-185546][python][CONNECT]
SparkSession.Builderestablece las configuraciones por lotes - [SPARK-50480] [SC-183359][sql] Extend CharType y VarcharType desde StringType
- [SPARK-50675] [ SC-184539][sql] Compatibilidad con intercalaciones de nivel de tabla y vista
-
[SPARK-50409] [SC-184516][sql] Corrección de la instrucción set para omitir
;al final deSET;ySET -v;SET key; - [SPARK-50743] [ SC-185528][sql] Normalizar CTERelationDef y identificadores CTERelationRef
- [SPARK-50693] [ SC-184684][connect] Las entradas de TypedScalaUdf deben analizarse.
- [SPARK-50744] [ SC-184929][sql] Agregar un caso de prueba para la prioridad de resolución de nombres de view/CTE
- [SPARK-50710] [ SC-184767][connect] Agregar compatibilidad con la reconexión de cliente opcional a sesiones después de la versión
- [SPARK-50703] [SC-184843][python] Refinar la docstring de regexp_replace, regexp_substr y regexp_instr
-
[SPARK-50716] [SC-184823][core] Corrección de la lógica de limpieza para vínculos simbólicos en
JavaUtils.deleteRecursivelyUsingJavaIOel método - [SPARK-50630] [SC-184443][sql] Corrección GROUP BY de la compatibilidad ordinal con operadores agregados de SQL de canalización
- [SPARK-50614] [SC-184729][sql] Agregar compatibilidad con la fragmentación variant para Parquet
- [SPARK-50661] [ SASP-4936] Agregue compatibilidad con versiones anteriores para el cliente anterior FEB.
-
[SPARK-50676] [ SC-184641][sql] Quitar sin usar
private lazy val mapValueContainsNulldeElementAt -
[SPARK-50515] [ SC-183813][core] Agregar interfaz de solo lectura a
SparkConf - [SPARK-50697] [SC-184702][sql] Habilitar la recursividad de cola siempre que sea posible
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corregir el esquema de estado para FlatMapGroupsWithState en spark connect cuando no hay estado inicial
- [SPARK-50701] [ SC-184704][python] Hacer que el trazado requiera la versión mínima de trazado
- [SPARK-50702] [SC-184727][python] Refinar la documentación de regexp_count, regexp_extract y regexp_extract_all
- [SPARK-50499] [SC-184177][python] Exponer métricas de BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Agregar compatibilidad con la inserción de RPAD
- [SPARK-50682] [ SC-184579][sql] El alias interno debe ser canónico
- [SPARK-50699] [ SC-184695][python] Analizar y generar la cadena DDL con una sesión especificada
- [SPARK-50573] [ SC-184568][ss] Adición del identificador de esquema de estado a las filas de estado a la evolución del esquema
- [SPARK-50661] [ SC-184639][connect][SS][sasp-4936] Corrección de Spark Connect Scala foreachBatch impl. para admitir Dataset[T].
- [SPARK-50689] [SC-184591][sql] Exigir la ordenación determinista en listas de proyectos LCA
- [SPARK-50696] [SC-184667][python] Optimizar la llamada py4J para el método de análisis DDL
- [SPARK-49670] [ SC-182902][sql] Habilitar la intercalación de recorte para todas las expresiones de paso a través
-
[SPARK-50673] [ SC-184565][ml] Evite recorrer dos veces los coeficientes del modelo en
Word2VecModelel constructor - [SPARK-50687] [SC-184588][python] Optimizar la lógica para obtener seguimientos de pila para DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Almacenar en caché el esquema analizado para MapInXXX y ApplyInXXX
- [SPARK-50674] [ SC-184589][python] Corrección de la comprobación de la existencia del método "terminate" en la evaluación UDTF
- [SPARK-50684] [SC-184582][python] Mejorar el rendimiento de Py4J en DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Agregar compatibilidad con la nueva versión de metadatos de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Corregir la transposición para mostrar un mensaje de error adecuado cuando se especifican columnas de índice no válidas
- [SPARK-50650] [SC-184532][sql] Mejorar el registro en el analizador de paso único
- [SPARK-50665] [SC-184533][sql] Sustituya LocalRelation por ComparableLocalRelation en NormalizePlan
- [SPARK-50644] [ SC-184486][sql] Read variant struct in Parquet reader.
- [SPARK-49636] [SC-184089][sql] Quitar la sugerencia de configuración ANSI en INVALID_ARRAY_INDEX y INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [ SC-184514][sql] Refactorización del cálculo de salida de unión para reutilizarlo en el analizador de paso único
- [SPARK-50659] [SC-184512][sql] Mover errores relacionados con uniones a QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrección del cálculo de contexto de tipo de cadena implícita incorrecta
- [SPARK-50546] [SC-183807][sql] Agregar compatibilidad con la conversión de subconsulta a la coerción de tipos de intercalación
- [SPARK-50405] [ SC-182889][sql] Control de la coerción del tipo de intercalación de tipos de datos complejos correctamente
- [SPARK-50637] [SC-184434][sql] Corrección del estilo de código para el analizador de paso único
- [SPARK-50638] [ SC-184435][sql] Refactorizar la resolución de vista en el archivo independiente para reutilizarla en el analizador de paso único
- [SPARK-50615] [ SC-184298][sql] Insertar variante en el examen.
- [SPARK-50619] [ SC-184210][sql] Refactorizar VariantGet.cast para empaquetar los argumentos de conversión
- [SPARK-50599] [ SC-184058][sql] Crear el rasgo DataEncoder que permite la codificación Avro y UnsafeRow
- [SPARK-50076] [SC-183809] Corrección de las claves de registro
- [SPARK-50597] [ SC-183972][sql] Refactorización de la construcción por lotes en Optimizer.scala y SparkOptimizer.scala
- [SPARK-50339] [ SC-183063][spark-50360][SS] Habilitación del registro de cambios para almacenar información de linaje
- [SPARK-50526] [ SC-183811][ss] Agregar el formato de codificación de almacén conf al registro de desplazamiento y bloquear operadores con estado no admitidos mediante avro
- [SPARK-50540] [SC-183810][python][SS] Corrección del esquema de cadena para StatefulProcessorHandle
- [SPARK-50157] [ SC-183789][sql] Uso de SQLConf proporcionado por SparkSession primero.
- [SPARK-48898] [SC-183793][sql] Establecer la nulabilidad correctamente en el esquema Variant
- [SPARK-50559] [ SC-183814][sql] Store Except, Intersect y Union's outputs as lazy vals
- [SPARK-48416] [SC-183643][sql] Compatibilidad anidada correlacionada con expresión
- [SPARK-50428] [SC-183566][ss][PYTHON] Compatibilidad con TransformWithStateInPandas en consultas por lotes
- [SPARK-50063] [SC-183350][sql][CONNECT] Agregar compatibilidad con Variant en el cliente Scala de Spark Connect
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL - [SPARK-50443] [ SC-182590][ss] Corrección de errores de compilación de Maven introducidos por la caché de Guava en RocksDBStateStoreProvider
- [SPARK-50491] [ SC-183434][sql] Corrección del error en el que los bloques BEGIN END vacíos producen un error.
-
[SPARK-50536] [SC-183443][core] Tamaños de archivo de archivo descargados en
SparkContextyExecutor - [SPARK-45891] [ SC-183439][sql] Recompilar el binario variant a partir de datos fragmentados.
- [SPARK-49565] [SC-183465][sql] Agregar sintaxis de canalización SQL para el operador FROM
- [SPARK-50497] [ SC-183338][sql] Error de consultas con un mensaje adecuado si MultiAlias contiene una función que no es generador
- [SPARK-50460] [ SC-183375][python][CONNECT] Generalizar y simplificar el control de excepciones de Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrección de la opción de compresión que se sobrescribe en
df.write.parquet - [SPARK-50329] [SC-183358][sql] corregir InSet$toString
-
[SPARK-50524] [ SC-183364][sql] Mensaje de advertencia inferior
RowBasedKeyValueBatch.spillal nivel de depuración -
[SPARK-50528] [ SC-183385][connect] Mover
InvalidCommandInputal módulo común - [SPARK-50017] [ SC-182438][ss] Compatibilidad con la codificación avro para el operador TransformWithState
-
[SPARK-50463] [SC-182833][sql] Corrección
ConstantColumnVectorcon columnas a fila - [SPARK-50235] [SC-180786][sql] Limpiar el recurso ColumnVector después de procesar todas las filas de ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrección de la prueba relacionada con el estado de inicialización para usar StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrección de la coincidencia de StringType
- [SPARK-50492] [ SC-183177][ss] Corregir java.util.NoSuchElementException cuando se quita la columna de hora del evento después de dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Agregar sintaxis de canalización SQL para el SET operador
- [SPARK-50449] [ SC-183178][sql] Corrección de la gramática de scripting de SQL que permite cuerpos vacíos para bucles, IF y CASE
-
[SPARK-50251] [SC-180970][python] Agregar
getSystemPropertya PySparkSparkContext - [SPARK-50421] [SC-183091][core] Corregir la configuración de memoria relacionada con el ejecutor incorrecto cuando funcionaban varios perfiles de recursos
- [SPARK-49461] [ SC-179572][ss] Identificador de punto de control persistente para confirmar registros y leerlos de nuevo
- [SPARK-50343] [ SC-183119][spark-50344][SQL] Agregar sintaxis de canalización SQL para los operadores DROP y AS
-
[SPARK-50481] [ SC-182880][core] Mejora
SortShuffleManager.unregisterShufflepara omitir la lógica del archivo de suma de comprobación si la suma de comprobación está deshabilitada -
[SPARK-50498] [ SC-183090][python] Evitar llamadas py4j innecesarias en
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Corrección de la autocombinación después de
applyInArrow - [SPARK-49695] [ SC-182967][sc-176968][SQL] Corrección xor de Postgres
Compatibilidad con controladores ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 16.2.
Entorno del sistema
-
Sistema operativo: Ubuntu 24.04.1 LTS
- Nota: Esta es la versión de Ubuntu que usan los contenedores de Databricks Runtime. Los contenedores de Databricks Runtime se ejecutan en las máquinas virtuales del proveedor de nube, que pueden usar una versión de Ubuntu o una distribución de Linux diferente.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| tipos anotados | 0.7.0 | "asttokens" | 2.0.5 | astunparse | 1.6.3 |
| autocomando | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| Servicio de Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | negro | 24.4.2 |
| intermitente | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | Haz clic | 8.1.7 |
| cloudpickle | 2.2.1 | Comm | 0.2.1 | contourpy | 1.2.0 |
| criptografía | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| SDK de Databricks | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| Conversión de docstring a markdown | 0.11 | puntos de entrada | 0.4 | Ejecutar | 0.8.3 |
| visión general de las facetas | 1.1.1 | bloqueo de archivos | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google Autenticación | 2.35.0 | google-cloud-core | 2.4.1 | Google Cloud Storage (almacenamiento en la nube de Google) | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media (medios reanudables de Google) | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| declinar | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
| embalaje | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| pathspec | 0.10.3 | chivo expiatorio | 0.5.6 | pexpect | 4.8.0 |
| almohada | 10.3.0 | pepita | 24.2 | platformdirs | 3.10.0 |
| trazado | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | Python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | configuración de herramienta Python | 1.2.6 |
| pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| solicitudes | 2.32.2 | cuerda | 1.12.0 | RSA | 4,9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | setuptools | 74.0.0 | six (seis) | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5,11 |
| stack-data | 0.2.0 | statsmodels (paquete de Python para análisis estadístico) | 0.14.2 | tenacidad | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | actualizaciones desatendidas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| ¿Qué es el parche? | 1.0.2 | rueda | 0.43.0 | envuelto | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | Blob | 1.2.4 | bota | 1.3-30 |
| fermentar | 1.0-10 | Brio | 1.1.5 | escoba | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| signo de intercalación | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
| class | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
| reloj | 0.7.1 | clúster | 2.1.6 | codetools | 0.2-20 |
| espacio de colores | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | Conflicto | 1.2.0 | cpp11 | 0.4.7 |
| lápiz de cera | 1.5.3 | credentials | 2.0.1 | rizo | 5.2.1 |
| data.table | 1.15.4 | conjuntos de datos | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Desc | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | digerir | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | elipsis | 0.3.2 | evaluar | 0.24.0 |
| fansi | 1.0.6 | farver | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| extranjero | 0.8-86 | fragua | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargarismo | 1.5.2 |
| Genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globales | 0.16.3 | cola | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafismo | 4.4.0 | grDevices | 4.4.0 | rejilla | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | Casco | 1.4.0 | asilo | 2.5.4 |
| highr | 0.11 | Hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | tejido | 1.48 | etiquetado | 0.4.3 |
| más tarde | 1.3.2 | enrejado | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Descuento | 1.13 | MASA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memoise | 2.0.1 | métodos | 4.4.0 |
| mgcv | 1.9-1 | mimo | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | alabar | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progreso | 1.2.3 |
| progressr | 0.14.0 | Promesas | 1.3.0 | proto | 1.0.0 |
| proxy | 0.4-27 | P.D | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactable | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| Recetas | 1.1.0 | revancha | 2.0.0 | rematch2 | 2.1.2 |
| Telecontroles | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| balanza | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| forma | 1.4.6.1 | brillante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| Tiras | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Estadísticas | 4.4.0 | estadísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | supervivencia | 3.6-4 | contonearse | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | textshaping | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| cambio de hora | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| herramientas | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utilidades | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| bigote | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | cremallera | 2.3.1 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | corriente | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 nativos |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/26 |
| com.google.guava | guayaba | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | perfilador | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coleccionista | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vector de flecha | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | hongo | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | colecciones de eclipse | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | seguridad de jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Cuñas | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |