Nota
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
La compatibilidad con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de fin de soporte técnico y finalización del ciclo de vida. Para ver todas las versiones admitidas de Databricks Runtime, consulte Notas de la versión y compatibilidad de Databricks Runtime.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 16.2, con tecnología de Apache Spark 3.5.2.
Databricks publicó esta versión en febrero de 2025.
Cambios de comportamiento
ANALYZE ahora omite las columnas con tipos no admitidos
ANALYZE TABLE ya no genera un mensaje de error cuando se ejecuta en una tabla con tipos no admitidos, como ARRAY o MAP. Las columnas no admitidas ahora se omiten automáticamente. Los usuarios que han implementado lógica que espera estos errores deben actualizar su código.
En Delta Sharing, el historial de tablas está habilitado de forma predeterminada.
Los recursos compartidos creados con el comando SQL ALTER SHARE <share> ADD TABLE <table> ahora tienen habilitado el uso compartido del historial (WITH HISTORY) de manera predeterminada. Consulte ALTER SHARE.
Las instrucciones SQL de credenciales devuelven un error cuando hay un error de coincidencia de tipo de credencial
Con esta versión, si el tipo de credencial especificado en una instrucción SQL de administración de credenciales no coincide con el tipo del argumento de credencial, se devuelve un error y la instrucción no se ejecuta. Por ejemplo, para la instrucción DROP STORAGE CREDENTIAL 'credential-name', si credential-name no es una credencial de almacenamiento, la instrucción produce un error.
Este cambio se realiza para ayudar a evitar errores de usuario. Anteriormente, estas instrucciones se ejecutarían correctamente, incluso si se pasó una credencial que no coincide con el tipo de credencial especificado. Por ejemplo, la siguiente instrucción quitaría correctamente storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Este cambio afecta a las siguientes declaraciones:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT… EN... CREDENCIAL
- REVOKE… EN... CREDENCIAL
- SHOW GRANTS EN... CREDENCIAL
Nuevas características y mejoras
-
Creación de aplicaciones con estado personalizadas con
transformWithState - Autenticación en el almacenamiento de objetos en la nube con credenciales de servicio
- El acceso controlado por el Catálogo de Unity a servicios en la nube externos mediante credenciales de servicio ahora es GA
- Los cuadernos se admiten como archivos del espacio de trabajo.
- Usar
timestampdiffytimestampadden expresiones de columnas generadas - Compatibilidad con la sintaxis de canalización de SQL
-
Realización de una solicitud HTTP mediante la
http_requestfunción -
Actualización de
DESCRIBE TABLEque devuelve metadatos como JSON estructurado - Intercalaciones insensibles a espacios en blanco finales
- Convertir tablas de Apache Iceberg con particionamiento por agrupamiento a tablas Delta sin particiones
-
El modo de acceso estándar (anteriormente modo de acceso compartido) ahora admite los métodos Spark Scala
foreach,foreachBatchyflatMapGroupsWithState
Creación de aplicaciones con estado personalizadas con transformWithState
Ahora puede usar transformWithState y las API relacionadas para implementar aplicaciones con estado personalizadas como parte de las consultas de Structured Streaming. Consulte Crear una aplicación con estado personalizada.
Autenticación en el almacenamiento de objetos en la nube con credenciales de servicio
Ahora puede usar las credenciales de servicio de Databricks para autenticarse en el almacenamiento de objetos en la nube con Auto Loader. Consulte Configuración de flujos del cargador automático en modo de notificación de archivos.
El acceso regulado por Unity Catalog a servicios en la nube externos mediante credenciales de servicio está ahora en disponibilidad general.
Las credenciales de servicio permiten la autenticación sencilla y segura con los servicios del inquilino en la nube de Azure Databricks. Con Databricks Runtime 16.2, las credenciales de servicio están disponibles con carácter general y ahora admiten SDK de Scala, además del SDK de Python que se admitía en la versión preliminar pública. Consulte Creación de credenciales de servicio.
Los cuadernos se admiten como archivos del área de trabajo.
En Databricks Runtime 16.2 y versiones posteriores, los cuadernos se admiten como archivos del área de trabajo. Ahora puede interactuar mediante programación con cuadernos desde cualquier lugar en el que esté disponible el sistema de archivos del área de trabajo, incluida la escritura, la lectura y la eliminación de cuadernos como cualquier otro archivo. Para obtener más información, consulte Creación, actualización y eliminación de archivos y directorios mediante programación.
Uso del timestampdiff & timestampadd en expresiones de columna generadas
En Databricks Runtime 16.2 y versiones posteriores, puede usar las funciones timestampdiff y timestampadd en expresiones de columna generadas por Delta Lake. Consulte Columnas generadas por Delta Lake.
Compatibilidad con la sintaxis de canalización de SQL
En Databricks Runtime 16.2 y en adelante, es posible componer canalizaciones de SQL. Una canalización de SQL estructura una consulta estándar, como SELECT c2 FROM T WHERE c1 = 5, en una secuencia paso a paso, como se muestra en el ejemplo siguiente:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para obtener información sobre la sintaxis admitida para canalizaciones SQL, consulte Sintaxis de canalización SQL.
Para obtener información general sobre esta extensión entre sectores, consulte SQL tiene problemas. Podemos corregirlos: sintaxis de canalización en SQL (por Google Research).
Realización de una solicitud HTTP mediante la función http_request
En Databricks Runtime 16.2 y versiones posteriores, puede crear conexiones HTTP y realizar solicitudes HTTP mediante la función http_request .
La actualización a DESCRIBE TABLE devuelve metadatos como JSON estructurado
En Databricks Runtime 16.2 y versiones posteriores, puede usar el DESCRIBE TABLE AS JSON comando para devolver metadatos de tabla como documento JSON. La salida JSON está más estructurada que el informe legible predeterminado y se puede usar para interpretar el esquema de una tabla mediante programación. Para más información, consulte DESCRIBE TABLE AS JSON.
Intercalaciones que no distinguen espacios en blanco finales
Databricks Runtime 16.2 agrega compatibilidad con intercalaciones insensibles a espacios en blanco finales, sumándose a la compatibilidad de intercalaciones introducida en Databricks Runtime 16.1. Por ejemplo, estas clasificaciones tratan 'Hello' y 'Hello ' como iguales. Para obtener más información, consulte Intercalación RTRIM.
Convertir tablas de Apache Iceberg con particionado por hash en tablas Delta sin particiones
Las instrucciones CONVERT TO DELTA y CREATE TABLE CLONE ahora admiten la conversión de una tabla de Apache Iceberg con particionamiento por bucket en una tabla Delta no particionada.
El modo de acceso estándar (anteriormente modo de acceso compartido) ahora admite los métodos de Spark Scala foreach, foreachBatch y flatMapGroupsWithState
En Databricks Runtime 16.2 y posteriores, el modo de acceso estándar de computación ahora admite los métodos DataStreamWriter.foreachBatch y KeyValueGroupedDataset.flatMapGroupsWithState de Scala. En Databricks Runtime 16.1 y versiones posteriores, el modo de acceso estándar de computación ahora admite el método DataStreamWriter.foreach Scala.
Corrección de errores
Procesamiento de clon incremental mejorado
Esta versión incluye una corrección para un caso perimetral en el que un CLONE incremental podría volver a copiar archivos ya copiados de una tabla de origen a una tabla de destino. Consulte Clonación de una tabla en Azure Databricks.
Actualizaciones de biblioteca
- Bibliotecas de Python actualizadas:
- Bibliotecas de R actualizadas:
- Bibliotecas de Java actualizadas:
- org.json4s.json4s-ast_2.12 desde la versión 3.7.0-M11 hasta la 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de la versión 3.7.0-M11 a la 4.0.7
Apache Spark
Databricks Runtime 16.2 incluye Apache Spark 3.5.2. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 16.1 (EoS), así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
-
[SPARK-49966] Revertir "[SC-179501][sql] Usar
Invokepara implementarJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Corrección de la ejecución de consultas del caminador de expresiones de intercalación
- [SPARK-49666] [SQL] Habilitación de pruebas de recorte para la expresión InSet
- [SPARK-50669] [ SC-184566][es-1327450][SQL] Cambiar la firma de la expresión TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Almacenar marca de tiempo como
longtipo endescribeLinkedHashMap - [SPARK-50870] [SC-186950][sql] Agregar la zona horaria al realizar la conversión de datos a marca temporal en V2ScanRelationPushDown
- [SPARK-50735] [ SC-186944][connect] Error en ExecuteResponseObserver da como resultado solicitudes de reasociación infinitas.
- [SPARK-50522] [SC-186500][sql] Compatibilidad con la intercalación indeterminada
- [SPARK-50525] [SC-186058][sql] Definir regla del optimizador InsertMapSortInRepartitionExpressions
- [SPARK-50679] [ SC-184572][sql] Expresiones comunes duplicadas en diferentes With solo se deben proyectar una vez
- [SPARK-50847] [SC-186916] [SQL] Denegar que ApplyCharTypePadding se aplique en expresiones de tipo IN específicas
- [SPARK-50714] [SC-186786][sql][SS] Habilitar la evolución del esquema para TransformWithState cuando se usa la codificación Avro
-
[SPARK-50795] [SC-186390][sql] Mostrar todas las fechas DESCRIBE AS JSON en formato ISO-8601 y tipos como
dataType.simpleString - [SPARK-50561] [ SC-185924][sql] Databricks Runtime 16.x cherrypick: mejorar la coerción de tipos y la comprobación de límites para la función UNIFORM SQL
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogadmite elbuiltinvalor mágico. - [SPARK-50831] [SC-186736][sql] Habilitar la intercalación de recorte de forma predeterminada
-
[SPARK-50263] [SC-186793][connect] Reemplazar
System.currentTimeMillisporSystem.nanoTime - [SPARK-48730] [SC-184926][sql] Implementar CreateSQLFunctionCommand para funciones escalares y de tabla de SQL
- [SPARK-50830] [SC-186718] [SQL] Devolver el resultado de un solo paso como resultado de análisis de ejecución dual
- [SPARK-50707] [SC-186098][sql] Habilitación de la conversión hacia/desde char/varchar
- [SPARK-49490] [SC-182137][sql] Agregar pruebas comparativas para initCap
-
[SPARK-50529] [SC-184535][sql] Cambiar el comportamiento de char/varchar dentro de la configuración
spark.sql.preserveCharVarcharTypeInfo - [SPARK-49632] [SC-184179][sql] Quitar la sugerencia de configuración ANSI en CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [ SC-186487][python][SQL] Corrección del error en el que pasar variantes nulas en createDataFrame hace que se produzca un error y agregar compatibilidad con Variant en createDataFrame en Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Deprecar
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Establecer analizado en caso de fallo de análisis
- [SPARK-50824] [SC-186472][python] Evite importar paquetes opcionales de Python para comprobar
- [SPARK-50755] [SC-185521][sql] Visualización estética del plan para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][connect] Las entradas para las agregaciones tipificadas deben ser analizadas.
- [SPARK-50791] [SC-185867][sc-186338][SQL] Corregir NPE en el control de errores del Almacén de estado
-
[SPARK-50801] [SC-186365] [SQL] Mejorar
PlanLogger.logPlanResolutionpara que muestre planes sin resolver y resueltos - [SPARK-50749] [SC-185925][sql] Corrección del error de ordenación en el método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Estandarizar el nombre de archivo y el diseño de los resultados del perfilador de JVM en DFS
- [SPARK-50790] [SC-186354][python] Implementación de parse json en pyspark
- [SPARK-50738] [SC-184856][python] Actualizar Black a 23.12.1
- [SPARK-50764] [SC-185930][python] Refinar la docstring de métodos relacionados con xpath
-
[SPARK-50798] [ SC-186277][sql] Mejorar
NormalizePlan - [SPARK-49883] [ SC-183787][ss] Integración de la estructura de puntos de control del almacén de estado V2 con RocksDB y RocksDBFileManager
- [SPARK-50779] [ SC-186062][sql] Adición de bandera de características para intercalaciones a nivel de objeto
- [SPARK-50778] [ SC-186183][python] Agregar metadataColumn a PySpark DataFrame
- [SPARK-49565] [ SC-186056][sql] Databricks Runtime 16.x cherrypick: Mejora de los alias de expresión generados automáticamente con operadores sql de canalización
- [SPARK-50541] [16.x][sc-184937] Describir la tabla como JSON
- [SPARK-50772] [SC-185923][sql] Databricks Runtime 16.x cherrypick: conservar alias de tabla después de operadores EXTEND, DROP
- [SPARK-50769] [SC-185919][sql] Corregir ClassCastException en HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar diferencias de código delta con Databricks Runtime
- [SPARK-50752] [SC-185547][python][SQL] Introducción a las configuraciones para optimizar UDF de Python sin Apache Arrow
-
[SPARK-50705] [SC-185944][sql] Liberar
QueryPlanbloqueos - [SPARK-50690] [16.x][sc-184640][SQL] Corregir discrepancia en el uso de comillas en las columnas de salida de consulta de vista
- [SPARK-50746] [ SC-184932][sql] Reemplace Cualquiera por VariantPathSegment.
-
[SPARK-50715] [ SC-185546][python][CONNECT]
SparkSession.Builderestablece las configuraciones por lotes - [SPARK-50480] [SC-183359][sql] Extender CharType y VarcharType de StringType
- [SPARK-50675] [ SC-184539][sql] Soporte para intercalaciones de nivel de tabla y vista
-
[SPARK-50409] [SC-184516][sql] Corrección de la instrucción set para omitir
;al final deSET;,SET -v;ySET key; - [SPARK-50743] [ SC-185528][sql] Normalizar CTERelationDef y identificadores CTERelationRef
- [SPARK-50693] [ SC-184684][connect] Las entradas de TypedScalaUdf deben analizarse.
- [SPARK-50744] [ SC-184929][sql] Agregar un caso de prueba para la prioridad de resolución de nombres de view/CTE
- [SPARK-50710] [SC-184767][connect] Agregar soporte para la reconexión opcional del cliente a las sesiones después de liberar.
- [SPARK-50703] [SC-184843][python] Refinar la docstring de regexp_replace, regexp_substr y regexp_instr
-
[SPARK-50716] [SC-184823][core] Corregir la lógica de limpieza para vínculos simbólicos en el método
JavaUtils.deleteRecursivelyUsingJavaIO - [SPARK-50630] [SC-184443][sql] Corrección GROUP BY de la compatibilidad ordinal con operadores agregados de SQL de canalización
- [SPARK-50614] [SC-184729][sql] Agregar soporte para Variant shredding en Parquet
- [SPARK-50661] [SASP-4936] Añadir compatibilidad con versiones anteriores para el antiguo cliente FEB.
-
[SPARK-50676] [SC-184641][sql] Eliminar elementos no utilizados de
private lazy val mapValueContainsNulldeElementAt -
[SPARK-50515] [ SC-183813][core] Agregar interfaz de solo lectura a
SparkConf - [SPARK-50697] [SC-184702][sql] Habilitar la recursividad de cola siempre que sea posible
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Corregir el esquema de estado para FlatMapGroupsWithState en spark connect cuando no hay estado inicial
- [SPARK-50701] [SC-184704][python] Requerir que el plotting utilice la versión mínima de plotly
- [SPARK-50702] [SC-184727][python] Refinar el docstring de regexp_count, regexp_extract y regexp_extract_all
- [SPARK-50499] [SC-184177][python] Exponer métricas de BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Agregar soporte para el empuje de RPAD
- [SPARK-50682] [ SC-184579][sql] El alias interno debe ser canónico
- [SPARK-50699] [ SC-184695][python] Analizar y generar la cadena DDL con una sesión especificada
- [SPARK-50573] [SC-184568][ss] Agregar ID de esquema de estado a las filas de estado para la evolución del esquema
- [SPARK-50661] [SC-184639][connect][SS][sasp-4936] Corregir la implementación de Spark Connect Scala foreachBatch. para soportar Dataset[T].
- [SPARK-50689] [SC-184591][sql] Exigir la ordenación determinista en listas de proyectos LCA
- [SPARK-50696] [SC-184667][python] Optimizar la llamada py4J para el método de análisis DDL
- [SPARK-49670] [SC-182902][sql] Habilitar la collación de recorte para todas las expresiones de paso a través
-
[SPARK-50673] [ SC-184565][ml] Evite recorrer dos veces los coeficientes del modelo en
Word2VecModelel constructor - [SPARK-50687] [SC-184588][python] Mejorar la lógica para obtener huellas de pila para DataFrameQueryContext
- [SPARK-50681] [SC-184662][python][CONNECT] Almacenar en caché el esquema analizado para MapInXXX y ApplyInXXX
- [SPARK-50674] [SC-184589][python] Corregir la verificación de la existencia del método "terminate" en la evaluación UDTF
- [SPARK-50684] [SC-184582][python] Mejorar el rendimiento de Py4J en DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Agregar compatibilidad con la nueva versión de metadatos de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][sql] Corregir la transposición para mostrar un mensaje de error adecuado cuando se especifican columnas de índice no válidas
- [SPARK-50650] [SC-184532][sql] Mejorar el registro en el analizador de paso único
- [SPARK-50665] [SC-184533][sql] Sustituya LocalRelation por ComparableLocalRelation en NormalizePlan
- [SPARK-50644] [ SC-184486][sql] Leer estructura variante en el lector de Parquet.
- [SPARK-49636] [SC-184089][sql] Eliminar la sugerencia de configuración ANSI en INVALID_ARRAY_INDEX y INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][sql] Refactorización del cálculo de salida de unión para reutilizarlo en el analizador de paso único
- [SPARK-50659] [SC-184512][sql] Mover los errores relacionados con Union a QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Corrección del cálculo de contexto de tipo de cadena implícita incorrecta
- [SPARK-50546] [SC-183807][sql] Agregar compatibilidad con el 'cast' de subconsulta para la coerción del tipo de intercalación
- [SPARK-50405] [ SC-182889][sql] Manejo adecuado de la coerción del tipo de intercalación en tipos de datos complejos
- [SPARK-50637] [SC-184434][sql] Corrección del estilo de código para el analizador de paso único
- [SPARK-50638] [ SC-184435][sql] Refactorizar la resolución de vista en el archivo independiente para reutilizarla en el analizador de paso único
- [SPARK-50615] [ SC-184298][sql] Insertar variante en el escaneo.
- [SPARK-50619] [SC-184210][sql] Refactorizar VariantGet.cast para agrupar los argumentos de conversión
- [SPARK-50599] [ SC-184058][sql] Crear el rasgo DataEncoder que permite la codificación Avro y UnsafeRow
- [SPARK-50076] [SC-183809] Corrección de las claves de registro
- [SPARK-50597] [ SC-183972][sql] Refactorización de la construcción por lotes en Optimizer.scala y SparkOptimizer.scala
- [SPARK-50339] [ SC-183063][spark-50360][SS] Habilitación del registro de cambios para almacenar información de linaje
- [SPARK-50526] [ SC-183811][ss] Agregar el formato de codificación de almacén conf al registro de desplazamiento y bloquear operadores con estado no admitidos mediante avro
- [SPARK-50540] [SC-183810][python][SS] Corrección del esquema de cadena para StatefulProcessorHandle
- [SPARK-50157] [ SC-183789][sql] Uso de SQLConf proporcionado primero por SparkSession.
- [SPARK-48898] [SC-183793][sql] Establecer la nulabilidad correctamente en el esquema Variant
- [SPARK-50559] [ SC-183814][sql] Almacenar los resultados de Except, Intersect y Union como 'vals' perezosos
- [SPARK-48416] [SC-183643][sql] Compatibilidad anidada correlacionada con expresión
- [SPARK-50428] [SC-183566][ss][PYTHON] Compatibilidad con TransformWithStateInPandas en consultas por lotes
- [SPARK-50063] [SC-183350][sql][CONNECT] Agregar compatibilidad con Variant en el cliente Scala de Spark Connect
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementar
StructType.toDDL - [SPARK-50443] [ SC-182590][ss] Corrección de errores de compilación de Maven introducidos por la caché de Guava en RocksDBStateStoreProvider
- [SPARK-50491] [ SC-183434][sql] Corrección del error en el que los bloques BEGIN END vacíos producen un error.
-
[SPARK-50536] [SC-183443][core] Registrar los tamaños de los archivos descargados en
SparkContextyExecutor - [SPARK-45891] [SC-183439][sql] Recompilar el binario variante a partir de datos desglosados.
- [SPARK-49565] [SC-183465][sql] Agregar sintaxis de canalización SQL para el operador FROM
- [SPARK-50497] [ SC-183338][sql] Fallar consultas con un mensaje apropiado si MultiAlias contiene una función no generadora
- [SPARK-50460] [ SC-183375][python][CONNECT] Generalizar y simplificar el control de excepciones de Connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Corrección de la opción de compresión que se sobrescribe en
df.write.parquet - [SPARK-50329] [SC-183358][sql] corregir InSet$toString
-
[SPARK-50524] [ SC-183364][sql] Mensaje de advertencia inferior
RowBasedKeyValueBatch.spillal nivel de depuración -
[SPARK-50528] [ SC-183385][connect] Mover
InvalidCommandInputal módulo común - [SPARK-50017] [SC-182438][ss] Compatibilidad con la codificación Avro para el operador TransformWithState
-
[SPARK-50463] [SC-182833][sql] Solución
ConstantColumnVectorcon conversión de columna a fila - [SPARK-50235] [SC-180786][sql] Limpiar el recurso ColumnVector después de procesar todas las filas de ColumnarToRowExec
- [SPARK-50516] [SC-183279][ss][MINOR] Corrección de la prueba relacionada con el estado de inicialización para usar StreamManualClock
- [SPARK-50478] [SC-183188][sql] Corrección de la coincidencia de StringType
- [SPARK-50492] [ SC-183177][ss] Corregir java.util.NoSuchElementException cuando se elimina la columna de tiempo del evento después de dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Agregar sintaxis de canalización SQL para el SET operador
- [SPARK-50449] [ SC-183178][sql] Corrección de la gramática de scripting de SQL que permite cuerpos vacíos para bucles, IF y CASE
-
[SPARK-50251] [SC-180970][python] Añadir
getSystemPropertya PySparkSparkContext - [SPARK-50421] [SC-183091][core] Corregir la configuración de memoria relacionada con el ejecutor incorrecto cuando funcionaban varios perfiles de recursos
- [SPARK-49461] [ SC-179572][ss] Identificador de punto de control persistente para confirmar registros y leerlos de nuevo
- [SPARK-50343] [ SC-183119][spark-50344][SQL] Agregar sintaxis de canalización SQL para los operadores DROP y AS
-
[SPARK-50481] [SC-182880][core] Mejora
SortShuffleManager.unregisterShufflepara omitir la lógica de archivo de checksum si el checksum está deshabilitado -
[SPARK-50498] [ SC-183090][python] Evitar llamadas py4j innecesarias en
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Corrección de la autocombinación después de
applyInArrow - [SPARK-49695] [ SC-182967][sc-176968][SQL] Corrección de push-down xor de Postgres
Compatibilidad con controladores ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 16.2.
Entorno del sistema
-
Sistema operativo: Ubuntu 24.04.1 LTS
- Nota: Esta es la versión de Ubuntu que usan los contenedores de Databricks Runtime. Los contenedores de Databricks Runtime se ejecutan en las máquinas virtuales del proveedor de nube, que pueden usar una versión de Ubuntu o una distribución de Linux diferente.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| tipos con anotaciones | 0.7.0 | "asttokens" | 2.0.5 | astunparse | 1.6.3 |
| autocomando | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| Servicio de Azure Storage File Data Lake | 12.17.0 | backports.tarfile | 1.2.0 | negro | 24.4.2 |
| intermitente | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizador de conjuntos de caracteres | 2.0.4 | Haz clic | 8.1.7 |
| cloudpickle | 2.2.1 | Comunicación | 0.2.1 | contourpy | 1.2.0 |
| criptografía | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
| SDK de Databricks | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| decorador | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| Conversión de docstring a markdown | 0.11 | puntos de entrada | 0.4 | Ejecutar | 0.8.3 |
| visión general de las facetas | 1.1.1 | bloqueo de archivos | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| Google Autenticación | 2.35.0 | google-cloud-core | 2.4.1 | Google Cloud Storage (almacenamiento en la nube de Google) | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media (medios reanudables de Google) | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| flexionar | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
| embalaje | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| especificación de ruta (pathspec) | 0.10.3 | chivo expiatorio | 0.5.6 | pexpect | 4.8.0 |
| almohada | 10.3.0 | pepita | 24.2 | platformdirs | 3.10.0 |
| trazado | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | configuración de herramienta Python | 1.2.6 |
| pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| solicitudes | 2.32.2 | cuerda | 1.12.0 | RSA | 4,9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | setuptools | 74.0.0 | seis | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5,11 |
| datos en pila | 0.2.0 | statsmodels (paquete de Python para análisis estadístico) | 0.14.2 | tenacidad | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | tipos de solicitudes | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| tipos-seis | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | actualizaciones desatendidas | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| ¿Qué es el parche? | 1.0.2 | rueda | 0.43.0 | envuelto | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Posit Package Manager en 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| Backports (aplicaciones de características nuevas en versiones antiguas de software) | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | Blob | 1.2.4 | bota | 1.3-30 |
| fermentar | 1.0-10 | Brio | 1.1.5 | escoba | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
| class | 7.3-22 | CLI | 3.6.3 | clipr | 0.8.0 |
| reloj | 0.7.1 | clúster | 2.1.6 | codetools | 0.2-20 |
| espacio de colores | 2.1-1 | commonmark | 1.9.1 | compilador | 4.4.0 |
| config | 0.3.2 | en conflicto | 1.2.0 | cpp11 | 0.4.7 |
| lápiz de cera | 1.5.3 | credentials | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | conjuntos de datos | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Descripción | 1.4.3 | devtools | 2.4.5 |
| diagrama | 1.6.5 | diffobj | 0.3.5 | digerir | 0.6.36 |
| iluminación descendente | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | elipsis | 0.3.2 | evaluar | 0.24.0 |
| fansi | 1.0.6 | colores | 2.1.2 | mapa rápido | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| extranjero | 0.8-86 | fragua | 0.2.0 | fs | 1.6.4 |
| futuro | 1.34.0 | future.apply | 1.11.2 | gargarismo | 1.5.2 |
| Genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globales | 0.16.3 | adhesivo | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.4.0 | grDevices | 4.4.0 | cuadrícula | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | Casco | 1.4.0 | asilo | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Identificadores | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteradores | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | etiquetado | 0.4.3 |
| más tarde | 1.3.2 | retículo | 0.22-5 | lava | 1.8.0 |
| ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matriz | 1.6-5 | memoise | 2.0.1 | métodos | 4.4.0 |
| mgcv | 1.9-1 | MIME | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
| Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | alabar | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progreso | 1.2.3 |
| progressr | 0.14.0 | Promesas | 1.3.0 | prototipo | 1.0.0 |
| proxy | 0.4-27 | P. D. | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactable | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| Recetas | 1.1.0 | revancha | 2.0.0 | rematch2 | 2.1.2 |
| Telecontroles | 2.5.0 | Ejemplo reproducible (reprex) | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| balanza | 1.3.0 | selectr | 0.4-2 | información de la sesión | 1.2.2 |
| forma | 1.4.6.1 | brillante | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | espacial | 7.3-17 |
| Splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Estadísticas | 4.4.0 | estadísticas4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | supervivencia | 3.6-4 | estilo | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | formateo de texto | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| cambio de hora | 0.3.0 | fechaHora | 4032.109 | tinytex | 0.52 |
| herramientas | 4.4.0 | tzdb | 0.4.0 | verificador de URL | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utilidades | 4.4.0 |
| Identificador Único Universal (UUID) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| bigote | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | archivo zip | 2.3.1 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | corriente | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referencia_nativa - java | 1.1 |
| com.github.fommil.netlib | referencia_nativa - java | 1.1 nativos |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23/05/26 |
| com.google.guava | guayaba | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | perfilador | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | anotación de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificaciones de salud | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coleccionista | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | formato de flecha | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | vector de flecha | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | Cliente-curador | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | colecciones de eclipse | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | aplicación web jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Calzos | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |