Databricks Runtime 15.4 LTS
Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 15.4 LTS, con tecnología de Apache Spark 3.5.0.
Databricks publicó esta versión en agosto de 2024.
Nota:
LTS significa que esta versión tiene soporte técnico a largo plazo. Consulte Ciclo de vida de la versión de Databricks Runtime LTS.
Sugerencia
Para ver las notas de la versión de las versiones de Databricks Runtime que han llegado a la finalización del soporte (EoS), vea las Notas de la versión de finalización del soporte de Databricks Runtime. Las versiones de Databricks Runtime EoS se han retirado y es posible que no se actualicen.
Cambios en el comportamiento
- El uso de
VARIANT
como tipo de entrada o salida con una UDF de Python, UDAF o UDTF produce una excepción - Cambiar al modo de enlace de esquema predeterminado para las vistas
- No permitir el uso de la sintaxis de
!
no documentada en lugar deNOT
fuera de las expresiones booleanas - No permitir la sintaxis de definición de columna no documentada en vistas
- Control coherente de errores para la descodificación de Base64 en Spark y Photon
- Agregar una restricción
CHECK
en una columna no válida ahora devuelve la clase de error UNRESOLVED_COLUMN.WITH_SUGGESTION
El uso de VARIANT
como tipo de entrada o salida con una UDF de Python, UDAF o UDTF produce una excepción
[Cambio importante] En Databricks Runtime 15.3 y versiones posteriores, llamar a cualquier función definida por el usuario (UDF) de Python, función de agregado definida por el usuario (UDAF) o función de tabla definida por el usuario (UDTF) que usa un tipo VARIANT
como argumento o valor devuelto produce una excepción. Este cambio se realiza para evitar problemas que pueden producirse debido a un valor no válido devuelto por una de estas funciones. Para obtener más información sobre el tipo VARIANT
, consulte Uso de VARIANT para almacenar datos semiestructurados.
Cambiar al modo de enlace de esquema predeterminado para las vistas
Las vistas ahora se adaptan a los cambios de esquema en la consulta subyacente mediante la compensación de esquemas con reglas de conversión normales. Este es un cambio del valor predeterminado anterior del modo BINDING
, que generaba errores cuando no se podía realizar una conversión segura al hacer referencia a la vista.
Consulte CREATE VIEW y la función de conversión.
No permitir el uso de la sintaxis de !
no documentada en lugar de NOT
fuera de las expresiones booleanas
Con esta versión, ya no se permite el uso de !
como sinónimo de NOT
fuera de expresiones booleanas. Por ejemplo, instrucciones como las siguientes: CREATE ... IF ! EXISTS
, IS ! NULL, una propiedad de campo o columna ! NULL
, ! IN
y ! BETWEEN, debe reemplazarse por: CREATE ... IF NOT EXISTS
, IS NOT NULL
, una propiedad de campo o columna NOT NULL
, NOT IN
y NOT BETWEEN
.
Este cambio garantiza la coherencia, se alinea con el estándar SQL y hace que SQL sea más portátil.
El operador de prefijo booleano!
(por ejemplo !is_mgr
, o !(true AND false)
) no se ve afectado por este cambio.
No permitir la sintaxis de definición de columna no documentada en vistas
Databricks admite CREATE VIEW con columnas con nombre y comentarios de columna. Anteriormente, se ha permitido la especificación de tipos de columna, restricciones NOT NULL
o DEFAULT
. Con esta versión, ya no puede usar esta sintaxis.
Este cambio garantiza la coherencia, se alinea con el estándar SQL y admite mejoras futuras.
Control coherente de errores para la descodificación de Base64 en Spark y Photon
Esta versión cambia el modo en que Photon controla los errores de descodificación de Base64 para que coincidan con el control de Spark de estos errores. Antes de estos cambios, la ruta de acceso de generación de código Photon y Spark a veces no podía generar excepciones de análisis, mientras que la ejecución de Spark interpretó correctamente IllegalArgumentException
o ConversionInvalidInputError
. Esta actualización garantiza que Photon genere de forma coherente las mismas excepciones que Spark durante los errores de descodificación de Base64, lo que proporciona un control de errores más predecible y confiable.
Agregar una restricción CHECK
en una columna no válida ahora devuelve la clase de error UNRESOLVED_COLUMN.WITH_SUGGESTION
Para proporcionar mensajería de errores más útil, en Databricks Runtime 15.3 y versiones posteriores, una instrucción ALTER TABLE ADD CONSTRAINT
que incluye una restricción CHECK
que hace referencia a un nombre de columna no válido devuelve la clase de error UNRESOLVED_COLUMN.WITH_SUGGESTION. Anteriormente, se devolvía un INTERNAL_ERROR
.
Nuevas características y mejoras
- Funciones de validación UTF-8
- funciones de to_avro y from_avro
- API de conjuntos de datos con tipo con UDF de Scala
- Habilitación de UniForm Iceberg mediante ALTER TABLE
- try_url_decode function
- Opcionalmente, permitir que el optimizador dependa de restricciones de clave externa no aplicadas
- Ejecuciones de trabajo en paralelo para sobrescrituras selectivas
- Rendimiento mejorado para la fuente de datos modificados con sobrescrituras selectivas
- Latencia de consulta mejorada para el comando
COPY INTO
- Compatibilidad con la eliminación de la característica de comprobar la tabla de restricciones
- El proceso de usuario único admite el control de acceso específico, las vistas materializadas y las tablas de streaming (versión preliminar pública)
- Compatibilidad expandida para bibliotecas de Java y Scala
- Compatibilidad expandida para las operaciones del conjunto de datos de Scala
- Scala está disponible en el proceso compartido de Unity Catalog
- Acceso regulado por el catálogo de Unity a servicios en la nube externos mediante credenciales de servicio (versión preliminar pública)
Funciones de validación UTF-8
En esta versión se presentan las siguientes funciones para validar cadenas UTF-8:
- is_valid_utf8 comprobó si una cadena es una cadena UTF-8 válida.
- make_valid_utf8 convierte una cadena UTF-8 potencialmente no válida en una cadena UTF-8 válida mediante caracteres de sustitución
- validate_utf8 genera un error si la entrada no es una cadena UTF-8 válida.
- try_validate_utf8 devuelve
NULL
si la entrada no es una cadena UTF-8 válida.
funciones de to_avro y from_avro
Las funciones to_avro y from_avro permiten la conversión de tipos SQL a datos binarios de Avro y de vuelta.
API de conjuntos de datos tipificados con UDF de Scala
Esta versión incluye suporte técnico agregado para las API de conjunto de datos tipadas con funciones de Scala definidas por el usuario (excepto las funciones de agregado definidas por el usuario) en compilaciones habilitadas para catálogos de Unity con modo de acceso compartido. Consulte API de conjunto de datos con tipo.
Habilitación de UniForm Iceberg mediante ALTER TABLE
Ahora puede habilitar UniForm Iceberg en tablas existentes sin volver a escribir los archivos de datos. Consulte Habilitación modificando una tabla existente.
función try_url_decode
En esta versión se presenta la función try_url_decode, que descodifica una cadena codificada en dirección URL. Si la cadena no tiene el formato correcto, la función devuelve NULL
en lugar de generar un error.
Opcionalmente, permitir que el optimizador dependa de restricciones de clave externa no aplicadas
Para mejorar el rendimiento de las consultas, ahora puede especificar la palabra clave RELY
en restricciones de FOREIGN KEY
al ejecutar CREATE o ALTER en una tabla.
Ejecuciones de trabajo en paralelo para sobrescrituras selectivas
Sobrescribe selectivamente mediante replaceWhere
ahora ejecuta trabajos que eliminan datos e insertan nuevos datos en paralelo, lo cual mejora el rendimiento de las consultas y el uso del clúster.
Rendimiento mejorado para la fuente de datos modificados con sobrescrituras selectivas
Las sobrescrituras selectivas que usan replaceWhere
en tablas con fuente de datos modificados ya no escriben archivos de datos modificados independientes para los datos insertados. Estas operaciones usan una columna oculta _change_type
presente en los archivos de datos Parquet subyacentes para registrar cambios sin amplificación de escritura.
Latencia de consulta mejorada para el comando COPY INTO
Esta versión incluye un cambio que mejora la latencia de la consulta para el comando COPY INTO
. Esta mejora se implementa haciendo asincrónica la carga de estado por parte del almacén de estados de RocksDB. Con este cambio, debería ver una mejora en las horas de inicio de las consultas con estados grandes, por ejemplo, consultas con un gran número de archivos ya ingeridos.
Compatibilidad con la eliminación de la característica de comprobar la tabla de restricciones
Ahora puede quitar la característica de tabla de checkConstraints
de una tabla Delta mediante ALTER TABLE table_name DROP FEATURE checkConstraints
. Consulte Deshabilitación de las restricciones de comprobación.
El proceso de usuario único admite el control de acceso específico, las vistas materializadas y las tablas de streaming (versión preliminar pública)
Cuando se habilita un área de trabajo para el proceso sin servidor, Databricks Runtime 15.4 LTS agrega compatibilidad con el control de acceso específico en un solo proceso de usuario. Cuando una consulta accede a cualquiera de los siguientes objetos, el recurso de proceso de usuario único en Databricks Runtime 15.4 LTS pasa la consulta al proceso sin servidor para ejecutar el filtrado de datos:
- Vistas creadas sobre tablas en las que el usuario no tiene el privilegio
SELECT
. - Vistas dinámicas.
- Tablas con filtros de fila o máscaras de columna aplicadas.
- Vistas materializadas y tablas de streaming.
Estas consultas no son compatibles con el proceso de usuario único que ejecuta Databricks Runtime 15.3 y versiones posteriores.
Para obtener más información, consulte Control de acceso específico sobre el proceso de un solo usuario.
Compatibilidad expandida para bibliotecas de Java y Scala
A partir de Databricks Runtime 15.4 LTS, todas las bibliotecas de Java y Scala agrupadas con Databricks Runtime están disponibles en todos los modos de acceso de proceso cuando se usa Unity Catalog. Para obtener más información sobre la compatibilidad del lenguaje en el proceso habilitado para el Unity Catalog, consulte limitaciones del modo de acceso de proceso para Unity Catalog.
Compatibilidad expandida para las operaciones del conjunto de datos de Scala
Con esta versión, los recursos de proceso habilitados para Unity Catalog que usan el modo de acceso compartido admiten las siguientes operaciones Dataset
de Scala: map
, mapPartitions
, foreachPartition
, flatMap
, reduce
y filter
.
Scala está disponible en el proceso compartido de Unity Catalog
Con esta versión, Scala está disponible con carácter general en el modo de acceso compartido, proceso habilitado para Unity Catalog, incluida la compatibilidad con funciones de escalado definidas por el usuario (UDF). No se admiten funciones de agregado definidas por el usuario de Structured Streaming, UDF de Hive y Hive. Para obtener una lista completa de las limitaciones, vea Limitaciones del modo de acceso de proceso para Unity Catalog.
Acceso regulado por el catálogo de Unity a servicios en la nube externos mediante credenciales de servicio (versión preliminar pública)
Las credenciales de servicio permiten la autenticación sencilla y segura con los servicios del inquilino en la nube mediante identidades administradas de Azure (MI) y catálogo de Unity. Consulte Administración del acceso a servicios en la nube externos mediante credenciales de servicio.
Corrección de errores
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- azure-core de 1.30.1 a 1.30.2
- google-auth de 2.29.0 a 2.31.0
- google-cloud-storage de 2.16.0 a 2.17.0
- google-resumable-media de 2.7.0 a 2.7.1
- googleapis-common-protos de 1.63.0 a 1.63.2
- mlflow-skinny de 2.11.3 a 2.11.4
- proto-plus de 1.23.0 a 1.24.0
- s3transfer de 0.10.1 a 0.10.2
- Bibliotecas de R actualizadas:
- Bibliotecas de Java actualizadas:
- com.databricks.databricks-sdk-java de 0.17.1 a 0.27.0
- com.ibm.icu.icu4j de 72.1 a 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider from 1.6.1-linux-x86_64 to 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS incluye Apache Spark 3.5.0. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 15.3, así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Permitir la agrupación en expresiones en subconsultas escalares, si están enlazadas a filas externas
- [SPARK-48834] [BEHAVE-79][SC-170972][SQL] Deshabilitación de la entrada y salida en las escalares de Python UDF, UDTF, UDAF durante la compilación de consultas
- [SPARK-48441] [SC-170980][SQL][WARMFIX] Corrección del comportamiento de StringTrim para intercalaciones que no sean UTF8_BINARY
- [SPARK-48440] [SC-170895][SQL][WARMFIX] Corrección del comportamiento de StringTranslate para intercalaciones que no sean UTF8_BINARY
- [SPARK-48872] [SC-170866][PYTHON] Reducción de la sobrecarga de _capture_call_site
- [SPARK-48862] [SC-170845][PYTHON][CONNECT] Se evita llamar a
_proto_to_string
cuando el nivel INFO no está habilitado - [SPARK-48852] [SC-170837][CONNECT] Corrección de la función de recorte de cadenas en conexión
- [SPARK-48791] [SC-170658][CORE] Corrección de la regresión de rendimiento causada por la sobrecarga de registro de acumuladores mediante CopyOnWriteArrayList
- [SPARK-48118] [SQL] Compatibilidad con
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
la variable env - [SPARK-48241] [SC-165811][SQL] Error de análisis de CSV con columnas de tipo char/varchar
- [SPARK-48168] [SC-166900][SQL] Se ha agregado compatibilidad con operadores de desplazamiento bit a bit
- [SPARK-48148] [SC-165630][CORE] Los objetos JSON no se deben modificar cuando se leen como STRING
- [SPARK-46625] [SC-170561] CTE con la cláusula de identificador como referencia
- [SPARK-48771] [SC-170546][SQL] Aceleración de
LogicalPlanIntegrity.validateExprIdUniqueness
para planes de consulta de gran tamaño - [SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Se ha hecho que el nombre de columna predeterminado de
cast
sea compatible con Spark clásico - [SPARK-48623] [SC-170544][CORE] Migraciones de registro estructurado [Parte 2]
- [SPARK-48296] [SC-166138][SQL] Compatibilidad de Codegen con
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter para la combinación de varios niveles debe comprobar el tipo de combinación secundaria
- [SPARK-48686] [SC-170365][SQL] Mejora del rendimiento de ParserUtils.unescapeSQLString
- [SPARK-48798] [SC-170588] [PYTHON] Introducción
spark.profile.render
a la generación de perfiles basada en SparkSession - [SPARK-48048] [SC-169099] Revertir “[SC-164846][CONNECT][SS] Se ha agregado compatibilidad con el agente de escucha del lado cliente para Scala”
- [SPARK-47910] [SC-168929][CORE] cierre la secuencia cuando DiskBlockObjectWriter closeResources para evitar pérdidas de memoria
- [SPARK-48816] [SC-170547][SQL] Abreviatura para conversores de intervalos en UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Agregar la opción snapshotStartBatchId y snapshotPartitionId al origen de datos de estado
- [SPARK-48280] [SC-170293][SQL] Mejorar el área expuesta de pruebas de intercalación mediante el recorrido de expresiones
- [SPARK-48837] [SC-170540][ML] En CountVectorizer, solo se lee el parámetro binario una vez por transformación, no una vez por fila
- [SPARK-48803] [SC-170541][SQL] Produce un error interno en Orc(De)serializer para alinearse con ParquetWriteSupport
- [SPARK-48764] [SC-170129][PYTHON] Filtrado de fotogramas relacionados con IPython desde la pila de usuarios
- [SPARK-48818] [SC-170414][PYTHON] Simplificación de funciones de
percentile
- [SPARK-48479] [SC-169079][SQL] Compatibilidad con la creación de UDF escalares y de tabla de SQL en el analizador
- [SPARK-48697] [SC-170122][LC-4703][SQL] Agregar filtros de cadena compatibles con intercalación
- [SPARK-48800] [SC-170409][CONNECT][SS] Analizar ClientStreamingQuerySuite
- [SPARK-48738] [SC-169814][SQL] Correcto desde la versión para del alias func integrada
random
,position
,mod
,cardinality
,current_schema
,user
,session_user
,char_length
,character_length
- [SPARK-48638] [SC-169575][CONNECT] Agregar compatibilidad con ExecutionInfo para DataFrame
- [SPARK-48064] [SC-164697][SQL] Actualización de mensajes de error para clases de error relacionadas con rutinas
- [SPARK-48810] API [CONNECT] Session stop() debe ser idempotent y no producir un error si el servidor ya ha cerrado la sesión
- [SPARK-48650] [15.x][PYTHON] Mostrar el sitio de llamada correcto desde el bloc de notas de IPython
- [SPARK-48271] [SC-166076][SQL] Convertir el error de coincidencia en RowEncoder en UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Corrección de la falta de coincidencia de resolución de tipos varchar para DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Corrección de la regresión para INSERT con lista de columnas parciales en una tabla con char/varchar
- [SPARK-48767] [SC-170330][SQL] Corrección de algunos mensajes de error cuando los datos de tipo de
variant
no son válidos - [SPARK-48719] [SC-170339][SQL] Corrección del error de cálculo de
RegrSlope
yRegrIntercept
cuando el primer parámetro es null - [SPARK-48815] [SC-170334][CONNECT] Actualizar entorno al detener la sesión de conexión
- [SPARK-48646] [SC-169020][PYTHON] Refinar sugerencias de tipo y documentación de la API del origen de datos de Python
- [SPARK-48806] [SC-170310][SQL] Pasar la excepción real cuando se produce un error en url_decode
- [SPARK-47777] [SC-168818] corrección de la prueba de conexión del origen de datos de streaming de Python
- [SPARK-48732] [SC-169793][SQL] Limpieza del uso de las API en desuso relacionadas con
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Corrección de la tabla de caché con columnas intercaladas
- [SPARK-48623] [SC-169034][CORE] Migraciones de registro estructurado
- [SPARK-48655] [SC-169542][SQL] SPJ: Adición de pruebas para la omisión aleatoria de consultas agregadas
- [SPARK-48586] [SC-169808][SS] Quitar la adquisición de bloqueos en doMaintenance() realizando una copia profunda de asignaciones de archivos en RocksDBFileManager en load()
- [SPARK-48799] [Backport][15.x][SC-170283][SS] Refactorización de versiones para metadatos de operador de lectura y escritura y autores de llamada
- [SPARK-48808] [SC-170309][SQL] Corrección de NPE al conectar thriftserver a través de Hive 1.2.1 y el esquema de resultados está vacío
- [SPARK-48715] [SC-170291][SQL] Integrar la validación de UTF8String en implementaciones de funciones de cadena compatibles con intercalación
- [SPARK-48747] [SC-170120][SQL] Agregar iterador de punto de código a UTF8String
- [SPARK-48748] [SC-170115][SQL] Caché numChars en UTF8String
- [SPARK-48744] [SC-169817][Core] La entrada de registro solo se debe construir una vez
- [SPARK-46122] [SC-164313][SQL] Se estableció
spark.sql.legacy.createHiveTableByDefault
enfalse
de forma predeterminada - [SPARK-48765] [SC-170119][DEPLOY] Mejorar la evaluación de valores predeterminados para SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Agregar documento de migración para CREATE TABLE AS SELECT, cambio de comportamiento desde Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][CONNECT] Propagación del esquema almacenado en caché en operaciones de trama de datos
- [SPARK-48766] [SC-170126][PYTHON] Documentación de la diferencia de comportamiento de
extraction
entreelement_at
ytry_element_at
- [SPARK-48768] [SC-170124][PYTHON][CONNECT] No se debe almacenar en caché
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Cambie para leer los metadatos del operador una vez en el controlador para comprobar si podemos encontrar información sobre numColsPrefixKey que se usa para las consultas agg de ventana de sesión
- [SPARK-48656] [SC-169529][CORE] Realice una comprobación de longitud e inicie el error COLLECTION_SIZE_LIMIT_EXCEEDED en
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817][SQL] Introducir un marcador para la propiedad isStreaming en la representación de texto del plan lógico
- [SPARK-48472] [SC-169044][SQL] Habilitar expresiones reflect con cadenas intercaladas
- [SPARK-48699] [SC-169597][SQL] Refinar las API de intercalación
- [SPARK-48682] [SC-169812][SQL][BEHAVE-58] Uso de ICU en la expresión InitCap para cadenas de UTF8_BINARY
- [SPARK-48282] [SC-169813][SQL] Modificar la lógica de búsqueda de cadena para la intercalación UTF8_BINARY_LCASE (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][SQL] Habilitación de compatibilidad de intercalación para la expresión Mode
- [SPARK-48320] [SPARK-48490] Sincronización del último rasgo de registro y casos de prueba de OSS Spark
- [SPARK-48629] [SC-169479] Migración del código residual al marco de registro estructurado
- [SPARK-48681] [SC-169469][SQL][BEHAVE-58] Uso de ICU en las expresiones Lower/Upper para cadenas de UTF8_BINARY
- [SPARK-48573] [15.x][SC-169582][SQL] Actualización de la versión de ICU
- [SPARK-48687] [Backport][15.x][SS] Agregar cambio para realizar la validación del esquema de estado y actualizar el controlador para consultas con estado
- [SPARK-47579] [15.x][SC-167310][CORE][PART4] Migración de logInfo con variables al marco de registro estructurado
- [SPARK-48008] [SC-167363][1/2] Compatibilidad de UDAF con Spark Connect
- [SPARK-48578] [SC-169505][SQL] agregar funciones relacionadas con la validación de cadenas UTF8
- [SPARK-48670] [SC-169598][SQL] Proporcionar sugerencia como parte del mensaje de error cuando se proporciona un nombre de intercalación no válido
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA… …RK-48291] Marco de registro estructurado en el lado java
- [SPARK-47599] [15.x][SC-166000][MLLIB] MLLib: Migración de logWarn con variables al marco de registro estructurado
- [SPARK-48706] [SC-169589][PYTHON] El UDF de Python en funciones de orden superior no debe producir un error interno
- [SPARK-48498] [BEHAVE-38][SC-168060][SQL] Haga siempre un relleno de caracteres en predicados
- [SPARK-48662] [SC-169533][SQL] Corrección de la expresión StructsToXml con intercalaciones
- [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates y dropDuplicatesWIthinWatermark deben aceptar argumentos de longitud variable
- [SPARK-48678] [SC-169463][CORE] Optimizaciones de rendimiento para SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Cambie el nombre del UTF8_BINARY_LCASE a UTF8_LCASE
- [SPARK-47927] [SC-164123][SQL]: Corrección del atributo de nulabilidad en el descodificador UDF
- [SPARK-47579] [165297.x][SC-167310][CORE][PART1] Migración de logInfo con variables al marco de registro estructurado (nuevo)
- [SPARK-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
no usa los métodos en desuso - [SPARK-48431] [SC-167290][LC-4066][SQL] No reenviar predicados en columnas intercaladas a lectores de archivos
- [SPARK-47579] Revertir “[165297.x][SC-167310][CORE][PART1] Migración de logInfo con variables al marco de registro estructurado”
- [SPARK-47585] [SC-164306][SQL] SQL core: migración de logInfo con variables al marco de registro estructurado
- [SPARK-48466] [SC-169042][SQL] Crear un nodo dedicado para EmptyRelation en AQE
- [SPARK-47579] [165297.x][SC-167310][CORE][PART1] Migración de logInfo con variables al marco de registro estructurado
- [SPARK-48410] [SC-168320][SQL] Corrección de la expresión InitCap para intercalaciones UTF8_BINARY_LCASE & ICU
- [SPARK-48318] [SC-167709][SQL] Habilitar la compatibilidad con la combinación hash para todas las intercalaciones (tipos complejos)
- [SPARK-48435] [SC-168128][SQL] La intercalación UNICODE no debe admitir la igualdad binaria
- [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Compatibilidad con el uso de columnas como parámetros para varias funciones en pyspark/scala
- [SPARK-48591] [SC-169081][PYTHON] Adición de una función auxiliar para simplificar
Column.py
- [SPARK-48574] [SC-169043][SQL] Corrección de la compatibilidad de StructTypes con intercalaciones
- [SPARK-48305] [SC-166390][SQL] Adición de compatibilidad de intercalación para expresiones CurrentLike
- [SPARK-48342] [SC-168941][SQL] Introducción al analizador de scripting de SQL
- [SPARK-48649] [SC-169024][SQL] Agregar las configuraciones “ignoreInvalidPartitionPaths” y “spark.sql.files.ignoreInvalidPartitionPaths” para permitir la omisión de rutas de acceso de partición no válidas
- [SPARK-48000] [SC-167194][SQL] Habilitar la compatibilidad con la combinación hash para todas las intercalaciones (StringType)
- [SPARK-48459] [SC-168947][CONNECT][PYTHON] Implementar DataFrameQueryContext en Spark
- [SPARK-48602] [SC-168692][SQL] Hacer que el generador csv admita un estilo de salida diferente con spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][SQL] Modificar la comparación de cadenas para UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830][SQL] refactorizar: usar idMap auxiliar en lugar de OP_ID_TAG
- [SPARK-48634] [SC-169021][PYTHON][CONNECT] Evite inicializar estáticamente threadpool en ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][SQL] Presenta un BinaryFormatter universal para hacer que la salida binaria sea coherente
- [SPARK-48642] [SC-168889][CORE] False SparkOutOfMemoryError causado por la tarea de eliminación de derrames
- [SPARK-48572] [SC-168844][SQL] Corrección de expresiones DateSub, DateAdd, WindowTime, TimeWindow y SessionWindow
- [SPARK-48600] [SC-168841][SQL] Corrección de la conversión implícita de expresiones FrameLessOffsetWindowFunction
- [SPARK-48644] [SC-168933][SQL] Realice una comprobación de longitud e inicie el error COLLECTION_SIZE_LIMIT_EXCEEDED en Hex.hex
- [SPARK-48587] [SC-168824][VARIANT] Evite la amplificación de almacenamiento al acceder a una subvariante
- [SPARK-48647] [SC-168936][PYTHON][CONNECT] Refinamiento del mensaje de error de
YearMonthIntervalType
endf.collect
- [SPARK-48307] [SC-167802][SQL] InlineCTE debe mantener relaciones no insertadas en el nodo WithCTE original
- [SPARK-48596] [SC-168581][SQL] Mejora de rendimiento para calcular la cadena hexadecimal durante mucho tiempo
- [SPARK-48621] [SC-168726][SQL] Corrección como simplificación en Optimizer para cadenas intercaladas
- [SPARK-47148] [SC-164179][SQL] Evitar materializar AQE ExchangeQueryStageExec en la cancelación
- [SPARK-48584] [SC-168579][SQL] Mejora de rendimiento para unescapePathName
- [SPARK-48281] [SC-167260][SQL] Modificar la lógica de búsqueda de cadena para la intercalación UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][SQL] Reemplazo de secuencia de bytes UTF-8 no válido
- [SPARK-48595] [SC-168580][CORE] Limpieza del uso de las API en desuso relacionadas con
commons-compress
- [SPARK-48030] [SC-164303][SQL] SPJ: rowOrdering y structType de caché para InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][SQL] Agregar el rasgo WriteFilesExecBase para la escritura v1
- [SPARK-48551] [SC-168438][SQL] Mejora de rendimiento para escapePathName
- [SPARK-48565] [SC-168437][UI] Corrección de la visualización del volcado de subproceso en la interfaz de usuario
- [SPARK-48364] [SC-166782][SQL] Agregar la conversión de tipos AbstractMapType y corregir la asignación de parámetros RaiseError para trabajar con cadenas intercaladas
- [SPARK-48421] [SC-168689][SQL] SPJ: Agregar documentación
- [SPARK-48604] [SC-168698][SQL] Reemplazar la llamada de método
new ArrowType.Decimal(precision, scale)
en desuso - [SPARK-46947] [SC-157561][CORE] Retrasar la inicialización del administrador de memoria hasta que se cargue el complemento Driver
- [SPARK-48411] [SC-168576][SS][PYTHON] Agregar prueba E2E para DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][SS] Seguimiento de errores de validación de filas de estado mediante la clase de error explícita
- [SPARK-48221] [SC-167143][SQL] Modificar la lógica de búsqueda de cadena para la intercalación UTF8_BINARY_LCASE (Contains, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][SQL] Adición de compatibilidad de intercalación para la expresión Levenshtein
- [SPARK-48593] [SC-168719][PYTHON][CONNECT] Corrección de la representación de cadena de la función lambda
- [SPARK-48622] [SC-168710][SQL] obtener SQLConf una vez al resolver nombres de columna
- [SPARK-48594] [SC-168685][PYTHON][CONNECT] Cambiar nombre del campo
parent
achild
enColumnAlias
- [SPARK-48403] [SC-168319][SQL] Corrección de las expresiones Lower y Upper para intercalaciones UTF8_BINARY_LCASE & ICU
- [SPARK-48162] [SC-166062][SQL] Adición de compatibilidad de intercalación para expresiones MISC
- [SPARK-48518] [SC-167718][CORE] Hacer que la compresión LZF se pueda ejecutar en paralelo
- [SPARK-48474] [SC-167447][CORE] Corrección del nombre de clase del registro en
SparkSubmitArguments
ySparkSubmit
- [SPARK-48012] [SC-168267][SQL] SPJ: compatibilidad con expresiones transfrom para un orden aleatorio lateral
- [SPARK-48552] [SC-168212][SQL] la inferencia de esquema CSV de varias líneas también debe iniciar FAILED_READ_FILE
- [SPARK-48560] [SC-168268][SS][PYTHON] Hacer que StreamingQueryListener.spark sea configurable
- [SPARK-48569] [SC-168321][SS][CONNECT] Controlar casos perimetrales en query.name
- [SPARK-47260] [SC-167323][SQL] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][PYTHON][CONNECT] Propagación del esquema almacenado en caché en operaciones establecidas
- [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation para unirse debe comprobar si el elemento secundario sigue siendo BroadcastQueryStageExec
- [SPARK-48506] [SC-167720][CORE] Los nombres cortos de códec de compresión no distinguen mayúsculas de minúsculas, excepto el registro de eventos
- [SPARK-48447] [SC-167607][SS] Comprobar la clase de proveedor del almacén de estado antes de invocar el constructor
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff y DateTimeUtils.timestampAdd no deben iniciar la excepción INTERNAL_ERROR
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Agregar clase de error para la compatibilidad del esquema de estado y la refactorización secundaria
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN con intercalación
- [SPARK-48561] [SC-168250][PS][CONNECT] Iniciar
PandasNotImplementedError
para funciones de trazado no admitidas - [SPARK-48465] [SC-167531][SQL] Evitar propagación de relaciones vacías sin operación
- [SPARK-48553] [SC-168166][PYTHON][CONNECT] Almacenar en caché más propiedades
- [SPARK-48540] [SC-168069][CORE] Evite la configuración de carga de salida de ivy en stdout
- [SPARK-48535] [SC-168057][SS] Se han actualizado los documentos de configuración para indicar la posibilidad de que se produzca un problema de pérdida o daños en los datos si se habilita la omisión de valores NULL para la configuración de combinaciones de secuencias de flujo.
- [SPARK-48536] [SC-168059][PYTHON][CONNECT] Esquema especificado por el usuario en caché en applyInPandas y applyInArrow
- [SPARK-47873] [SC-163473][SQL] Escribir cadenas intercaladas en metastore de Hive mediante el tipo de cadena normal
- [SPARK-48461] [SC-167442][SQL] Reemplazar NullPointerExceptions por clase de error en la expresión AssertNotNull
- [SPARK-47833] [SC-163191][SQL][CORE] Stackstrace del autor de la llamada para checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][SQL] Puerto HIVE-12270: Agregar compatibilidad de DBTokenStore al token de delegación de HS2
- [SPARK-47578] [SC-167497][R] Migración de RPackageUtils con variables al marco de registro estructurado
- [SPARK-47875] [SC-162935][CORE] Eliminar
spark.deploy.recoverySerializer
- [SPARK-47552] [SC-160880][CORE] Establezca
spark.hadoop.fs.s3a.connection.establish.timeout
en 30s si falta - [SPARK-47972] [SC-167692][SQL] Restringir la expresión CAST para intercalaciones
- [SPARK-48430] [SC-167489][SQL] Corrección de la extracción de valores de asignación cuando la asignación contiene cadenas intercaladas
- [SPARK-47318] [SC-162712][CORE][3.5] Adición de la ronda HKDF a la derivación de claves de AuthEngine para seguir las prácticas estándar de KEX
- [SPARK-48503] [BEHAVE-29][ES-1135236][SQL] Corrección de subconsultas escalares no válidas con agrupación por en columnas no equivalentes que se permitieron incorrectamente
- [SPARK-48508] [SC-167695][CONNECT][PYTHON] Esquema especificado por el usuario de caché en
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Corrección del error en Windows donde iniciar varias instancias de Spark en el mismo segundo produce un error
- [SPARK-45891] [SC-167608]Revertir ” Descripción del esquema de fragmentación para Variant”
- [SPARK-48391] [SC-167554][CORE]El uso de addAll en lugar de la función add en el método fromAccumulatorInfos de la clase TaskMetrics
- [SPARK-48496] [SC-167600][CORE] Uso de instancias de patrón regex estáticas en JavaUtils.timeStringAs y JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][SQL] Corrección del mensaje de error NPE para csv delmiter null
- [SPARK-48489] [SC-167598][SQL] Inicie un error mejor orientado al usuario al leer un esquema no válido del origen de datos de texto
- [SPARK-48471] [SC-167324][CORE] Mejora de la documentación y la guía de uso del servidor de historial
- [SPARK-45891] [SC-167597] Descripción del esquema de fragmentación para Variant
- [SPARK-47333] [SC-159043][SQL] Uso de checkInputDataTypes para comprobar los tipos de parámetro de la función
to_xml
- [SPARK-47387] [SC-159310] [SQL] Quitar algunas clases de error sin usar
- [SPARK-48265] [ES-1131440][SQL] El lote de límite de grupos de ventanas de inferencia debe hacer plegado constante
- [SPARK-47716] [SC-167444][SQL] Evitar conflictos de nombres de vista en el caso de prueba de ordenación semántica de SQLQueryTestSuite
- [SPARK-48159] [SC-167141][SQL] Extensión de compatibilidad con cadenas intercaladas en expresiones datetime
- [SPARK-48462] [SC-167271][SQL][Tests] Uso de withSQLConf en pruebas: refactorizar HiveQuerySuite y HiveTableScanSuite
- [SPARK-48392] [SC-167195][CORE] También cargue
spark-defaults.conf
cuando se proporciona--properties-file
- [SPARK-48468] [SC-167417] Agregar interfaz LogicalQueryStage en catalyst
- [SPARK-47578] [SC-164988][CORE] Portabilidad con versiones anteriores manual para Spark PR #46309: migración de logWarning con variables al marco de registro estructurado
- [SPARK-48415] [SC-167321]Revertir “[PYTHON] Refactorizar TypeName para admitir tipos de datos con parámetros”
- [SPARK-46544] [SC-151361][SQL] Compatibilidad con la versión 2 DESCRIBE TABLE EXTENDED con estadísticas de tabla
- [SPARK-48325] [SC-166963][CORE] Especifique siempre mensajes en ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][SQL] Agregar compatibilidad de intercalación con configuraciones regionales de ICU y especificadores de intercalación
- [SPARK-47221] [SC-157870][SQL] Uso de firmas de CsvParser a AbstractParser
- [SPARK-47246] [SC-158138][SQL] Reemplazp de
InternalRow.fromSeq
pornew GenericInternalRow
para guardar una conversión de colección - [SPARK-47597] [SC-163932][STREAMING] Portabilidad con versiones anteriores manual para Spark PR #46192: Streaming: migración de logInfo con variables al marco de registro estructurado
- [SPARK-48415] [SC-167130][PYTHON] Refactorizar
TypeName
para admitir tipos de datos con parámetros - [SPARK-48434] [SC-167132][PYTHON][CONNECT] Hacer que
printSchema
use el esquema almacenado en caché - [SPARK-48432] [ES-1097114][SQL] Evitar desempaquetar enteros en UnivocityParser
- [SPARK-47463] [SC-162840][SQL] Uso de V2Predicate para ajustar la expresión con el tipo de valor devuelto booleano
- [SPARK-47781] [SC-162293][SQL] Controlar decimales de escala negativos para orígenes de datos JDBC
- [SPARK-48394] [SC-166966][CORE] Limpiar mapIdToMapIndex en mapoutput unregister
- [SPARK-47072] [SC-156933][SQL] Corrección de los formatos de intervalo admitidos en los mensajes de error
- [SPARK-47001] [SC-162487][SQL] Comprobación de delegación en el optimizador
- [SPARK-48335] [SC-166387][PYTHON][CONNECT] Hacer que
_parse_datatype_string
sea compatible con Spark Connect - [SPARK-48329] [SC-166518][SQL] Se habilitó
spark.sql.sources.v2.bucketing.pushPartValues.enabled
de forma predeterminada - [SPARK-48412] [SC-166898][PYTHON] Refactorizar el análisis json del tipo de datos
- [SPARK-48215] [SC-166781][SQL] Extensión de compatibilidad con cadenas intercaladas en expresiones date_format
- [SPARK-45009] [SC-166873][SQL][FOLLOW UP] Agregar clases de error y pruebas para la descorrelación de subconsultas de predicado en la condición de combinación que hacen referencia a ambos elementos secundarios de combinación
- [SPARK-47960] [SC-165295][SS][15.x] Permitir encadenar otros operadores con estado después del operador transformWithState.
- [SPARK-48340] [SC-166468][PYTHON] Compatibilidad con errores de esquema de inferencia timestampNTZ al que le falta prefer_timestamp_ntz
- [SPARK-48157] [SC-165902][SQL] Adición de compatibilidad de intercalación para expresiones CSV
- [SPARK-48158] [SC-165652][SQL] Adición de compatibilidad de intercalación para expresiones XML
- [SPARK-48160] [SC-166064][SQL] Adición de compatibilidad de intercalación para expresiones XPATH
- [SPARK-48229] [SC-165901][SQL] Adición de compatibilidad de intercalación para expresiones inputFile
- [SPARK-48367] [SC-166487][CONNECT] Corrección de lint-scala para scalafmt para detectar archivos con el formato correcto
- [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] Refactorización de la estructura para el contexto de error de DataFrame
- [SPARK-48370] [SC-166787][CONNECT] Punto de control y localCheckpoint en el cliente de Scala Spark Connect
- [SPARK-48247] [SC-166028][PYTHON] Uso de todos los valores en un dict al deducir el esquema MapType
- [SPARK-48395] [SC-166794][PYTHON] Corrección de
StructType.treeString
para tipos con parámetros - [SPARK-48393] [SC-166784][PYTHON] Mover un grupo de constantes a
pyspark.util
- [SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Implementar
StructType.treeString
- [SPARK-48258] [SC-166467][PYTHON][CONNECT] Punto de control y localCheckpoint en Spark Connect
Consulte las actualizaciones de mantenimiento de Databricks Runtime 15.4 LTS.
Entorno del sistema
- Sistema operativo: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Bibliotecas de Python instaladas
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
contourpy | 1.0.5 | criptografía | 41.0.3 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
entrypoints | 0,4 | executing | 0.8.3 | facets-overview | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | empaquetado | 23,2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
requests | 2.31.0 | rsa | 4,9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | six (seis) | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | unattended-upgrades | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wheel | 0.38.4 | zipp | 3.11.0 |
Bibliotecas de R instaladas
Las bibliotecas R se instalan desde la instantánea de CRAN del administrador de paquetes Posit.
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
arrow | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
clase | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
clock | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
config | 0.3.2 | en conflicto | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | conjuntos de datos | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagrama | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | evaluate | 0,23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
elementos gráficos | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0,10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | r-juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1,45 | labeling | 0.4.3 |
later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
ciclo de vida | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
Matriz | 1.5-4.1 | memoise | 2.0.1 | métodos | 4.3.2 |
mgcv | 1.8-42 | mime | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | progreso | 1.2.3 |
progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | r-reactable | 0.4.4 |
r-reactr | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
shape | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
survival | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
Identificador de grupo | Identificador de artefacto | Versión |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | flujo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recopilador | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | colecciones de eclipse | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,40 |
org.glassfish.jersey.core | jersey-client | 2,40 |
org.glassfish.jersey.core | jersey-common | 2,40 |
org.glassfish.jersey.core | jersey-server | 2,40 |
org.glassfish.jersey.inject | jersey-hk2 | 2,40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |