Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 13.3 LTS, con tecnología de Apache Spark 3.4.1.
Databricks publicó esta versión en agosto de 2023.
Nota:
LTS significa que esta versión tiene soporte técnico a largo plazo. Consulte Ciclo de vida de la versión de Databricks Runtime LTS.
Sugerencia
Para ver las notas de la versión de las versiones de Databricks Runtime que han llegado a la finalización del soporte (EoS), vea las Notas de la versión de finalización del soporte de Databricks Runtime. Las versiones de Databricks Runtime EoS se han retirado y es posible que no se actualicen.
Nuevas características y mejoras
- Compatibilidad de Scala con clústeres compartidos
- La lista de permitidos para scripts de inicialización, JAR y coordenadas de Maven en clústeres estándar de Unity Catalog (anteriormente clústeres compartidos) está en versión preliminar pública.
- La compatibilidad de volúmenes con scripts de inicialización y JAR está en versión preliminar pública
- Conversiones seguras habilitadas de forma predeterminada para las operaciones de Delta Lake
- Presentación de etiquetas con Unity Catalog
- Databricks Runtime devuelve un error si se modifica un archivo entre el planeamiento y la invocación de consultas
- Bloquear la sobrescritura del esquema al usar sobrescrituras de partición dinámica
- Integración de copyFile API en dbutils.fs.cp
- Compatibilidad con el controlador ODBC/JDBC de Databricks
- Compatibilidad con marcadores de parámetro sin nombre (posicionales)
- Habilitación del etiquetado de columnas de serie temporal
- Nuevas funciones de mapa de bits de SQL
- Funciones de cifrado mejoradas
- Compatibilidad con Unity Catalog para REFRESH FOREIGN
- INSERT POR NOMBRE
- Uso compartido de vistas materializadas con Delta Sharing
compatibilidad de Scala con clústeres compartidos
Los clústeres compartidos habilitados para El catálogo de Unity son ahora compatibles con Scala si se usa Databricks Runtime 13.3 y versiones posteriores.
La lista de permisos para scripts de inicialización, JAR y coordenadas de Maven en clústeres estándar de Unity Catalog (anteriormente clústeres compartidos) está en versión de prueba pública.
Ahora puede usar el catálogo de Unity allowlist para controlar la instalación de scripts de inicialización, JARs y coordenadas de Maven en procesos de cálculo con el modo de acceso estándar, ejecutando Databricks Runtime 13.3 y versiones posteriores. Consulte Lista de permitidos de bibliotecas y scripts de inicialización en procesos con el modo de acceso estándar (anteriormente modo de acceso compartido).
La compatibilidad de volúmenes con scripts de inicialización y JAR está en versión preliminar pública
Ahora puede usar volúmenes de Catálogo de Unity para almacenar scripts de inicialización y los JAR en el entorno de ejecución con modos de acceso dedicados o estándar que ejecutan Databricks Runtime 13.3 y las versiones posteriores. Consulte ¿Dónde se pueden instalar los scripts de inicialización? y Bibliotecas con ámbito de proceso.
Conversiones seguras habilitadas de forma predeterminada para las operaciones de Delta Lake
Las operaciones de Delta UPDATE y MERGE ahora producen un error cuando los valores no se pueden convertir de forma segura al tipo en el esquema de la tabla de destino. Todas las conversiones implícitas de Delta ahora siguen spark.sql.storeAssignmentPolicy en lugar de spark.sql.ansi.enabled. Consulte Cumplimiento de ANSI en Databricks Runtime.
Presentación de etiquetas con Unity Catalog
Con Databricks Runtime 13.3 LTS y versiones posteriores, puede aplicar etiquetas a los objetos protegibles. Las etiquetas le ayudan a organizar objetos protegibles y a simplificar la búsqueda y la detección de los recursos de datos. Consulte Aplicar etiquetas a objetos protegibles de Unity Catalog.
Databricks Runtime devuelve un error si se modifica un archivo entre el planeamiento y la invocación de consultas
Ahora, las consultas de Databricks Runtime devuelven un error si se actualiza un archivo entre el planeamiento y la invocación de consultas. Antes de este cambio, Databricks Runtime leía un archivo entre estas fases, lo que podía causar ocasionalmente resultados impredecibles.
Bloquear la sobrescritura del esquema al usar sobrescrituras de partición dinámica
No se puede pasar de overwriteSchema a true en combinación con las sobrescrituras de particiones dinámicas en Delta Lake. Así se evitan posibles daños en la tabla debido a errores de coincidencia de esquema. Consulte Sobrescrituras de particiones dinámicas.
Integración de copyFile API en dbutils.fs.cp
El comando de copia dbutils, dbutils.fs.cp, está ahora optimizado para una copia más rápida. Con esta mejora, las operaciones de copia pueden ser hasta 100 veces más rápidas, en función del tamaño del archivo. La característica está disponible en todos los sistemas de archivos accesibles en Azure Databricks, incluidos los volúmenes de Unity Catalog y los montajes del Sistema de Archivos de Databricks.
Compatibilidad con el controlador ODBC/JDBC de Databricks
Azure Databricks admite controladores ODBC y JDBC publicados en los últimos 2 años. Descargue el controlador más reciente en Descargar controlador ODBC y Descargar controlador JDBC.
Compatibilidad con marcadores de parámetro sin nombre (posicionales)
La API SparkSession.sql() admite ahora consultas parametrizadas mediante la sintaxis ?, además de las parametrizadas mediante la sintaxis :parm. Consulte los marcadores de parámetros.
Habilitación del etiquetado de columnas de serie temporal
Ahora puede etiquetar columnas de serie temporal al crear restricciones de clave principal.
Nuevas funciones de mapa de bits de SQL
Azure Databricks ofrece ahora un conjunto de funciones que se pueden utilizar para asignar valores numéricos enteros a un mapa de bits y agregarlos. Esta función puede usarse para ejecutar un cálculo previo del número de valores distintos.
Funciones de cifrado mejoradas
Se han mejorado las funciones aes_encrypt, aes_decrypt y try_aes_decrypt con compatibilidad con vectores de inicialización (IV) y datos adicionales autenticados (AAD).
Compatibilidad del catálogo de Unity con REFRESH FOREIGN
Ahora puede actualizar catálogos, esquemas y tablas externos en el catálogo de Unity mediante REFRESH FOREIGN CATALOG, REFRESH FOREIGN SCHEMA y REFRESH FOREIGN TABLE. Vea REFRESH FOREIGN (CATALOG, SCHEMAy TABLE).
INSERT POR NOMBRE
Al insertar filas en una tabla, ahora puede permitir que Azure Databricks asigne columnas y campos de la consulta de origen automáticamente a las columnas de la tabla por su nombre. Consulta INSERT INTO.
Uso compartido de vistas materializadas con Delta Sharing
La instrucción ALTER SHARE es ahora compatible con las vistas materializadas.
Cambios importantes
Cambios en la conversión implícita al almacenar filas en una tabla con MERGE INTO y UPDATE
Azure Databricks ahora sigue la configuración spark.sql.storeAssignmentPolicy para la conversión implícita al almacenar filas en una tabla. El valor predeterminado ANSI produce un error al almacenar valores que desbordan. Anteriormente, los valores se almacenarían como NULL de forma predeterminada.
Como en el ejemplo siguiente, puede solucionar los desbordamientos reescribiendo la tabla para usar un tipo más amplio para la columna que provoca el error.
-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
'delta.minReaderVersion' = '2',
'delta.minWriterVersion' = '5',
'delta.columnMapping.mode' = 'name'
)
-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT
-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old
-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old
Cambios de inferencia de esquema Parquet
Al deducir esquemas de archivos Parquet no escritos por Spark, las columnas de marca de tiempo int64 anotadas con isAdjustedToUTC=false ahora serán de tipo TIMESTAMP_NTZ por defecto. Anteriormente, estos se inferían como tipo TIMESTAMP. Esta actualización mejora la precisión de la asignación de tipos Parquet a tipos de Spark SQL.
Como resultado, la lectura de datos de archivos de Parquet externos en una tabla Delta puede provocar un error si la característica timestampNtz no está habilitada. El error se mostrará de la siguiente manera:
Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.
Para mantener el comportamiento anterior y evitar este error, puede establecer el parámetro de configuración de Spark spark.sql.parquet.inferTimestampNTZ.enabled en false.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- debugpy de 1.5.1 a 1.6.0
- distlib de 0.3.6 a 0.3.7
- fastjsonschema de 2.16.3 a 2.18.0
- filelock de 3.12.0 a 3.12.2
- Bibliotecas de R actualizadas:
- SparkR de 3.4.0 a 3.4.1
- Bibliotecas de Java actualizadas:
- org.apache.orc.orc-core de 1.8.3-shaded-protobuf a 1.8.4-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.8.3-shaded-protobuf a 1.8.4-shaded-protobuf
- org.apache.orc.orc-shims de 1.8.3 a 1.8.4
- org.eclipse.jetty.jetty-client de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-continuation de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-http de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-io de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-jndi de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-plus de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-proxy de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-security de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-server de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlet de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlets de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-util de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-util-ajax de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-webapp de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.jetty-xml de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-api de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-client de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-common de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-server de 9.4.50.v20221201 a 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-servlet de 9.4.50.v20221201 a 9.4.51.v20230217
- org.xerial.snappy.snappy-java de 1.1.8.4 a 1.1.10.1
Apache Spark
Databricks Runtime 13.3 incluye Apache Spark 3.4.1. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 13.2 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:
- Ahora se puede establecer la variable de entorno de clúster
SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12para usar el conector Spark-snowflake v2.12.0. - [SPARK-43380] [DBRRM-383] Revertir “[SC-133100][sql] Corrección del tipo de datos Avro…
- [SPARK-44504] [Backport][13.2][13.x][13.3] Descargar proveedor, lo que fuerza el cierre de la instancia de base de datos y la liberación de recursos en caso de error de tarea de mantenimiento
- [SPARK-44059] [SC-137023] Se ha agregado compatibilidad con analizadores de argumentos con nombre para funciones integradas.
- [SPARK-44485] [SC-137653][sql] Optimize TreeNode.generateTreeString
- [SPARK-42944] [SC-137164][ss][PYTHON] Streaming ForeachBatch en Python
- [SPARK-44446] [SC-136994][python] Agregar comprobaciones para casos especiales de tipo de lista esperados
- [SPARK-44439] [SC-136973][connect][SS]Se corrigió listListeners para enviar solo identificadores al cliente
- [SPARK-44216] [SC-136941] [PYTHON] Hacer pública la API assertSchemaEqual
- [SPARK-44201] [SC-136778][connect][SS]Agregar compatibilidad con el agente de escucha de streaming en Scala para Spark Connect
- [SPARK-43915] [SC-134766][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43798] Revertir "[SC-133990][sql][PYTHON] Compatibilidad con funciones de tabla definidas por el usuario de Python"
- [SPARK-44398] [SC-136720][connect] API de Scala foreachBatch
- [SPARK-44476] [SC-137169][core][CONNECT] Corrección de la población de artefactos para un JobArtifactState sin ningún artefacto asociado
- [SPARK-44269] [SC-135817][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2310-2314]
- [SPARK-44395] [ SC-136744][sql] Actualizar argumentos de TVF para requerir paréntesis alrededor del identificador después TABLE de la palabra clave
- [SPARK-43915] [SC-134766][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43995] [SC-136794][spark-43996][CONNECT] Agregar compatibilidad con UDFRegistration al cliente de Connect Scala
- [SPARK-44109] [SC-134755][core] Eliminar ubicaciones preferidas duplicadas de cada partición de RDD
- [SPARK-44169] [SC-135497][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-41487] [SC-135636][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1020
- [SPARK-44398] [SC-136720][connect] API de Scala foreachBatch
- [SPARK-44153][SC-134977][core][UI] Soporte para la columna en la pestaña
Heap Histogram - [SPARK-44044] [ SC-135695][ss] Mejorar el mensaje de error para las funciones de ventana con streaming
- [SPARK-43914] [SC-135414][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2433-2437]
- [SPARK-44217] [SC-136805][python] Permitir precisión personalizada para fp aprox igualdad
- [SPARK-44370] [SC-136575][connect] Migrar Buf remote generation alpha a complementos remotos
- [SPARK-44410] [SC-136930][python][CONNECT] Establecer sesión activa en create, no solo getOrCreate
- [SPARK-44348] [SAS-1910][sc-136644][13.X][core][CONNECT][python] Volver a activar test_artifact con cambios pertinentes
- [SPARK-44145] [SC-136698][sql] Devolución de llamada cuando esté listo para ejecutarse
- [SPARK-44264] [SC-136870][python][ML] FunctionPickler Clase
- [SPARK-43986] [SC-135623][sql] Crear clases de error para errores de llamada de función HyperLogLog
- [SPARK-44139] [ SC-134967][sql] Descartar completamente los filtros aplicados en operaciones MERGE agrupadas.
- [SPARK-44338] [SC-136718][sql] Corrección del mensaje de error por desajuste de esquema de vista
- [SPARK-44208] [ SC-135505][core][SQL] Asignar nombres de clase de error claros para alguna lógica que use directamente excepciones
- [SPARK-44364] [SC-136773] [PYTHON] Se ha agregado compatibilidad con el tipo de datos List[Row] para el esperado.
- [SPARK-44180] [SC-136792][sql] DistributionAndOrderingUtils debe aplicar ResolveTimeZone
- [SPARK-43389] [SC-136772][sql] Se ha agregado una comprobación nula para la opción lineSep.
- [SPARK-44388] [SC-136695][connect] Solución del problema de conversión de protobuf al actualizar la instancia de UDF
- [SPARK-44352] [SC-136373][connect] Restablecer sameType y relacionados en DataType.
- [SPARK-43975] [ SC-134265][sql] DataSource V2: Gestionar UPDATE comandos para orígenes basados en grupos
- [SPARK-44360] [SC-136461][sql] Compatibilidad con el recorte de esquemas en operaciones MERGE basadas en delta
- [SPARK-44138] [SC-134907][sql] Prohibir expresiones no deterministas, subconsultas y agregados en condiciones MERGE
- [SPARK-43321] [SC-136678][connect][Followup] Mejores nombres para las API utilizadas en el cliente Scala joinWith
- [SPARK-44263] [SC-136447][connect] Compatibilidad con interceptores personalizados
- [SPARK-39851] [SC-123383][sql] Mejorar la estimación de estadísticas de uniones si un lado puede mantener la unicidad
-
[SPARK-44390] [ SC-136677][core][SQL] Cambiar el nombre
SparkSerDerseUtilsaSparkSerDeUtils - [SPARK-44004] [SC-134751][sql] Asignar nombre y mejorar el mensaje de error para errores LEGACY frecuentes.
- [SPARK-44322] [SC-136204][connect] Hacer que el analizador use SqlApiConf en lugar de SQLConf.
- [SPARK-44271] [SC-136347][sql] Mover funciones de valores predeterminados de StructType a ResolveDefaultColumns
- [SPARK-44332] [SC-136413][core][WEBUI] Corrección del error de ordenación de la columna de identificador de ejecutor en la página de la interfaz de usuario de Ejecutores
- [SPARK-44282] [SC-135948][connect] Preparar el análisis de DataType para su uso en el cliente Scala de Spark Connect
- [SPARK-44349] [SC-136581][r] Agregar funciones matemáticas a SparkR
- [SPARK-44397] [SC-136647][python] Exponer assertDataFrameEqual en pyspark.testing.utils
- [SPARK-42981] [SC-136620][connect] Agregar serialización de flecha directa
- [SPARK-44373] [SC-136577][sql] Envuelva con withActive para el API de Conjunto de Datos usando lógica de análisis para hacer que la configuración relacionada con el analizador funcione
- [SPARK-44340] [ SC-136574][sql] Definir la lógica informática a través de partitionEvaluator API y usarla en WindowGroupLimitExec
- [SPARK-43665] [SC-136573][connect][PS] Habilitar PandasSQLStringFormatter.vformat para trabajar con Spark Connect
- [SPARK-44325] [SC-136572][sql] Usar PartitionEvaluator API en SortMergeJoinExec
- [SPARK-44315] [SC-136171][sql][CONNECT] Trasladar DefinedByConstructorParams hacia sql/api
- [SPARK-44275] [SC-136184][connect] Adición del mecanismo de reintento configurable a Scala Spark Connect
- [SPARK-44326] [SC-136208][sql][CONNECT] Mover las utilidades utilizadas desde el cliente de Scala a los módulos comunes
- [SPARK-43321] [SC-136156][connect] Conjunto de Datos#Unircon
- [SPARK-44343] [SC-136372][connect] Preparar ScalaReflection para la transición hacia SQL/API
- [SPARK-44313] [SC-136081][sql] Corregir la validación de expresiones de columna generadas cuando hay una columna char/varchar en el esquema
- [SPARK-43963] [SC-134145][sql] DataSource V2: Controlar comandos MERGE para orígenes basados en grupos
- [SPARK-44363] [SC-136433] [PYTHON] Mostrar porcentaje de filas desiguales en comparación DataFrame
- [SPARK-44251] [SC-136432][sql] Establecer correctamente anulable en la clave de combinación coalescida en la combinación externa completa USING
- [SPARK-43948] [SC-133366][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[0050|0057|0058|0059]
- [SPARK-44329] [SC-136326][connect][PYTHON] Agregar hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt a Scala y Python
- [SPARK-44351] [SC-136353][sql] Simplificación sintáctica
- [SPARK-44281] [SC-135963][sql] Mover el error de Compilación de Consultas utilizado por DataType a sql/api como ErroresDeTipoDeDatos
- [SPARK-44283] [SC-136109][connect] Mover Origen a SQL/API
- [SPARK-43926] [SC-135590][connect][PYTHON] Agregar array_agg, array_size, cardinality, count_min_sketch, mask, named_struct, json* a Scala y Python
-
[SPARK-44327] [SC-136187][sql][CONNECT] Agregar funciones
anyylena Scala - [SPARK-44290] [ SC-136300][connect] Archivos basados en sesión en Spark Connect
- [SPARK-44061] [SC-136299][python] Agregar la función assertDataFrameEqual util
- [SPARK-44331] [SC-136324][connect][PYTHON] Agregar funciones de mapa de bits a Scala y Python
- [SPARK-44342] [SC-136334][sql] Reemplazar SQLContext por SparkSession para GenTPCDSData
- [SPARK-42583] [SC-124190][sql] Eliminar la unión externa si todas son funciones agregadas distintas
- [SPARK-44333] [SC-136206][connect][SQL] Mover EnhancedLogicalPlan fuera de ParserUtils
- [SPARK-43824] [SC-132655][spark-43825] [SQL] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_128[1-2]
- [SPARK-43939] [SC-134602][connect][PYTHON] Agregar funciones try_* a Scala y Python
- [SPARK-44193] [SC-135886][connect] Implementar la interceptación de excepciones GRPC para la conversión
- [SPARK-44284] [SC-136107][connect] Creación de un sistema de conf simple para sql/api
- [SPARK-43913] [SC-133368][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2426-2432]
- [SPARK-44291] Revertir “[SC-135924][spark-43416][CONNECT] Corregir un esquema incorrecto en una consulta de rango”
- [SPARK-44312] [SC-136185][connect][PYTHON] Permitir establecer un agente de usuario con una variable de entorno
- [SPARK-44154] [SC-136060] Implementar funciones de mapa de bits
- [SPARK-43885] [ SC-133996][sql] DataSource V2: Controlar comandos MERGE para orígenes basados en delta
- [SPARK-43924] [SC-135161][connect][PYTHON] Agregar funciones diversas a Scala y Python
- [SPARK-43969] [ SC-134556][sql] Refactorizar y asignar nombres a la clase de error _LEGACY_ERROR_TEMP_1170
- [SPARK-44185] [SC-135730][sql] Corregir la calificación incoherente de rutas entre las operaciones de catálogo y de datos
- [SPARK-44073] [SC-134562][sql][PYTHON][connect] Agregar funciones de fecha y hora a Scala, Python y Connect, parte 2
- [SPARK-43942] [SC-134527][connect][PYTHON] Agregar funciones de cadena a Scala y Python, parte 1
- [SPARK-44266] [SC-135813][sql] Mover Util.truncatedString a sql/api
- [SPARK-44195] [SC-135722][r] Agregar las APIs de JobTag a SparkR SparkContext
- [SPARK-44200] [SC-135736][sql] Compatibilidad con la regla del analizador de argumentos para funciones con valor de tabla TABLE
- [SPARK-44254] [SC-135709][sql] Mover QueryExecutionErrors que son utilizados por DataType a sql/api como DataTypeErrors
- [SPARK-44291] [SC-135924][spark-43416][CONNECT] Corregir un esquema incorrecto para la consulta de intervalos
- [SPARK-43922] [SC-135612][sql] Agregar compatibilidad con parámetros con nombre en el analizador para llamadas de función
- [SPARK-44300] [SC-135882][connect] Corregir la limpieza de artefactos limitando el ámbito de eliminación a los artefactos específicos de la sesión
- [SPARK-44293] [SC-135849][connect] Corrección de un URI no válido para jaR personalizados en Spark Connect
- [SPARK-44215] [SC-135850][shuffle] Si los fragmentos numéricos son 0, el servidor debe producir una excepción RuntimeException.
- [SPARK-44245] [SC-135851][python] doctests de pyspark.sql.dataframe sample() deben ser solo ilustrativos
- [SPARK-44274] [SC-135814][connect] Mover las funciones de utilidad utilizadas por ArtifactManager a common/utils
- [SPARK-44194] [SC-135815][python][CORE] Agregar APIs de JobTag a PySpark SparkContext
- [SPARK-42828] [SC-135733][python][SQL] Anotaciones de tipo python más explícitas para GroupedData
-
[SPARK-44079] [SC-135486][sql] Corrección
ArrayIndexOutOfBoundsExceptional analizar la matriz como estructura mediante el modo PERMISSIVE con registro dañado - [SPARK-44255] [SC-135809][sql] Reubicación de StorageLevel en common/utils
- [SPARK-42169] [SC-135795][SQL] Incorporar la generación de código a la función to_csv (StructsToCsv)
- [SPARK-44249] [SC-135719][sql][PYTHON] Refactorizar PythonUDTFRunner para enviar su tipo de retorno por separado
- [SPARK-43353] [SC-132734][python] Migre los errores de sesión restantes a la clase de error.
- [SPARK-44211] [SC-135718][python][CONNECT] Implementar SparkSession.is_stopped
- [SPARK-42784] [SC-135691] debe seguir creando subDir cuando el número de subDir en el dir. de mezcla es menor que conf.
- [SPARK-41599] [SC-135616] Pérdida de memoria en FileSystem.CACHE al enviar aplicaciones para proteger el clúster mediante InProcessLauncher
- [SPARK-44241] [ SC-135613][core] Establecer erróneamente io.connectionTimeout/connectionCreationTimeout en cero o negativo provocará construcciones/destrucciones incesantes del ejecutor.
- [SPARK-44133] [SC-134795][13.x][PYTHON] Actualizar MyPy de 0,920 a 0,982
- [SPARK-42941] [ SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde en formato JSON
-
[SPARK-44188] [ SC-135173][core] Quitar método inútil
resetAllPartitionsenActiveJob - [SPARK-43757] [SC-135418][connect] Cambiar la compatibilidad de cliente de la lista de permitidos a la lista de denegación
- [SPARK-43474] [SC-135521] [SS] [CONNECT] Incorporación de un acceso de conexión de Spark a Dataframes en tiempo de ejecución por identificador.
-
[SPARK-44183] [SC-135209][python] Incrementar
PyArrowla versión mínima a 4.0.0 - [SPARK-44248] [ SC-135554][ss][SQL][kafka] Agregar ubicación preferida en el origen de kafka v2
- [SPARK-43929] [SC-134510][sql][PYTHON][connect] Agregar funciones de fecha y hora a Scala, Python y Connect API: parte 1
- [SPARK-44161] [SC-135326][connect] Controlar la entrada de fila para UDF
- [SPARK-44227] [SC-135520][sql] Extraer SchemaUtils de StructField
-
[SPARK-44064] [SC-135116][core][SQL] Agregar una nueva
applyfunción aNonFateSharingCache - [SPARK-44171] [SC-135269][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[2279-2282] y eliminar algunas clases de error sin usar
- [SPARK-44056] [SC-134758][sql] Incluir el nombre de UDF en el mensaje de error de ejecución de UDF cuando sea posible
- [SPARK-44205] [SC-135422][sql] Extraer código Catalyst de DecimalType
- [SPARK-44220] [SC-135484][sql] Mover StringConcat a sql/api
- [SPARK-44146] [SC-135230][connect] Aislar archivos jar y archivos de clases de sesión de Spark Connect
- [SPARK-44206] [SC-135411][sql] DataSet.selectExpr scope Session.active
- [SPARK-40850] [SC-135417][sql] Corregir que las consultas interpretadas de casos de prueba puedan ejecutar Codegen
- [SPARK-44204] [SC-135253][sql][HIVE] Agregar la llamada de registro 'recordHiveCall' que falta para getPartitionNames
- [SPARK-44237] [SC-135485][core] Simplificación de la lógica de búsqueda del constructor DirectByteBuffer
-
[SPARK-44189] [SC-135170][connect][PYTHON] Admite parámetros posicionales por
sql() -
[SPARK-44140] [SC-134893][sql][PYTHON] Compatibilidad con parámetros posicionales en Python
sql() - [SPARK-44164] [SC-135158][sql] Extraer el método toAttribute de StructField a la clase Util
-
[SPARK-44178] [SC-135113][connect] Admitir parámetros posicionales en
sql() - [SPARK-43208] [ SC-128955][sql][HIVE] IsolatedClassLoader debe cerrar la clase de barrera InputStream después de leer
-
[SPARK-43063] [ SC-128382][sql]
df.showhandle null debe imprimir NULL en lugar de null - [SPARK-42539] [SC-124464][sql][HIVE] Eliminar el cargador de clases independiente al usar la versión de Hive "builtin" para el cliente de metadatos
- [SPARK-43992] [SC-133645][sql][PYTHON][connect] Agregar patrón opcional para Catalog.listFunctions
-
[SPARK-44066] [SC-134878][sql] Admitir parámetros posicionales en Scala/Java
sql() - [SPARK-44078] [SC-134869][connect][CORE] Agregar compatibilidad para el cargador de clases/aislamiento de recursos
- [SPARK-43470] [ SC-135187][core] Agregar sistema operativo, Java, información de versión de Python al registro de aplicaciones
- [SPARK-43136] [SC-135238][connect][Seguimiento] Añadiendo pruebas para KeyAs
- [SPARK-39740] [SC-135093][ui]: Actualizar vis timeline a 7.7.2 para corregir CVE-2020-28487
- [SPARK-42298] [SC-133952][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2132
- [SPARK-43961] [SC-133459][sql][PYTHON][connect] Agregar patrón opcional para Catalog.listTables
- [SPARK-44026] [SC-135181] Permitir proporcionar valor inicial para SQLMetrics
- [SPARK-44202] [SC-135244][core] Agregar JobTag APIs a JavaSparkContext
- [SPARK-44030] [SC-135237][sql] Implementar DataTypeExpression para ofrecer la función Unapply para expresiones
- [SPARK-43876] Revert "[SC-134603][sql] Enable fast hashmap for distinct queries" (Revertir "[SC-134603][sql] Habilitar mapa hash rápido para consultas distintas"
- [SPARK-40082] [SC-126437] Programar mergeFinalize al reintentar shuffleMapStage de combinación de inserción, pero sin tareas en ejecución
- [SPARK-43888] [SC-132893][core] Mover el registro a common/utils
- [SPARK-43474] [SC-134400] [SS] [CONNECT] Agregar SessionHolder a SparkConnectPlanner
- [SPARK-43944] [SC-134490][connect][PYTHON] Agregar funciones de cadena a Scala y Python, parte 2
- [SPARK-44134] [SC-134954][core] Corregir la asignación de recursos (GPU/FPGA) a 0 cuando están establecidos en spark-defaults.conf
- [SPARK-44142] [SC-134947][python] Reemplace el tipo por tpe en la utilidad para convertir tipos de Python en tipos spark
- [SPARK-43952] [SC-134695][core][CONNECT][sql] Agregar API de SparkContext para la cancelación de consultas por etiqueta
- [SPARK-44000] [SC-133634][sql] Agregar sugerencia para deshabilitar la difusión y la replicación de un lado de la unión
- [SPARK-43937] [SC-134362][connect][PYTHON] Agregar ifnull,isnotnull,equal_null,nullif,nvl,nvl2 a Scala y Python
-
[SPARK-43624] [13.x][sc-134557][PS][connect] Agregar
EWMa SparkConnectPlanner. - [SPARK-44040] [SC-134366][sql] Corregir el cálculo de estadísticas cuando el nodo AggregateExec está encima de QueryStageExec
-
[SPARK-43485] [SC-131264][sql] Corrección del mensaje de error para el
unitargumento de las funciones datetime add/diff - [SPARK-43794] [SC-132561][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1335
- [SPARK-43511] [SC-134749][connect][SS]Se han implementado las API MapGroupsWithState y FlatMapGroupsWithState para Spark Connect
- [SPARK-43529] [SQL] Compatibilidad con expresiones CREATE/REPLACE TABLE OPTIONS + limpieza de código
-
[SPARK-44106] [SC-134750][python][CONNECT] Agregar
__repr__paraGroupedData - [SPARK-42299] [SC-133190] Asignar nombre a _LEGACY_ERROR_TEMP_2206
- [SPARK-43290] [ SC-134388][sql] Agrega compatibilidad con aes_encrypt IVs y AAD
- [SPARK-43932] [SC-134138][sql][PYTHON][connect] Agregar funciones similares a Scala y Python
- [SPARK-43934] [SC-134108][sql][PYTHON][connect] Agregar funciones regexp_* a Scala y Python
- [SPARK-44107] [SC-134746][connect][PYTHON] Ocultar métodos de la Columna no admitidos de la finalización automática
- [SPARK-42941] [ SC-134707][ss][CONNECT][1/2] StreamingQueryListener - Event Serde en formato JSON
- [SPARK-43773] [ SC-132659][connect][PYTHON] Implementación de funciones "levenshtein(str1, str2[, threshold])" en el cliente de Python
- [SPARK-44125] [SC-134745][r] Compatibilidad con Java 21 en SparkR
- [SPARK-43919] [SC-133374][sql] Extraer la funcionalidad JSON del objeto Row
- [SPARK-43769] [ SC-132520][connect] Implementar las funciones 'levenshtein(str1, str2[, threshold])'
- [SPARK-44012] [SC-134662][ss] KafkaDataConsumer para imprimir cierto estado de lectura
- [SPARK-43876] [SC-134603][sql] Habilitar la tabla hash rápida para consultas únicas
-
[SPARK-44024] [SC-134497][sql] Cambio para usar
mapcuandounzipsolo se usa para extraer un único elemento - [SPARK-43928] [SC-134467][sql][PYTHON][connect] Agregar operaciones de bits a Scala, Python y Connect API
-
[SPARK-44092] [SC-134506][core] Agregar
Utils.isJavaVersionAtLeast21y hacer quecoreel módulo pase con Java 21 - [SPARK-44018] [SC-134512][sql] Mejorar el código hash y toString para algunas expresiones de DS V2
-
[SPARK-44105] [SC-134582][sql]
LastNonNulldebe resolverse de forma perezosa - [SPARK-44081] [SC-134434] Simplificación de la API PartitionedFileUtil un poco
- [SPARK-43791] [SC-132531][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1336
- [SPARK-44071] [SC-134435] Definir y usar rasgos de Nodo[Hoja|Unario]no resuelto.
- [SPARK-43852] [SC-132890][spark-43853][SPARK-43854][spark-43855][SPARK-43856] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_2418-2425
- [SPARK-43742] [SC-132684][sql] Refactorizar la resolución del valor predeterminado de columna
- [SPARK-43493] [SC-132063][sql] Agregar un argumento de distancia máxima a la función levenshtein()
-
[SPARK-44075] [SC-134382][connect] Hacer
transformStatCorrperezoso - [SPARK-43925] [SC-134381][sql][PYTHON][connect] Agregue algunos, bool_or,bool_and, cada uno a Scala, Python y Connect
- [SPARK-43931] [SC-134158][sql][PYTHON][connect] Agregar funciones make_* a Scala y Python
- [SPARK-43762] [SC-132602][spark-43763][SPARK-43764][spark-43765][SPARK-43766][sql] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_24[06-10]
-
[SPARK-43962] [SC-133367][sql] Mejorar los mensajes de error:
CANNOT_DECODE_URL,CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE,CANNOT_PARSE_DECIMAL,CANNOT_READ_FILE_FOOTER, .CANNOT_RECOGNIZE_HIVE_TYPE - [SPARK-43938] [ SC-133887][connect][PYTHON] Agregar funciones to_* a Scala y Python
-
[SPARK-44055] [ SC-134321][core] Quitar funciones redundantes
overridedeCheckpointRDD - [SPARK-43802] [SC-132597][sql] Corrección de codegen para unhex y unbase64 con failOnError=true
- [SPARK-43798] [SC-133990][sql][PYTHON] Compatibilidad con funciones de tabla definidas por el usuario de Python
- [SPARK-43941] [SC-134286][sql][PYTHON][connect] Agregar any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reducir a Scala, Python y Connect API
- [SPARK-43380] [SC-133100][sql] Corregir problemas de conversión de tipos de datos avro para evitar generar resultados incorrectos
- [SPARK-43803] [SC-133729] [SS] [CONNECT] Mejorar awaitTermination() para controlar las desconexiones del cliente
- [SPARK-43179] [ SC-129070][shuffle] Permitir que las aplicaciones controlen si sus metadatos se guardan en la base de datos mediante el Servicio de Barajado Externo
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Consulte Actualizaciones de mantenimiento de Databricks Runtime 13.3.
Entorno del sistema
-
Sistema operativo: Ubuntu 22.04.2 LTS
- Nota: Esta es la versión de Ubuntu que usan los contenedores de Databricks Runtime. Los contenedores de DBR se ejecutan en las máquinas virtuales del proveedor de nube, que pueden usar otra versión de Ubuntu o distribución de Linux.
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| directorios de aplicaciones | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| "asttokens" | 2.2.1 | atributos | 21.4.0 | llamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | negro | 22.6.0 | blanquear | 4.1.0 |
| intermitente | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | Haz clic | 8.0.4 | criptografía | 37.0.1 |
| ciclista | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.6.0 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | distlib | 0.3.7 | Conversión de docstring a markdown | 0,12 |
| puntos de entrada | 0,4 | Ejecutar | 1.2.0 | visión general de las facetas | 1.0.3 |
| fastjsonschema | 2.18.0 | bloqueo de archivos | 3.12.2 | fonttools | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | llavero | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | Mal sintonizado | 0.8.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | cuaderno | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | empaquetado | 21,3 | Pandas | 1.4.4 |
| PandocFiltros | 1.5.0 | parso | 0.8.3 | pathspec | 0.9.0 |
| chivo expiatorio | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Almohada | 9.2.0 | pepita | 22.2.2 | platformdirs | 2.5.2 |
| trazado | 5.9.0 | pluggy | 1.0.0 | Cliente-Prometeo | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
| pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-servidor | 1.7.1 | configuración de herramienta Python | 1.2.2 |
| pytz | 2022.1 | pyzmq | 23.2.0 | solicitudes | 2.28.1 |
| cuerda | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
| scipy | 1.9.1 | seaborn | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 63.4.1 | six (seis) | 1.16.0 |
| colador para sopa | 2.3.1 | ssh-import-id | 5.11 | stack-data | 0.6.2 |
| statsmodels (paquete de Python para análisis estadístico) | 0.13.2 | tenacidad | 8.1.0 | terminado | 0.13.1 |
| ruta de prueba | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornado | 6.1 | traitlets | 5.1.1 |
| typing_extensions | 4.3.0 | ujson | 5.4.0 | actualizaciones desatendidas | 0,1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | codificaciones web | 0.5.1 | whatthepatch | 1.0.2 |
| rueda | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| zipp | 1.0.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de CRAN del Administrador de paquetes Posit en 2023-02-10: https://packagemanager.posit.co/cran/__linux__/jammy/2023-02-10/.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 10.0.1 | askpass | 1.1 | asegúrate de que | 0.2.1 |
| retroportaciones | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| bit | 4.0.5 | bit64 | 4.0.5 | mancha | 1.2.3 |
| bota | 1.3-28 | fermentar | 1,0 - 8 | Brio | 1.1.3 |
| escoba | 1.0.3 | bslib | 0.4.2 | cachemir | 1.0.6 |
| callr | 3.7.3 | cursor | 6.0-93 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 |
| Chron | 2.3-59 | clase | 7.3-21 | Cli | 3.6.0 |
| clipr | 0.8.0 | reloj | 0.6.1 | conglomerado | 2.1.4 |
| codetools | 0.2-19 | espacio de colores | 2.1-0 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuración | 0.3.1 | cpp11 | 0.4.3 |
| crayón | 1.5.2 | credenciales | 1.3.2 | rizo | 5.0.0 |
| tabla de datos | 1.14.6 | conjuntos de datos | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Descripción | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digerir | 0.6.31 | iluminado hacia abajo | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| elipsis | 0.3.2 | evaluar | 0,20 | fans | 1.0.4 |
| colores | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| convictos | 1.0.0 | foreach | 1.5.2 | extranjero | 0.8-82 |
| fragua | 0.2.0 | fs | 1.6.1 | futuro | 1.31.0 |
| future.apply | 1.10.0 | hacer gárgaras | 1.3.0 | genéricos | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globales | 0.16.2 |
| pegamento | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | elementos gráficos | 4.2.2 | grDevices | 4.2.2 |
| rejilla | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | Casco | 1.2.0 | refugio | 2.5.1 |
| más alto | 0,10 | HMS | 1.1.2 | herramientas de HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
| etiquetado | 0.4.2 | más tarde | 1.3.0 | retícula | 0.20-45 |
| lava | 1.7.1 | ciclo de vida | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Formato Markdown | 1.5 |
| MASA | 7.3-58.2 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| métodos | 4.2.2 | mgcv | 1.8-41 | mimo | 0,12 |
| miniUI (Interfaz de Usuario) | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.0.5 | paralelo | 4.2.2 |
| Paralelamente | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | progreso | 1.2.2 |
| progressr | 0.13.0 | promesas | 1.2.0.1 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | P.D | 1.7.2 | ronroneo | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| Bosque Aleatorio (randomForest) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | readxl | 1.4.2 | recetas | 1.0.4 |
| partido de revancha | 1.0.1 | segunda revancha | 2.1.2 | Telecontroles | 2.4.2 |
| ejemplo reproducible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | balanzas | 1.2.1 |
| selectr | 0.4-2 | información de sesión | 1.2.2 | forma | 1.4.6 |
| brillante | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.1 | espacial | 7.3-15 | splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Estadísticas | 4.2.2 |
| estadísticas4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
| supervivencia | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | Formateo de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | cambio de hora | 0.2.0 | fechaHora | 4022.108 |
| tinytex | 0,44 | herramientas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usa esto | 2.1.6 | utf8 | 1.2.3 |
| utilidades | 4.2.2 | Identificador Único Universal (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| bigotes | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | cremallera | 2.2.2 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.2.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | perfilador | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1,15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.1 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metrics-json | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metrics-servlets | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recopilador | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.33 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.16 |
| org.apache.arrow | formato de flecha | 11.0.0 |
| org.apache.arrow | arrow-memory-core | 11.0.0 |
| org.apache.arrow | arrow-memory-netty | 11.0.0 |
| org.apache.arrow | vector de flecha | 11.0.0 |
| org.apache.avro | avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | marco de trabajo para curadores | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | planificador-de-adaptadores-hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.4-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.4-shaded-protobuf |
| org.apache.orc | orc-shims | 1.8.4 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4,22 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-continuation | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-http | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.51.v20230217 |
| org.eclipse.jetty | servidor Jetty | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-util | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.51.v20230217 |
| org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.51.v20230217 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | jersey-common | 2,36 |
| org.glassfish.jersey.core | jersey-server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | validador de hibernación | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Cuñas | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.1 |
| org.yaml | snakeyaml | 1.33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |