Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Nota:
El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.
En las siguientes notas de la versión, se proporciona información sobre Databricks Runtime 13.1, con tecnología de Apache Spark 3.4.0.
Databricks publicó esta versión en mayo de 2023.
Nuevas características y mejoras
- Compatibilidad con clústeres con JDK 17 (versión preliminar pública)
- Agregar, cambiar o eliminar datos en una tabla de streaming
- Lectura de Kafka con SQL
- Nuevas funciones integradas de SQL
- Compatibilidad del catálogo de Unity con bibliotecas de Python con ámbito de clúster
- Habilitación por defecto ampliada para escrituras optimizadas en el Catálogo Unity
- Compatibilidad avanzada con operadores con estado en cargas de trabajo de Structured Streaming
- El etiquetado para Unity Catalog está disponible en versión preliminar pública
- Compatibilidad con Pub/Sub para Structured Streaming
- Eliminación de duplicados en marcas de agua en Structured Streaming
- Soporte ampliado de conversiones Delta de tablas de Apache Iceberg con columnas de partición truncadas
- Transmisión de cambios de esquema con asignación de columnas en Delta Lake
- Quitar START VERSION
- Nuevas expresiones H3 disponibles con Python
Compatibilidad con clústeres con JDK 17 (versión preliminar pública)
Databricks ahora proporciona compatibilidad con clústeres para Java Development Kit (JDK) 17. Consulte SDK de Databricks para Java.
Agregar, cambiar o eliminar datos en tablas de streaming
Ahora puede usar instrucciones DML para modificar las tablas de streaming publicadas en el Unity Catalog mediante las canalizaciones declarativas de Lakeflow Spark. Consulte Agregar, cambiar o eliminar datos en una tabla de streaming y Agregar, cambiar o eliminar datos en una tabla de streaming de destino. También puede usar instrucciones DML para modificar las tablas de streaming creadas en Databricks SQL.
Lectura de Kafka con SQL
Ahora puede usar la read_kafka función SQL para leer datos de Kafka. El streaming con SQL solo se admite en DLT o con tablas de streaming en Databricks SQL. Consulte read_kafka función con valores de tabla.
Nuevas funciones integradas de SQL
Se han agregado las siguientes funciones:
-
array_prepend(array, elem) Devuelve
arrayantepuesto porelem. -
try_aes_decrypt(expr, key [, mode [, padding]]) Descifra un binario generado mediante el cifrado AES y devuelve
NULLsi se produce un error. - sql_keywords() Devuelve una tabla de palabras clave de SQL de Azure Databricks.
Compatibilidad del catálogo de Unity con bibliotecas de Python con ámbito de clúster
El catálogo de Unity tiene algunas limitaciones en el uso de la biblioteca. En Databricks Runtime 13.1 y versiones posteriores, se admiten las bibliotecas de Python con ámbito de clúster, incluidos los archivos wheel de Python que se cargan como archivos del área de trabajo. No se admiten bibliotecas a las que se hace referencia mediante rutas de archivo DBFS, ya sea en la raíz de DBFS o en una ubicación externa montada en DBFS. No se admiten bibliotecas que no son de Python. Consulte Bibliotecas con ámbito de cómputo.
En Databricks Runtime 13.0 y versiones posteriores, las bibliotecas con ámbito de clúster no se admiten en clústeres que usan el modo de acceso estándar (anteriormente modo de acceso compartido) en un área de trabajo habilitada para catálogos de Unity.
Habilitación predeterminada expandida para escrituras optimizadas en el catálogo de Unity
La compatibilidad de escritura optimizada predeterminada para tablas Delta registradas en el catálogo de Unity se ha ampliado para incluir CTAS instrucciones y operaciones INSERT para tablas con particiones. Este comportamiento se alinea con los valores predeterminados en los almacenes de SQL. Consulte Escrituras optimizadas para Delta Lake en Azure Databricks.
Compatibilidad avanzada con operadores con estado en cargas de trabajo de Structured Streaming
Ahora puede encadenar varios operadores con estado, lo que significa que puede alimentar la salida de una operación, como una agregación en ventana, a otra operación con estado, como una unión. Consulte ¿Qué es el streaming con estado?
El clon delta para el catálogo de Unity está en versión preliminar pública
Ahora puede usar un clon superficial para crear nuevas tablas administradas de Unity Catalog a partir de tablas administradas existentes de Unity Catalog. Consulte Clonación superficial para tablas de Unity Catalog.
Compatibilidad con Pub/Sub para Structured Streaming
Ahora puede usar un conector integrado para suscribirse a Google Pub/Sub con Structured Streaming. Consultar Suscribirse a Google Pub/Sub.
Eliminación de duplicados en marcas de agua en Structured Streaming
Ahora puede usar dropDuplicatesWithinWatermark en combinación con un umbral de marca de agua especificado para desduplicar registros en Structured Streaming. Consultar Anular duplicados en la marca de agua.
Soporte ampliado de conversiones Delta de tablas de Apache Iceberg con columnas de partición truncadas
Ahora puede usar CLONE y CONVERT TO DELTA con tablas de Apache Iceberg que tienen particiones definidas en columnas truncadas de tipos int, long y string. No se admiten columnas truncadas de tipo decimal.
Transmisión de cambios de esquema con asignación de columnas en Delta Lake
Puede proporcionar una ubicación de seguimiento de esquemas para habilitar el streaming desde tablas Delta con la asignación de columnas habilitada. Consulte Streaming con asignación de columnas y cambios de esquema.
Quitar START VERSION
START VERSION ahora está en desuso para ALTER SHARE.
Nuevas expresiones H3 disponibles con Python
Las expresiones h3_coverash3 y h3_coverash3string están disponibles con Python.
Correcciones de errores
Parquet failOnUnknownFields ya no quita los datos de forma silenciosa en errores de coincidencia de tipos
Si se leyó un archivo Parquet con solo la failOnUnknownFields opción o con Auto Loader en el modo de evolución del failOnNewColumns esquema, las columnas que tienen tipos de datos diferentes ahora generan un error y recomiendan usar rescuedDataColumn. El cargador automático ahora lee correctamente y ya no rescata los tipos Entero, Corto o Byte si se proporciona uno de estos tipos de datos. El archivo Parquet sugiere uno de los otros dos tipos.
Últimos cambios
Actualice la versión sqlite-jdbc a la versión 3.42.0.0 a la dirección CVE-2023-32697
Actualice la versión sqlite-jdbc de 3.8.11.2 a 3.42.0.0. Las API de la versión 3.42.0.0 no son totalmente compatibles con 3.8.11.2. Si usa sqlite-jdbc en el código, compruebe el informe de compatibilidad sqlite-jdbc para obtener más información. Si migra a la versión 13.1 y usa sqlite, confirme los métodos y el tipo de valor devuelto en la versión 3.42.0.0.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- facets-overview de 1.0.2 a 1.0.3
- filelock de 3.10.7 a 3.12.0
- pyarrow: de 7.0.0 a 8.0.0
- tenacidad de 8.0.1 a 8.1.0
- Bibliotecas de R actualizadas:
- Bibliotecas de Java actualizadas:
- com.github.ben-manes.cafeína.cafeína de 2.3.4 a 2.9.3
- io.delta.delta-sharing-spark_2.12 de 0.6.8 a 0.6.4
- net.snowflake.snowflake-jdbc de 3.13.29 a 3.13.22
- org.checkerframework.checker-qual de 3.5.0 a 3.19.0
- org.scalactic.scalactic_2.12 de 3.0.8 a 3.2.15
- org.scalatest.scalatest_2.12 de 3.0.8 a 3.2.15
- org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0
Apache Spark
Databricks Runtime 13.1 incluye Apache Spark 3.4.0. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 13.0 (EoS), junto con las siguientes correcciones de errores y mejoras adicionales de Spark:
- [SPARK-42719] [DBRRM-199][sc-131578] Revertir “[SC-125225] 'MapOutputTracker#getMap...”
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Revertir [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Agregar Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051][connect][PYTHON] Permite ampliar ChannelBuilder para SparkConnectClient
- [SPARK-43323] [SC-129966][sql][PYTHON] Solucionar DataFrame.toPandas con Arrow habilitada para controlar las excepciones correctamente
- [SPARK-42940] [ SC-129896][ss][CONNECT] Mejorar la administración de sesiones para las consultas de streaming
- [SPARK-43032] [SC-125756] [CONNECT][ss] Agregar administrador de consultas de streaming
- [SPARK-16484] [SC-129975][sql] Agregar compatibilidad con Datasketches HllSketch
- [SPARK-43260] [ SC-129281][python] Migre los errores de tipo de flecha de Pandas de Spark SQL a la clase de error.
- [SPARK-41766] [ SC-129964][core] Gestionar la solicitud de descomisión enviada antes del registro del executor
- [SPARK-43307] [SC-129971][python] Migración de errores de valor de PandasUDF a la clase de error
- [SPARK-43206] [SC-129903] [SS] [CONNECT] Excepción streamingQuery() incluir seguimiento de la pila
- [SPARK-43311] [ SC-129905][ss] Incorporar mejoras en la gestión de memoria del proveedor de la tienda de estado de RocksDB
- [SPARK-43237] [SC-129898][core] Controlar el mensaje de excepción NULL en el registro de eventos
- [SPARK-43320] [SC-129899][sql][HIVE] Llame directamente a la API de Hive 2.3.9
-
[SPARK-43270] [SC-129897][python] Implementar
__dir__()enpyspark.sql.dataframe.DataFramepara incluir columnas - [SPARK-43183] Revertir "[SC-128938][ss] Presentar un nuevo callback "...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675][sql] Reemplace la clase de error _LEGACY_ERROR_TEMP_2022 por un error interno
- [SPARK-43198] [SC-129470][connect] Corrección "No se pudo inicializar la clase ammonite..." error al usar el filtro
- [SPARK-43165] [SC-129777][sql] Mover canWrite a DataTypeUtils
- [SPARK-43298] [ SC-129729][python][ML] predict_batch_udf con entrada escalar produce un error con el tamaño de lote de uno
- [SPARK-43298] [SC-129700]Revertir "[PYTHON][ml] predict_batch_udf with scalar input fails with batch size of one"
- [SPARK-43052] [SC-129663][core] Controlar stacktrace con el nombre de archivo NULL en el registro de eventos
- [SPARK-43183] [SC-128938][ss] Introduce una nueva callback "onQueryIdle" a StreamingQueryListener
- [SPARK-43209] [SC-129190][connect][PYTHON] Migrar los errores de expresión a una clase de errores
- [SPARK-42151] [SC-128754][sql] Alinear UPDATE asignaciones con atributos de tabla
- [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM client StreamingQuery exception() API
- [SPARK-43298] [ SC-129699][python][ML] predict_batch_udf con entrada escalar falla cuando el tamaño del lote es uno
- [SPARK-43248] [ SC-129660][sql] Serialización o deserialización innecesaria de Path en estadísticas de particiones de recolección paralela
-
[SPARK-43274] [ SC-129464][spark-43275][PYTHON][connect] Introduce
PySparkNotImplementedError - [SPARK-43146] [SC-128804][connect][PYTHON] Implementar evaluación ansiosa para repr y repr_html
- [SPARK-42953] [SC-129469][connect][Followup] Corrección de la compilación de pruebas maven para pruebas UDF de cliente de Scala
- [SPARK-43144] [ SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][connect] Adición de funciones groupByKey + mapGroup + coGroup
- [SPARK-43156] [SC-129672][sc-128532][SQL] Corrección de error en subconsulta escalar correlacionada
- [SPARK-43046] [SC-129110] [SS] [Connect] Implementación de la API de Python DropDuplicatesWithinWatermark para Spark Connect
- [SPARK-43199] [SC-129467][sql] Make InlineCTE idempotent
-
[SPARK-43293] [ SC-129657][sql]
__qualified_access_onlydebe omitirse en columnas normales - [SPARK-43276] [SC-129461][connect][PYTHON] Migrar errores de ventana de Spark Connect a la clase de error
- [SPARK-43174] [SC-129109][sql] Solucionar SparkSQLCLIDriver completer
- [SPARK-43084] [SC-128654] [SS] Agregar compatibilidad con applyInPandasWithState para spark connect
- [SPARK-43119] [SC-129040][sql] Soporte para obtener dinámicamente las palabras clave de SQL a través de API JDBC y TVF
- [SPARK-43082] [SC-129112][connect][PYTHON] UDF de Python optimizadas para flechas en Spark Connect
- [SPARK-43085] [SC-128432][sql] Compatibilidad con la asignación predeterminada de columna para nombres de tabla de varias partes
- [SPARK-43226] [LC-671] Define extractores para metadatos de constante de archivo
-
[SPARK-43210] [ SC-129189][connect][PYTHON] Introduce
PySparkAssertionError - [SPARK-43214] [SC-129199][sql] Publicar métricas del lado del controlador para LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Corrección de errores de ReplE2ESuite de forma coherente con JDK 17
- [SPARK-43268] [SC-129249][sql] Usar clases de error adecuadas cuando se construyen excepciones con un mensaje
- [SPARK-43142] [SC-129299] Corrección de expresiones DSL en atributos con caracteres especiales
- [SPARK-43129] [ SC-128896] API principal de Scala para streaming de Spark Connect
- [SPARK-43233] [SC-129250] [SS] Agregar registro para la lectura por lotes de Kafka para la partición de temas, el intervalo de desplazamiento y el identificador de tarea
- [SPARK-43249] [SC-129195][connect] Corrección de las estadísticas que faltan para el comando SQL
- [SPARK-42945] [SC-129188][connect] Compatibilidad con PYSPARK_JVM_STACKTRACE_ENABLED en Spark Connect
- [SPARK-43178] [SC-129197][connect][PYTHON] Migrar errores de UDF al marco de errores de PySpark
- [SPARK-43123] [SC-128494][sql] Los metadatos de campo internos no deben revelarse a los catálogos
- [SPARK-43217] [SC-129205] Recurse correctamente en mapas o matrices anidados en findNestedField
- [SPARK-43243] [SC-129294][python][CONNECT] Agregar parámetro de nivel a printSchema para Python
-
[SPARK-43230] [SC-129191][connect] Simplificar
DataFrameNaFunctions.fillna - [SPARK-43088] [ SC-128403][sql] Respetar RequiresDistributionAndOrdering en CTAS/RTAS
-
[SPARK-43234] [SC-129192][connect][PYTHON] Migrar
ValueErrordel DataFrame de Connect a una clase de error - [SPARK-43212] [SC-129187][ss][PYTHON] Migración de errores de Structured Streaming a clase de error
-
[SPARK-43239] [ SC-129186][ps] Quitar
null_countsde info() - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput debe ser coherente con la salida de subproceso.
- [SPARK-43191] [SC-128924][core] Reemplazar la reflexión con llamada directa a Hadoop CallerContext
- [SPARK-43193] [SC-129042][ss] Eliminar la solución alternativa para HADOOP-12074
- [SPARK-42657] [SC-128621][connect] Compatibilidad para buscar y transferir archivos de clases REPL del lado cliente al servidor como artefactos
- [SPARK-43098] [SC-77059][sql] Corregir el error de COUNT cuando la subconsulta escalar tiene una cláusula GROUP BY
-
[SPARK-43213] [SC-129062][python] Agregar
DataFrame.offseta vanilla PySpark - [SPARK-42982] [SC-128400][connect][PYTHON] Corregir createDataFrame para respetar el esquema especificado ddl
- [SPARK-43124] [SC-129011][sql] Dataset.show muestra los CommandResults a nivel local
- [SPARK-42998] [ SC-127422][connect][PYTHON] Corregir DataFrame.collect con una estructura nula
- [SPARK-41498] [SC-125343]Revert " Propagación de metadatos a través de Union"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Agregar await_termination() y exception() API para Streaming Query en Python
- [SPARK-42552] [SC-128824][sql] Corrija la estrategia de análisis en dos fases del analizador de antlr.
- [SPARK-43207] [SC-128937][connect] Agregar funciones auxiliares para extraer el valor de la expresión literal
- [SPARK-43186] [SC-128841][sql][HIVE] Eliminar el remedio provisional para FileSinkDesc
- [SPARK-43107] [ SC-128533][sql] Depósitos de fusión en combinación aplicados en el lado de flujo de combinación de difusión
- [SPARK-43195] [SC-128922][core] Eliminación de envoltura serializable innecesaria en HadoopFSUtils
- [SPARK-43137] [ SC-128828][sql] Mejorar ArrayInsert si la posición es plegable y positiva.
- [SPARK-37829] [ SC-128827][sql] Dataframe.joinWith outer-join debe devolver un valor nulo para la fila no coincidente
- [SPARK-43042] [SC-128602] [SS] [Connect] Agregar compatibilidad con la API table() para DataStreamReader
- [SPARK-43153] [SC-128753][connect] Omitir la ejecución de Spark cuando el dataframe es local
- [SPARK-43064] [ SC-128496][sql] La pestaña SQL de la CLI de Spark SQL solo debe mostrar una sola instrucción una vez
- [SPARK-43126] [SC-128447][sql] Marcar dos expresiones UDF de Hive como con estado
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] Combinar instrucciones anidadas
ifen instrucciones únicasif - [SPARK-43113] [SC-128749][sql] Evaluar las variables del lado de la corriente al generar código para una condición enlazada
- [SPARK-42895] [SC-127258][connect] Mejorar los mensajes de error para las sesiones de Spark detenidas
- [SPARK-42884] [SC-126662][connect] Agregar integración de REPL de Ammonite
- [SPARK-43168] [ SC-128674][sql] Quitar el método get PhysicalDataType de la clase Datatype
-
[SPARK-43121] [SC-128455][sql] Use
BytesWritable.copyBytesen lugar de la copia manual en "HiveInspectors". - [SPARK-42916] [ SC-128389][sql] JDBCTableCatalog Mantiene Char/Varchar meta en el lado de lectura
- [SPARK-43050] [SC-128550][sql] Corregir expresiones agregadas mediante la sustitución de funciones de agrupación
-
[SPARK-43095] [SC-128549][sql] Evitar que la idempotencia de la estrategia 'Once' se rompa para el procesamiento por lotes:
Infer Filters - [SPARK-43130] [SC-128597][sql] Trasladar InternalType a PhysicalDataType
- [SPARK-43105] [SC-128456][connect] Abreviar bytes y cadenas en el mensaje proto
-
[SPARK-43099] [SC-128596][sql] Utilizar
getNameen lugar degetCanonicalNamepara obtener el nombre de la clase generadora al registrar la función UDF en FunctionRegistry - [SPARK-42994] [SC-128586][ml][CONNECT] El distribuidor de PyTorch admite el modo local
- [SPARK-42859] Revertir "[SC-127935][connect][PS] Compatibilidad básica con pandas API en Spark Connect"
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoinno funciona cuando se usa AQE - [SPARK-43125] [SC-128477][connect] Corregir el problema de que el servidor de conexión no pueda manejar una excepción con un mensaje nulo
- [SPARK-43147] [SC-128594] corrección de lint de flake8 para la comprobación local
- [SPARK-43031] [SC-128360] [SS] [Connect] Habilitación de pruebas unitarias y doctest para streaming
- [SPARK-43039] [LC-67] Admite campos personalizados en la columna _metadata de origen del archivo.
- [SPARK-43120] [ SC-128407][ss] Agregar compatibilidad con el seguimiento del uso de bloques de memoria fijados para el almacén de estado de RocksDB
- [SPARK-43110] [SC-128381][sql] Mover asIntegral a PhysicalDataType
- [SPARK-43118] [ SC-128398][ss] Quitar aserción innecesaria para UninterruptibleThread en KafkaMicroBatchStream
- [SPARK-43055] [SC-128331][connect][PYTHON] Compatibilidad con nombres de campo anidados duplicados
- [SPARK-42437] [ SC-128339][python][CONNECT] PySpark catalog.cacheTable permitirá especificar el nivel de almacenamiento.
- [SPARK-42985] [SC-128332][connect][PYTHON] Corregir createDataFrame para respetar las configuraciones de SQL
- [SPARK-39696] [SC-127830][core] Corregir la carrera de datos en el acceso a TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335][sql] Mover entero a tipo de datos físico
- [SPARK-42741] [ SC-125547][sql] No desencapsular conversiones en comparación binaria cuando literal es null
- [SPARK-43057] [SC-127948][connect][PYTHON] Migrar los errores de columna de Spark Connect a la categoría de errores
- [SPARK-42859] [SC-127935][connect][PS] Compatibilidad básica con pandas API en Spark Connect
-
[SPARK-43013] [SC-127773][python] Migrar
ValueErrorde DataFrame aPySparkValueError. - [SPARK-43089] [SC-128051][connect] Redacte la cadena de depuración en la interfaz de usuario
- [SPARK-43028] [SC-128070][sql] Agregar clase de error SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] Agregar pruebas para dropDuplicates en JavaDatasetSuite
-
[SPARK-43075] [ SC-127939][connect] Cambie
gRPCagrpciocuando no esté instalado. - [SPARK-42953] [SC-127809][connect] Filtro con tipo, mapa, flatMap, mapPartitions
- [SPARK-42597] [SC-125506][sql] Soporte para transformar el tipo de fecha en tipo de marca de tiempo
- [SPARK-42931] [SC-127933][ss] Introducir dropDuplicatesWithinWatermark.
- [SPARK-43073] [SC-127943][connect] Agregar constantes de tipos de datos proto
- [SPARK-43077] [SC-128050][sql] Mejorar el mensaje de error de UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030][ss][Connect] APIs de DataStreamReader
- [SPARK-43049] [SC-127846][sql] Usar CLOB en lugar de VARCHAR(255) para StringType para Oracle JDBC
- [SPARK-43018] [SC-127762][sql] Arreglar error en los comandos con literales de marca de tiempo
- [SPARK-42855] [SC-127722][sql] Usar comprobaciones null en tiempo de ejecución en TableOutputResolver
- [SPARK-43030] [SC-127847][sql] Desduplicar las relaciones con columnas de metadatos
- [SPARK-42993] [ SC-127829][ml][CONNECT] Hacer que el distribuidor de PyTorch sea compatible con Spark Connect
- [SPARK-43058] [SC-128072][sql] Mover numérico y fraccionario a PhysicalDataType
- [SPARK-43056] [ SC-127946][ss] La confirmación del almacén de estado de RocksDB solo debe continuar funcionando en segundo plano si está en pausa
- [SPARK-43059] [SC-127947][connect][PYTHON] Migrar TypeError de DataFrame(Reader|Writer) a la clase de error
- [SPARK-43071] [SC-128018][sql] Admite SELECT DEFAULT con ORDER BY, LIMITOFFSET para la INSERT relación de origen
- [SPARK-43061] [SC-127956][core][SQL] Introduce PartitionEvaluator para ejecución de operadores SQL
- [SPARK-43067] [SC-127938][ss] Corregir la ubicación del archivo de recursos de clase de error en el conector de Kafka
- [SPARK-43019] [SC-127844][sql] Mover orden a PhysicalDataType
- [SPARK-43010] [SC-127759][python] Migrar errores de columna a clase de error
-
[SPARK-42840] [SC-127782][sql] Cambio
_LEGACY_ERROR_TEMP_2004del error a error interno - [SPARK-43041] [SC-127765][sql] Restaurar constructores de excepciones para compatibilidad en la API del conector
- [SPARK-42939] [SC-127761][ss][CONNECT] API de Python de streaming principal para Spark Connect
-
[SPARK-42844] [ SC-127766][sql] Actualizar la clase
_LEGACY_ERROR_TEMP_2008de error aINVALID_URL - [SPARK-42316] [SC-127720][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723][connect][PYTHON] Migrar los errores de DataFrame de Spark Connect a una clase de errores
- [SPARK-42983] [SC-127717][connect][PYTHON] Corregir createDataFrame para manejar adecuadamente la matriz numpy de dimensión cero
- [SPARK-42955] [SC-127476][sql] Omitir classifyException y encapsular AnalysisException para SparkThrowable
- [SPARK-42949] [ SC-127255][sql] Simplificación del código para NAAJ
-
[SPARK-43011] [SC-127577][sql]
array_insertdebería fallar con un índice 0 -
[SPARK-42974] [ SC-127487][core] Restaurar
Utils.createTempDirpara usarShutdownHookManagery limpiar el métodoJavaUtils.createTempDir. - [SPARK-42964] [ SC-127585][sql] PosgresDialect '42P07' también significa que la tabla ya existe
- [SPARK-42978] [ SC-127351][sql] Derby&PG: RENAME no puede calificar a new-table-Name con un nombre de esquema
- [SPARK-37980] [SC-127668][sql] Acceder a Row_Index a través de _Metadata si es posible en pruebas
- [SPARK-42655] [SC-127591][sql] Error incorrecto de referencia de columna ambigua
-
[SPARK-43009] [ SC-127596][sql] Parametrizado
sql()conAnyconstantes - [SPARK-43026] [SC-127590][sql] Aplicar AQE con caché de tablas sin intercambio
- [SPARK-42963] [SC-127576][sql] Expansión de SparkSessionExtensions para insertar reglas en el optimizador de las fases de consulta de AQE
- [SPARK-42918] [SC-127357] Generalización del control de atributos de metadatos en FileSourceStrategy
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT] Agregar
Catalogsoporte - [SPARK-42997] [SC-127535][sql] TableOutputResolver debe usar caminos de columnas correctos en mensajes de error para matrices y mapas
- [SPARK-43006] [SC-127486][pyspark] Corrección de errores tipográficos en StorageLevel eq()
- [SPARK-43005] [SC-127485][pyspark] Corrección del error tipográfico en pyspark/pandas/config.py
- [SPARK-43004] [SC-127457][core] Corrección de errores tipográficos en ResourceRequest.equals()
- [SPARK-42907] [SC-126984][connect][PYTHON] Implementar funciones de Avro
- [SPARK-42979] [SC-127272][sql] Definir constructores literales como palabras clave
- [SPARK-42946] [SC-127252][sql] Redacte datos confidenciales anidados por sustitución de variables
- [SPARK-42952] [ SC-127260][sql] Simplificación del parámetro de la regla de analizador PreprocessTableCreation y DataSourceAnalysis
- [SPARK-42683] [LC-75] Cambiar automáticamente el nombre de las columnas de metadatos en conflicto
- [SPARK-42853] [SC-126101][seguimiento] Corregir conflictos
- [SPARK-42929] [SC-126748][connect] hacer que mapInPandas/mapInArrow admita "is_barrier"
- [SPARK-42968] [ SC-127271][ss] Agregar opción para omitir el coordinador de confirmaciones como parte de la API StreamingWrite para orígenes o sumideros DSv2
-
[SPARK-42954] [SC-127261][python][CONNECT] Agregar
YearMonthIntervalTypeal cliente python pySpark y Spark Connect -
[SPARK-41359] [SC-127256][sql] Usar
PhysicalDataTypeen lugar de DataType en UnsafeRow - [SPARK-42873] [SC-127262][sql] Definir tipos de Spark SQL como palabras clave
-
[SPARK-42808] [ SC-126302][core] Evite estar disponibleProcesadores cada vez en
MapOutputTrackerMaster#getStatistics -
[SPARK-42937] [SC-126880][sql]
PlanSubqueriesdebe establecerInSubqueryExec#shouldBroadcasten verdadero -
[SPARK-42896] [SC-126729][sql][PYTHON] Permitir la
mapInPandas/mapInArrowejecución del modo de barrera - [SPARK-42874] [ SC-126442][sql] Habilitación del nuevo marco de pruebas de archivos dorados para el análisis de todos los archivos de entrada
- [SPARK-42922] [SC-126850][sql] Mover de random a SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange hace referencia a nodos inexistentes
- [SPARK-40822] [SC-126274][sql] Aliases estables de columnas derivadas
- [SPARK-42908] [SC-126856][python] Generar RuntimeError cuando se requiere SparkContext pero no está inicializado
- [SPARK-42779] [SC-126042][sql] Permitir que las escrituras V2 indiquen el tamaño de particiones de barajado recomendado
-
[SPARK-42914] [SC-126727][python] Reutilizar
transformUnregisteredFunctionparaDistributedSequenceID. - [SPARK-42878] [ SC-126882][connect] La API de tabla de DataFrameReader también podría aceptar opciones
-
[SPARK-42927] [SC-126883][core] Cambiar el ámbito de acceso de
o.a.spark.util.Iterators#sizeaprivate[util] - [SPARK-42943] [SC-126879][sql] Usar LONGTEXT en lugar de TEXT para StringType para lograr una longitud efectiva
- [SPARK-37677] [ SC-126855][core] Unzip podría mantener los permisos de archivo
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implement CoGrouped Map API
- [SPARK-41876] [SC-126849][connect][PYTHON] Implementar DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761][core][SQL] Cambiar el ámbito de acceso de
ProtobufSerDelas implementaciones relacionadas aprivate[protobuf] - [SPARK-42819] [ SC-125879][ss] Se agregó soporte para configurar max_write_buffer_number y write_buffer_size en RocksDB utilizado en streaming
- [SPARK-42924] [SC-126737][sql][CONNECT][python] Aclaración del comentario de los argumentos sql parametrizados
- [SPARK-42748] [SC-126455][connect] Administración de artefactos del lado del servidor
- [SPARK-42816] [SC-126365][connect] Admite el tamaño máximo de mensaje hasta 128 MB.
- [SPARK-42850] [SC-126109][sql] Quitar reglas duplicadas CombineFilters en el optimizador
- [SPARK-42662] [ SC-126355][connect][PS] Adición de un mensaje proto para pandas API en el índice predeterminado de Spark
- [SPARK-42720] [ SC-126136][ps][SQL] Usa expresión para el índice predeterminado de secuencia distribuida en lugar del plan
- [SPARK-42790] [SC-126174][sql] Abstract the excluded method for better test for JDBC docker tests (Abstraer el método excluido para mejores pruebas de Docker JDBC).
- [SPARK-42900] [SC-126473][connect][PYTHON] Corregir createDataFrame para respetar la inferencia y los nombres de columna
- [SPARK-42917] [SC-126657][sql] Corregir getUpdateColumnNullabilityQuery para DerbyDialect
- [SPARK-42684] [ SC-125157][sql] v2 catalog no debe permitir el valor predeterminado de columna de forma predeterminada
- [SPARK-42861] [SC-126635][sql] Use private[sql] en lugar de protected[sql] para evitar generar documentos de API
- [SPARK-42920] [SC-126728][connect][PYTHON] Habilitación de pruebas para UDF con UDT
- [SPARK-42791] [ SC-126617][sql] Crear un nuevo marco de pruebas de archivos dorados para el análisis
- [SPARK-42911] [ SC-126652][python] Introducción a excepciones más básicas
- [SPARK-42904] [SC-126634][sql] Compatibilidad con Char/Varchar para el catálogo JDBC
-
[SPARK-42901] [ SC-126459][connect][PYTHON] Mover
StorageLevela un archivo independiente para evitar posiblesfile recursively imports -
[SPARK-42894] [SC-126451][connect] Compatibilidad con
cache/persist/unpersist/storageLevelel cliente jvm de Spark connect - [SPARK-42792] [SC-125852][ss] Agregar compatibilidad con WRITE_FLUSH_BYTES para RocksDB que se usan en operadores con estado de streaming
- [SPARK-41233] [SC-126441][connect][PYTHON] Agregar array_prepend al cliente python de Spark Connect
- [SPARK-42681] [SC-125149][sql] Relajar la restricción de orden para el descriptor de columna ALTER TABLE ADD|REPLACE
- [SPARK-42889] [SC-126367][connect][PYTHON] Implementación de caché, persistencia, despersistir y nivelDeAlmacenamiento
- [SPARK-42824] [SC-125985][connect][PYTHON] Proporcione un mensaje de error claro para los atributos JVM no admitidos.
- [SPARK-42340] [SC-126131][connect][PYTHON] Implementación de la API de asignación agrupada
- [SPARK-42892] [SC-126454][sql] Mover sameType y métodos pertinentes fuera de DataType
-
[SPARK-42827] [SC-126126][connect] Compatibilidad con
functions#array_prependel cliente de Scala Connect -
[SPARK-42823] [ SC-125987][sql]
spark-sqlshell admite espacios de nombres de varias partes para la inicialización - [SPARK-42817] [SC-125960][core] Registrar el nombre del servicio de mezcla una vez en el ApplicationMaster
- [SPARK-42786] [SC-126438][connect] Selección tipada
-
[SPARK-42800] [ SC-125868][connect][PYTHON][ml] Implementación de la función ml
{array_to_vector, vector_to_array} - [SPARK-42052] [SC-126439][sql] Compatibilidad de Codegen con HiveSimpleUDF
-
[SPARK-41233] [SC-126110][sql][PYTHON] Agregar
array_prependfunción -
[SPARK-42864] [ SC-126268][ml][3.4] Hacer
IsotonicRegression.PointsAccumulatorprivado - [SPARK-42876] [SC-126281][sql] La estructura física de tipo de datos de DataType debe ser privada[sql]
- [SPARK-42101] [SC-125437][sql] Hacer que AQE admita InMemoryTableScanExec
- [SPARK-41290] [SC-124030][sql] Compatibilidad con expresiones ALWAYS AS generadas para columnas en instrucciones create/replace table
-
[SPARK-42870] [SC-126220][connect] Mover
toCatalystValueaconnect-common - [SPARK-42247] [SC-126107][connect][PYTHON] Solucionar UserDefinedFunction para que tenga returnType
- [SPARK-42875] [SC-126258][connect][PYTHON] Corregir toPandas para manejar correctamente los tipos de zona horaria y mapa
- [SPARK-42757] [SC-125626][connect] Implementar textFile para DataFrameReader
- [SPARK-42803] [SC-126081][core][SQL][ml] Use la función getParameterCount en lugar de getParameterTypes.length
-
[SPARK-42833] [SC-126043][sql] Refactorizar
applyExtensionsenSparkSession - [SPARK-41765] Revertir "[SC-123550][sql] Eliminar las métricas de escritura de v1...
- [SPARK-42848] [SC-126105][connect][PYTHON] Implementar DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][connect][PYTHON] Soporta UserDefinedType en Spark Connect
- [SPARK-42818] [SC-125861][connect][PYTHON] Implementar DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867][connect] Agregar client_type al mensaje protobuf AddArtifactsRequest
- [SPARK-42772] [SC-125860][sql] Cambiar el valor predeterminado de las opciones de JDBC sobre el traspaso a true
- [SPARK-42771] [SC-125855][sql] Refactorizar HiveGenericUDF
- [SPARK-25050] [SC-123839][sql] Avro: escritura de uniones complejas
-
[SPARK-42765] [SC-125850][connect][PYTHON] Habilitación de la importación
pandas_udfdesdepyspark.sql.connect.functions -
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocationdebe respetarspark.shuffle.reduceLocality.enabled - [SPARK-42480] [SC-125173][sql] Mejorar el rendimiento de la eliminación de particiones
- [SPARK-42689] [ SC-125195][core][SHUFFLE] Permitir que ShuffleDriverComponent declare si los datos shuffle son almacenados de forma confiable
-
[SPARK-42726] [SC-125279][connect][PYTHON] Implementar
DataFrame.mapInArrow - [SPARK-41765] [ SC-123550][sql] Extraer métricas de escritura v1 en WriteFiles
- [SPARK-41171] [SC-124191][sql] Inferir e insertar el límite de ventana a través de la ventana si partitionSpec está vacío
- [SPARK-42686] [ SC-125292][core] Posponer el formateo de los mensajes de depuración en TaskMemoryManager
- [SPARK-42756] [ SC-125443][connect][PYTHON] Función auxiliar para convertir proto literal en valor en el cliente de Python
-
[SPARK-42793] [SC-125627][connect]
connectmódulo requierebuild_profile_flags -
[SPARK-42701] [SC-125192][sql] Agregar la
try_aes_decrypt()función - [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame no funciona con un esquema que no acepta valores NULL
- [SPARK-42733] [SC-125542][connect][Followup] Escribir sin ruta o tabla
- [SPARK-42777] [SC-125525][sql] Compatibilidad con la conversión de estadísticas de catálogo TimestampNTZ a estadísticas de plan
-
[SPARK-42770] [ SC-125558][connect] Añadir
truncatedTo(ChronoUnit.MICROS)para hacer queSQLImplicitsTestSuiteen la tarea diaria de prueba de Java 17 pase a producción (GA). - [SPARK-42752] [ SC-125550][pyspark][SQL] Hacer que las excepciones de PySpark se puedan imprimir durante la inicialización.
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Implementación del método getActiveSession en la sesión de Spark Connect
-
[SPARK-42755] [ SC-125442][connect] Extraer la conversión de valores literales a
connect-common - [SPARK-42747] [SC-125399][ml] Corregir el estado interno incorrecto de LoR y AFT
- [SPARK-42740] [SC-125439][sql] Corrección del error en que la optimización mediante desplazamiento o paginación no es válida para algunos dialectos integrados
- [SPARK-42745] [SC-125332][sql] La expresión mejorada AliasAwareOutputExpression funciona con DSv2
- [SPARK-42743] [SC-125330][sql] Soporte para el análisis de columnas TimestampNTZ
- [SPARK-42721] [SC-125371][connect] Interceptor de registro de RPC
- [SPARK-42691] [SC-125397][connect][PYTHON] Implementar el dataset.semanticHash
- [SPARK-42688] [SC-124922][connect] Cambiar el nombre de la solicitud proto connect client_id a session_id
- [SPARK-42310] [SC-122792][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339][core] Optimizar rutinas Utils.bytesToString
- [SPARK-42725] [SC-125296][connect][PYTHON] Hacer que LiteralExpression admita los parámetros de matriz
- [SPARK-42702] [SC-125293][spark-42623][SQL] Compatibilidad con consultas parametrizadas en subconsulta y CTE
- [SPARK-42697] [SC-125189][webui] Corrección de /api/v1/applications para devolver el tiempo de actividad total en lugar de 0 para el campo de duración
- [SPARK-42733] [SC-125278][connect][PYTHON] Corregir DataFrameWriter.save para funcionar sin el parámetro de ruta
- [SPARK-42376] [SC-124928][ss] Introducir la propagación de marcas de agua entre operadores
- [SPARK-42710] [ SC-125205][connect][PYTHON] Cambiar el nombre de FrameMap proto a MapPartitions
- [SPARK-37099] [ SC-123542][sql] Introducir el límite de grupo de Window para el filtro basado en rangos para optimizar el cálculo superior k
- [SPARK-42630] [SC-125207][connect][PYTHON] Introduce UnparsedDataType y retrasa el análisis de la cadena DDL hasta que SparkConnectClient esté disponible.
- [SPARK-42690] [SC-125193][connect] Implementación de funciones de análisis CSV/JSON para el cliente de Scala
-
[SPARK-42709] [SC-125172][python] Quitar la suposición de
__file__estar disponible - [SPARK-42318] [SC-122648][spark-42319][SQL] Asignar nombre a LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183][sql] Soporte para el tipo de datos del parser json “timestamp_ltz” como TimestampType
- [SPARK-42722] [ SC-125175][connect][PYTHON] Python Connect def schema() no debe almacenar en caché el esquema
- [SPARK-42643] [SC-125152][connect][PYTHON] Registrar funciones de agregación definidas por el usuario de Java
- [SPARK-42656] [SC-125177][connect][Followup] Corrección del script spark-connect
- [SPARK-41516] [SC-123899] [SQL] Permitir que los dialectos jdbc invaliden la consulta usada para crear una tabla
- [SPARK-41725] [SC-124396][connect] Ejecución diligente de DF.sql()
-
[SPARK-42687] [SC-124896][ss] Mejor mensaje de error para la operación no compatible
pivoten Streaming - [SPARK-42676] [ SC-124809][ss] Escribir puntos de control temporales para las consultas de streaming en el sistema de archivos local, incluso si el FS predeterminado se establece de forma diferente
- [SPARK-42303] [SC-122644][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][sql] Asegúrese de especificar al menos una unidad de tiempo tras el término "intervalo"
- [SPARK-42649] [ SC-124576][core] Quitar el encabezado de licencia de Apache estándar de la parte superior de los archivos de código fuente de terceros
- [SPARK-42611] [ SC-124395][sql] Insertar comprobaciones de longitud de tipo char/varchar para los campos internos durante la resolución
- [SPARK-42419] [SC-124019][connect][PYTHON] Migrar al marco de gestión de errores para la API Column de Spark Connect.
- [SPARK-42637] [SC-124522][connect] Añadir SparkSession.stop()
- [SPARK-42647] [SC-124647][python] Cambiar alias para tipos en desuso y eliminados de numpy
- [SPARK-42616] [ SC-124389][sql] SparkSQLCLIDriver solo cerrará la sesión de Hive iniciada.
- [SPARK-42593] [SC-124405][ps] Marcar como obsoletas y retirar las APIs que se eliminarán en pandas 2.0.
- [SPARK-41870] [SC-124402][connect][PYTHON] Corregir createDataFrame para controlar nombres de columna duplicados
- [SPARK-42569] [SC-124379][connect] Lanzar excepciones para la API de sesión no compatible
- [SPARK-42631] [SC-124526][connect] Compatibilidad con extensiones personalizadas en el cliente de Scala
- [SPARK-41868] [SC-124387][connect][PYTHON] Corregir createDataFrame para admitir duraciones
- [SPARK-42572] [SC-124171][sql][SS] Corrección del comportamiento de StateStoreProvider.validateStateRowFormat
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 13.1.
Entorno del sistema
- Sistema operativo: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| directorios de aplicaciones | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| "asttokens" | 2.2.1 | atributos | 21.4.0 | llamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | negro | 22.6.0 | blanquear | 4.1.0 |
| intermitente | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | Haz clic | 8.0.4 | criptografía | 37.0.1 |
| ciclista | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
| debugpy | 1.5.1 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.6 | Conversión de docstring a markdown | 0,12 | puntos de entrada | 0,4 |
| Ejecutar | 1.2.0 | visión general de las facetas | 1.0.3 | fastjsonschema | 2.16.3 |
| bloqueo de archivos | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
| grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
| ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | jeepney (autobús colectivo típico de Filipinas) | 0.7.1 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
| Cliente Jupyter | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | llavero | 23.5.0 | kiwisolver | 1.4.2 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | Mal sintonizado | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| cuaderno | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
| empaquetado | 21,3 | Pandas | 1.4.4 | PandocFiltros | 1.5.0 |
| parso | 0.8.3 | especificación de ruta (pathspec) | 0.9.0 | chivo expiatorio | 0.5.2 |
| pexpect | 4.8.0 | pickleshare | 0.7.5 | Almohada | 9.2.0 |
| pepita | 22.2.2 | platformdirs | 2.5.2 | trazado | 5.9.0 |
| pluggy | 1.0.0 | Cliente-Prometeo | 0.14.1 | prompt-toolkit | 3.0.36 |
| protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
| pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
| Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
| pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-servidor | 1.7.1 | configuración de herramienta Python | 1.2.2 | pytz | 2022.1 |
| pyzmq | 23.2.0 | solicitudes | 2.28.1 | cuerda | 1.7.0 |
| s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
| setuptools | 63.4.1 | six (seis) | 1.16.0 | colador para sopa | 2.3.1 |
| ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels (paquete de Python para análisis estadístico) | 0.13.2 |
| tenacidad | 8.1.0 | terminado | 0.13.1 | ruta de prueba | 0.6.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
| ujson | 5.4.0 | actualizaciones desatendidas | 0,1 | urllib3 | 1.26.11 |
| virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| codificaciones web | 0.5.1 | ¿Qué es el parche? | 1.0.2 | rueda | 0.37.1 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan con la instantánea de Microsoft CRAN desde el 02-10-2023.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 10.0.1 | askpass | 1.1 | asegúrate de que | 0.2.1 |
| retroportaciones | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| poco | 4.0.5 | bit 64 | 4.0.5 | mancha | 1.2.3 |
| bota | 1.3-28 | fermentar | 1,0 - 8 | Brio | 1.1.3 |
| escoba | 1.0.3 | bslib | 0.4.2 | cachemir | 1.0.6 |
| callr | 3.7.3 | cursor | 6.0-93 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 |
| Chron | 2.3-59 | clase | 7.3-21 | Cli | 3.6.0 |
| clipr | 0.8.0 | reloj | 0.6.1 | conglomerado | 2.1.4 |
| codetools | 0.2-19 | espacio de colores | 2.1-0 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuración | 0.3.1 | cpp11 | 0.4.3 |
| crayón | 1.5.2 | credenciales | 1.3.2 | rizo | 5.0.0 |
| tabla de datos | 1.14.6 | conjuntos de datos | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Descripción | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digerir | 0.6.31 | iluminado hacia abajo | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| elipsis | 0.3.2 | evaluar | 0,20 | fans | 1.0.4 |
| colores | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| convictos | 1.0.0 | foreach | 1.5.2 | extranjero | 0.8-82 |
| fragua | 0.2.0 | Fs | 1.6.1 | futuro | 1.31.0 |
| aplicación futura | 1.10.0 | hacer gárgaras | 1.3.0 | genéricos | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globales | 0.16.2 |
| pegamento | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | elementos gráficos | 4.2.2 | grDevices | 4.2.2 |
| rejilla | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | Casco | 1.2.0 | refugio | 2.5.1 |
| más alto | 0,10 | HMS | 1.1.2 | herramientas de HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | tejido | 1.42 |
| etiquetado | 0.4.2 | más tarde | 1.3.0 | retícula | 0.20-45 |
| lava | 1.7.1 | ciclo de vida | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Formato Markdown | 1.5 |
| MASA | 7.3-58.2 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| métodos | 4.2.2 | mgcv | 1.8-41 | mimo | 0,12 |
| miniUI (Interfaz de Usuario) | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.0.5 | paralelo | 4.2.2 |
| Paralelamente | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | progreso | 1.2.2 |
| progressr | 0.13.0 | promesas | 1.2.0.1 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | P.D | 1.7.2 | ronroneo | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| Bosque Aleatorio (randomForest) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | readxl | 1.4.2 | recetas | 1.0.4 |
| partido de revancha | 1.0.1 | segunda revancha | 2.1.2 | Telecontroles | 2.4.2 |
| ejemplo reproducible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | balanzas | 1.2.1 |
| selectr | 0.4-2 | información de sesión | 1.2.2 | forma | 1.4.6 |
| brillante | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | espacial | 7.3-15 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Estadísticas | 4.2.2 |
| estadísticas4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
| supervivencia | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | Formateo de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | cambio de hora | 0.2.0 | fechaHora | 4022.108 |
| tinytex | 0,44 | herramientas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | usa esto | 2.1.6 | utf8 | 1.2.3 |
| utilidades | 4.2.2 | Identificador Único Universal (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| bigotes | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | cremallera | 2.2.2 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | perfilador | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1,15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.4 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metrics-json | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metrics-servlets | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | cliente_simple_común | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recopilador | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.16 |
| org.apache.arrow | formato de flecha | 11.0.0 |
| org.apache.arrow | núcleo de memoria de flecha | 11.0.0 |
| org.apache.arrow | arrow-memory-netty | 11.0.0 |
| org.apache.arrow | vector de flecha | 11.0.0 |
| org.apache.avro | avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | marco de trabajo para curadores | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | planificador-de-adaptadores-hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | calzos de orco | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4,22 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | servidor Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | jersey común | 2,36 |
| org.glassfish.jersey.core | jersey-server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | validador de hibernación | 6.1.7.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Cuñas | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |