Comparteix via


Databricks Runtime 13.1 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.

En las siguientes notas de la versión, se proporciona información sobre Databricks Runtime 13.1, con tecnología de Apache Spark 3.4.0.

Databricks publicó esta versión en mayo de 2023.

Nuevas características y mejoras

Compatibilidad con clústeres con JDK 17 (versión preliminar pública)

Databricks ahora proporciona compatibilidad con clústeres para Java Development Kit (JDK) 17. Consulte SDK de Databricks para Java.

Agregar, cambiar o eliminar datos en tablas de streaming

Ahora puede usar instrucciones DML para modificar las tablas de streaming publicadas en el Unity Catalog mediante las canalizaciones declarativas de Lakeflow Spark. Consulte Agregar, cambiar o eliminar datos en una tabla de streaming y Agregar, cambiar o eliminar datos en una tabla de streaming de destino. También puede usar instrucciones DML para modificar las tablas de streaming creadas en Databricks SQL.

Lectura de Kafka con SQL

Ahora puede usar la read_kafka función SQL para leer datos de Kafka. El streaming con SQL solo se admite en DLT o con tablas de streaming en Databricks SQL. Consulte read_kafka función con valores de tabla.

Nuevas funciones integradas de SQL

Se han agregado las siguientes funciones:

Compatibilidad del catálogo de Unity con bibliotecas de Python con ámbito de clúster

El catálogo de Unity tiene algunas limitaciones en el uso de la biblioteca. En Databricks Runtime 13.1 y versiones posteriores, se admiten las bibliotecas de Python con ámbito de clúster, incluidos los archivos wheel de Python que se cargan como archivos del área de trabajo. No se admiten bibliotecas a las que se hace referencia mediante rutas de archivo DBFS, ya sea en la raíz de DBFS o en una ubicación externa montada en DBFS. No se admiten bibliotecas que no son de Python. Consulte Bibliotecas con ámbito de cómputo.

En Databricks Runtime 13.0 y versiones posteriores, las bibliotecas con ámbito de clúster no se admiten en clústeres que usan el modo de acceso estándar (anteriormente modo de acceso compartido) en un área de trabajo habilitada para catálogos de Unity.

Habilitación predeterminada expandida para escrituras optimizadas en el catálogo de Unity

La compatibilidad de escritura optimizada predeterminada para tablas Delta registradas en el catálogo de Unity se ha ampliado para incluir CTAS instrucciones y operaciones INSERT para tablas con particiones. Este comportamiento se alinea con los valores predeterminados en los almacenes de SQL. Consulte Escrituras optimizadas para Delta Lake en Azure Databricks.

Compatibilidad avanzada con operadores con estado en cargas de trabajo de Structured Streaming

Ahora puede encadenar varios operadores con estado, lo que significa que puede alimentar la salida de una operación, como una agregación en ventana, a otra operación con estado, como una unión. Consulte ¿Qué es el streaming con estado?

El clon delta para el catálogo de Unity está en versión preliminar pública

Ahora puede usar un clon superficial para crear nuevas tablas administradas de Unity Catalog a partir de tablas administradas existentes de Unity Catalog. Consulte Clonación superficial para tablas de Unity Catalog.

Compatibilidad con Pub/Sub para Structured Streaming

Ahora puede usar un conector integrado para suscribirse a Google Pub/Sub con Structured Streaming. Consultar Suscribirse a Google Pub/Sub.

Eliminación de duplicados en marcas de agua en Structured Streaming

Ahora puede usar dropDuplicatesWithinWatermark en combinación con un umbral de marca de agua especificado para desduplicar registros en Structured Streaming. Consultar Anular duplicados en la marca de agua.

Soporte ampliado de conversiones Delta de tablas de Apache Iceberg con columnas de partición truncadas

Ahora puede usar CLONE y CONVERT TO DELTA con tablas de Apache Iceberg que tienen particiones definidas en columnas truncadas de tipos int, long y string. No se admiten columnas truncadas de tipo decimal.

Transmisión de cambios de esquema con asignación de columnas en Delta Lake

Puede proporcionar una ubicación de seguimiento de esquemas para habilitar el streaming desde tablas Delta con la asignación de columnas habilitada. Consulte Streaming con asignación de columnas y cambios de esquema.

Quitar START VERSION

START VERSION ahora está en desuso para ALTER SHARE.

Nuevas expresiones H3 disponibles con Python

Las expresiones h3_coverash3 y h3_coverash3string están disponibles con Python.

Correcciones de errores

Parquet failOnUnknownFields ya no quita los datos de forma silenciosa en errores de coincidencia de tipos

Si se leyó un archivo Parquet con solo la failOnUnknownFields opción o con Auto Loader en el modo de evolución del failOnNewColumns esquema, las columnas que tienen tipos de datos diferentes ahora generan un error y recomiendan usar rescuedDataColumn. El cargador automático ahora lee correctamente y ya no rescata los tipos Entero, Corto o Byte si se proporciona uno de estos tipos de datos. El archivo Parquet sugiere uno de los otros dos tipos.

Últimos cambios

Actualice la versión sqlite-jdbc a la versión 3.42.0.0 a la dirección CVE-2023-32697

Actualice la versión sqlite-jdbc de 3.8.11.2 a 3.42.0.0. Las API de la versión 3.42.0.0 no son totalmente compatibles con 3.8.11.2. Si usa sqlite-jdbc en el código, compruebe el informe de compatibilidad sqlite-jdbc para obtener más información. Si migra a la versión 13.1 y usa sqlite, confirme los métodos y el tipo de valor devuelto en la versión 3.42.0.0.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • facets-overview de 1.0.2 a 1.0.3
    • filelock de 3.10.7 a 3.12.0
    • pyarrow: de 7.0.0 a 8.0.0
    • tenacidad de 8.0.1 a 8.1.0
  • Bibliotecas de R actualizadas:
  • Bibliotecas de Java actualizadas:
    • com.github.ben-manes.cafeína.cafeína de 2.3.4 a 2.9.3
    • io.delta.delta-sharing-spark_2.12 de 0.6.8 a 0.6.4
    • net.snowflake.snowflake-jdbc de 3.13.29 a 3.13.22
    • org.checkerframework.checker-qual de 3.5.0 a 3.19.0
    • org.scalactic.scalactic_2.12 de 3.0.8 a 3.2.15
    • org.scalatest.scalatest_2.12 de 3.0.8 a 3.2.15
    • org.xerial.sqlite-jdbc de 3.8.11.2 a 3.42.0.0

Apache Spark

Databricks Runtime 13.1 incluye Apache Spark 3.4.0. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 13.0 (EoS), junto con las siguientes correcciones de errores y mejoras adicionales de Spark:

  • [SPARK-42719] [DBRRM-199][sc-131578] Revertir “[SC-125225] 'MapOutputTracker#getMap...”
  • [SPARK-39696] [DBRRM-166][sc-130056][CORE] Revertir [SC-127830]/
  • [SPARK-43331] [SC-130064][connect] Agregar Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051][connect][PYTHON] Permite ampliar ChannelBuilder para SparkConnectClient
  • [SPARK-43323] [SC-129966][sql][PYTHON] Solucionar DataFrame.toPandas con Arrow habilitada para controlar las excepciones correctamente
  • [SPARK-42940] [ SC-129896][ss][CONNECT] Mejorar la administración de sesiones para las consultas de streaming
  • [SPARK-43032] [SC-125756] [CONNECT][ss] Agregar administrador de consultas de streaming
  • [SPARK-16484] [SC-129975][sql] Agregar compatibilidad con Datasketches HllSketch
  • [SPARK-43260] [ SC-129281][python] Migre los errores de tipo de flecha de Pandas de Spark SQL a la clase de error.
  • [SPARK-41766] [ SC-129964][core] Gestionar la solicitud de descomisión enviada antes del registro del executor
  • [SPARK-43307] [SC-129971][python] Migración de errores de valor de PandasUDF a la clase de error
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] Excepción streamingQuery() incluir seguimiento de la pila
  • [SPARK-43311] [ SC-129905][ss] Incorporar mejoras en la gestión de memoria del proveedor de la tienda de estado de RocksDB
  • [SPARK-43237] [SC-129898][core] Controlar el mensaje de excepción NULL en el registro de eventos
  • [SPARK-43320] [SC-129899][sql][HIVE] Llame directamente a la API de Hive 2.3.9
  • [SPARK-43270] [SC-129897][python] Implementar __dir__() en pyspark.sql.dataframe.DataFrame para incluir columnas
  • [SPARK-43183] Revertir "[SC-128938][ss] Presentar un nuevo callback "...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675][sql] Reemplace la clase de error _LEGACY_ERROR_TEMP_2022 por un error interno
  • [SPARK-43198] [SC-129470][connect] Corrección "No se pudo inicializar la clase ammonite..." error al usar el filtro
  • [SPARK-43165] [SC-129777][sql] Mover canWrite a DataTypeUtils
  • [SPARK-43298] [ SC-129729][python][ML] predict_batch_udf con entrada escalar produce un error con el tamaño de lote de uno
  • [SPARK-43298] [SC-129700]Revertir "[PYTHON][ml] predict_batch_udf with scalar input fails with batch size of one"
  • [SPARK-43052] [SC-129663][core] Controlar stacktrace con el nombre de archivo NULL en el registro de eventos
  • [SPARK-43183] [SC-128938][ss] Introduce una nueva callback "onQueryIdle" a StreamingQueryListener
  • [SPARK-43209] [SC-129190][connect][PYTHON] Migrar los errores de expresión a una clase de errores
  • [SPARK-42151] [SC-128754][sql] Alinear UPDATE asignaciones con atributos de tabla
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM client StreamingQuery exception() API
  • [SPARK-43298] [ SC-129699][python][ML] predict_batch_udf con entrada escalar falla cuando el tamaño del lote es uno
  • [SPARK-43248] [ SC-129660][sql] Serialización o deserialización innecesaria de Path en estadísticas de particiones de recolección paralela
  • [SPARK-43274] [ SC-129464][spark-43275][PYTHON][connect] Introduce PySparkNotImplementedError
  • [SPARK-43146] [SC-128804][connect][PYTHON] Implementar evaluación ansiosa para repr y repr_html
  • [SPARK-42953] [SC-129469][connect][Followup] Corrección de la compilación de pruebas maven para pruebas UDF de cliente de Scala
  • [SPARK-43144] [ SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358][connect] Adición de funciones groupByKey + mapGroup + coGroup
  • [SPARK-43156] [SC-129672][sc-128532][SQL] Corrección de error en subconsulta escalar correlacionada
  • [SPARK-43046] [SC-129110] [SS] [Connect] Implementación de la API de Python DropDuplicatesWithinWatermark para Spark Connect
  • [SPARK-43199] [SC-129467][sql] Make InlineCTE idempotent
  • [SPARK-43293] [ SC-129657][sql] __qualified_access_only debe omitirse en columnas normales
  • [SPARK-43276] [SC-129461][connect][PYTHON] Migrar errores de ventana de Spark Connect a la clase de error
  • [SPARK-43174] [SC-129109][sql] Solucionar SparkSQLCLIDriver completer
  • [SPARK-43084] [SC-128654] [SS] Agregar compatibilidad con applyInPandasWithState para spark connect
  • [SPARK-43119] [SC-129040][sql] Soporte para obtener dinámicamente las palabras clave de SQL a través de API JDBC y TVF
  • [SPARK-43082] [SC-129112][connect][PYTHON] UDF de Python optimizadas para flechas en Spark Connect
  • [SPARK-43085] [SC-128432][sql] Compatibilidad con la asignación predeterminada de columna para nombres de tabla de varias partes
  • [SPARK-43226] [LC-671] Define extractores para metadatos de constante de archivo
  • [SPARK-43210] [ SC-129189][connect][PYTHON] Introduce PySparkAssertionError
  • [SPARK-43214] [SC-129199][sql] Publicar métricas del lado del controlador para LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Corrección de errores de ReplE2ESuite de forma coherente con JDK 17
  • [SPARK-43268] [SC-129249][sql] Usar clases de error adecuadas cuando se construyen excepciones con un mensaje
  • [SPARK-43142] [SC-129299] Corrección de expresiones DSL en atributos con caracteres especiales
  • [SPARK-43129] [ SC-128896] API principal de Scala para streaming de Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Agregar registro para la lectura por lotes de Kafka para la partición de temas, el intervalo de desplazamiento y el identificador de tarea
  • [SPARK-43249] [SC-129195][connect] Corrección de las estadísticas que faltan para el comando SQL
  • [SPARK-42945] [SC-129188][connect] Compatibilidad con PYSPARK_JVM_STACKTRACE_ENABLED en Spark Connect
  • [SPARK-43178] [SC-129197][connect][PYTHON] Migrar errores de UDF al marco de errores de PySpark
  • [SPARK-43123] [SC-128494][sql] Los metadatos de campo internos no deben revelarse a los catálogos
  • [SPARK-43217] [SC-129205] Recurse correctamente en mapas o matrices anidados en findNestedField
  • [SPARK-43243] [SC-129294][python][CONNECT] Agregar parámetro de nivel a printSchema para Python
  • [SPARK-43230] [SC-129191][connect] Simplificar DataFrameNaFunctions.fillna
  • [SPARK-43088] [ SC-128403][sql] Respetar RequiresDistributionAndOrdering en CTAS/RTAS
  • [SPARK-43234] [SC-129192][connect][PYTHON] Migrar ValueError del DataFrame de Connect a una clase de error
  • [SPARK-43212] [SC-129187][ss][PYTHON] Migración de errores de Structured Streaming a clase de error
  • [SPARK-43239] [ SC-129186][ps] Quitar null_counts de info()
  • [SPARK-43190] [SC-128930][sql] ListQuery.childOutput debe ser coherente con la salida de subproceso.
  • [SPARK-43191] [SC-128924][core] Reemplazar la reflexión con llamada directa a Hadoop CallerContext
  • [SPARK-43193] [SC-129042][ss] Eliminar la solución alternativa para HADOOP-12074
  • [SPARK-42657] [SC-128621][connect] Compatibilidad para buscar y transferir archivos de clases REPL del lado cliente al servidor como artefactos
  • [SPARK-43098] [SC-77059][sql] Corregir el error de COUNT cuando la subconsulta escalar tiene una cláusula GROUP BY
  • [SPARK-43213] [SC-129062][python] Agregar DataFrame.offset a vanilla PySpark
  • [SPARK-42982] [SC-128400][connect][PYTHON] Corregir createDataFrame para respetar el esquema especificado ddl
  • [SPARK-43124] [SC-129011][sql] Dataset.show muestra los CommandResults a nivel local
  • [SPARK-42998] [ SC-127422][connect][PYTHON] Corregir DataFrame.collect con una estructura nula
  • [SPARK-41498] [SC-125343]Revert " Propagación de metadatos a través de Union"
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Agregar await_termination() y exception() API para Streaming Query en Python
  • [SPARK-42552] [SC-128824][sql] Corrija la estrategia de análisis en dos fases del analizador de antlr.
  • [SPARK-43207] [SC-128937][connect] Agregar funciones auxiliares para extraer el valor de la expresión literal
  • [SPARK-43186] [SC-128841][sql][HIVE] Eliminar el remedio provisional para FileSinkDesc
  • [SPARK-43107] [ SC-128533][sql] Depósitos de fusión en combinación aplicados en el lado de flujo de combinación de difusión
  • [SPARK-43195] [SC-128922][core] Eliminación de envoltura serializable innecesaria en HadoopFSUtils
  • [SPARK-43137] [ SC-128828][sql] Mejorar ArrayInsert si la posición es plegable y positiva.
  • [SPARK-37829] [ SC-128827][sql] Dataframe.joinWith outer-join debe devolver un valor nulo para la fila no coincidente
  • [SPARK-43042] [SC-128602] [SS] [Connect] Agregar compatibilidad con la API table() para DataStreamReader
  • [SPARK-43153] [SC-128753][connect] Omitir la ejecución de Spark cuando el dataframe es local
  • [SPARK-43064] [ SC-128496][sql] La pestaña SQL de la CLI de Spark SQL solo debe mostrar una sola instrucción una vez
  • [SPARK-43126] [SC-128447][sql] Marcar dos expresiones UDF de Hive como con estado
  • [SPARK-43111] [SC-128750][ps][CONNECT][python] Combinar instrucciones anidadas if en instrucciones únicas if
  • [SPARK-43113] [SC-128749][sql] Evaluar las variables del lado de la corriente al generar código para una condición enlazada
  • [SPARK-42895] [SC-127258][connect] Mejorar los mensajes de error para las sesiones de Spark detenidas
  • [SPARK-42884] [SC-126662][connect] Agregar integración de REPL de Ammonite
  • [SPARK-43168] [ SC-128674][sql] Quitar el método get PhysicalDataType de la clase Datatype
  • [SPARK-43121] [SC-128455][sql] Use BytesWritable.copyBytes en lugar de la copia manual en "HiveInspectors".
  • [SPARK-42916] [ SC-128389][sql] JDBCTableCatalog Mantiene Char/Varchar meta en el lado de lectura
  • [SPARK-43050] [SC-128550][sql] Corregir expresiones agregadas mediante la sustitución de funciones de agrupación
  • [SPARK-43095] [SC-128549][sql] Evitar que la idempotencia de la estrategia 'Once' se rompa para el procesamiento por lotes: Infer Filters
  • [SPARK-43130] [SC-128597][sql] Trasladar InternalType a PhysicalDataType
  • [SPARK-43105] [SC-128456][connect] Abreviar bytes y cadenas en el mensaje proto
  • [SPARK-43099] [SC-128596][sql] Utilizar getName en lugar de getCanonicalName para obtener el nombre de la clase generadora al registrar la función UDF en FunctionRegistry
  • [SPARK-42994] [SC-128586][ml][CONNECT] El distribuidor de PyTorch admite el modo local
  • [SPARK-42859] Revertir "[SC-127935][connect][PS] Compatibilidad básica con pandas API en Spark Connect"
  • [SPARK-43021] [SC-128472][sql] CoalesceBucketsInJoin no funciona cuando se usa AQE
  • [SPARK-43125] [SC-128477][connect] Corregir el problema de que el servidor de conexión no pueda manejar una excepción con un mensaje nulo
  • [SPARK-43147] [SC-128594] corrección de lint de flake8 para la comprobación local
  • [SPARK-43031] [SC-128360] [SS] [Connect] Habilitación de pruebas unitarias y doctest para streaming
  • [SPARK-43039] [LC-67] Admite campos personalizados en la columna _metadata de origen del archivo.
  • [SPARK-43120] [ SC-128407][ss] Agregar compatibilidad con el seguimiento del uso de bloques de memoria fijados para el almacén de estado de RocksDB
  • [SPARK-43110] [SC-128381][sql] Mover asIntegral a PhysicalDataType
  • [SPARK-43118] [ SC-128398][ss] Quitar aserción innecesaria para UninterruptibleThread en KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331][connect][PYTHON] Compatibilidad con nombres de campo anidados duplicados
  • [SPARK-42437] [ SC-128339][python][CONNECT] PySpark catalog.cacheTable permitirá especificar el nivel de almacenamiento.
  • [SPARK-42985] [SC-128332][connect][PYTHON] Corregir createDataFrame para respetar las configuraciones de SQL
  • [SPARK-39696] [SC-127830][core] Corregir la carrera de datos en el acceso a TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335][sql] Mover entero a tipo de datos físico
  • [SPARK-42741] [ SC-125547][sql] No desencapsular conversiones en comparación binaria cuando literal es null
  • [SPARK-43057] [SC-127948][connect][PYTHON] Migrar los errores de columna de Spark Connect a la categoría de errores
  • [SPARK-42859] [SC-127935][connect][PS] Compatibilidad básica con pandas API en Spark Connect
  • [SPARK-43013] [SC-127773][python] Migrar ValueError de DataFrame a PySparkValueError.
  • [SPARK-43089] [SC-128051][connect] Redacte la cadena de depuración en la interfaz de usuario
  • [SPARK-43028] [SC-128070][sql] Agregar clase de error SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937][sql] Agregar pruebas para dropDuplicates en JavaDatasetSuite
  • [SPARK-43075] [ SC-127939][connect] Cambie gRPC a grpcio cuando no esté instalado.
  • [SPARK-42953] [SC-127809][connect] Filtro con tipo, mapa, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506][sql] Soporte para transformar el tipo de fecha en tipo de marca de tiempo
  • [SPARK-42931] [SC-127933][ss] Introducir dropDuplicatesWithinWatermark.
  • [SPARK-43073] [SC-127943][connect] Agregar constantes de tipos de datos proto
  • [SPARK-43077] [SC-128050][sql] Mejorar el mensaje de error de UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030][ss][Connect] APIs de DataStreamReader
  • [SPARK-43049] [SC-127846][sql] Usar CLOB en lugar de VARCHAR(255) para StringType para Oracle JDBC
  • [SPARK-43018] [SC-127762][sql] Arreglar error en los comandos con literales de marca de tiempo
  • [SPARK-42855] [SC-127722][sql] Usar comprobaciones null en tiempo de ejecución en TableOutputResolver
  • [SPARK-43030] [SC-127847][sql] Desduplicar las relaciones con columnas de metadatos
  • [SPARK-42993] [ SC-127829][ml][CONNECT] Hacer que el distribuidor de PyTorch sea compatible con Spark Connect
  • [SPARK-43058] [SC-128072][sql] Mover numérico y fraccionario a PhysicalDataType
  • [SPARK-43056] [ SC-127946][ss] La confirmación del almacén de estado de RocksDB solo debe continuar funcionando en segundo plano si está en pausa
  • [SPARK-43059] [SC-127947][connect][PYTHON] Migrar TypeError de DataFrame(Reader|Writer) a la clase de error
  • [SPARK-43071] [SC-128018][sql] Admite SELECT DEFAULT con ORDER BY, LIMITOFFSET para la INSERT relación de origen
  • [SPARK-43061] [SC-127956][core][SQL] Introduce PartitionEvaluator para ejecución de operadores SQL
  • [SPARK-43067] [SC-127938][ss] Corregir la ubicación del archivo de recursos de clase de error en el conector de Kafka
  • [SPARK-43019] [SC-127844][sql] Mover orden a PhysicalDataType
  • [SPARK-43010] [SC-127759][python] Migrar errores de columna a clase de error
  • [SPARK-42840] [SC-127782][sql] Cambio _LEGACY_ERROR_TEMP_2004 del error a error interno
  • [SPARK-43041] [SC-127765][sql] Restaurar constructores de excepciones para compatibilidad en la API del conector
  • [SPARK-42939] [SC-127761][ss][CONNECT] API de Python de streaming principal para Spark Connect
  • [SPARK-42844] [ SC-127766][sql] Actualizar la clase _LEGACY_ERROR_TEMP_2008 de error a INVALID_URL
  • [SPARK-42316] [SC-127720][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723][connect][PYTHON] Migrar los errores de DataFrame de Spark Connect a una clase de errores
  • [SPARK-42983] [SC-127717][connect][PYTHON] Corregir createDataFrame para manejar adecuadamente la matriz numpy de dimensión cero
  • [SPARK-42955] [SC-127476][sql] Omitir classifyException y encapsular AnalysisException para SparkThrowable
  • [SPARK-42949] [ SC-127255][sql] Simplificación del código para NAAJ
  • [SPARK-43011] [SC-127577][sql] array_insert debería fallar con un índice 0
  • [SPARK-42974] [ SC-127487][core] Restaurar Utils.createTempDir para usar ShutdownHookManager y limpiar el método JavaUtils.createTempDir.
  • [SPARK-42964] [ SC-127585][sql] PosgresDialect '42P07' también significa que la tabla ya existe
  • [SPARK-42978] [ SC-127351][sql] Derby&PG: RENAME no puede calificar a new-table-Name con un nombre de esquema
  • [SPARK-37980] [SC-127668][sql] Acceder a Row_Index a través de _Metadata si es posible en pruebas
  • [SPARK-42655] [SC-127591][sql] Error incorrecto de referencia de columna ambigua
  • [SPARK-43009] [ SC-127596][sql] Parametrizado sql() con Any constantes
  • [SPARK-43026] [SC-127590][sql] Aplicar AQE con caché de tablas sin intercambio
  • [SPARK-42963] [SC-127576][sql] Expansión de SparkSessionExtensions para insertar reglas en el optimizador de las fases de consulta de AQE
  • [SPARK-42918] [SC-127357] Generalización del control de atributos de metadatos en FileSourceStrategy
  • [SPARK-42806] [SC-127452][spark-42811][CONNECT] Agregar Catalog soporte
  • [SPARK-42997] [SC-127535][sql] TableOutputResolver debe usar caminos de columnas correctos en mensajes de error para matrices y mapas
  • [SPARK-43006] [SC-127486][pyspark] Corrección de errores tipográficos en StorageLevel eq()
  • [SPARK-43005] [SC-127485][pyspark] Corrección del error tipográfico en pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457][core] Corrección de errores tipográficos en ResourceRequest.equals()
  • [SPARK-42907] [SC-126984][connect][PYTHON] Implementar funciones de Avro
  • [SPARK-42979] [SC-127272][sql] Definir constructores literales como palabras clave
  • [SPARK-42946] [SC-127252][sql] Redacte datos confidenciales anidados por sustitución de variables
  • [SPARK-42952] [ SC-127260][sql] Simplificación del parámetro de la regla de analizador PreprocessTableCreation y DataSourceAnalysis
  • [SPARK-42683] [LC-75] Cambiar automáticamente el nombre de las columnas de metadatos en conflicto
  • [SPARK-42853] [SC-126101][seguimiento] Corregir conflictos
  • [SPARK-42929] [SC-126748][connect] hacer que mapInPandas/mapInArrow admita "is_barrier"
  • [SPARK-42968] [ SC-127271][ss] Agregar opción para omitir el coordinador de confirmaciones como parte de la API StreamingWrite para orígenes o sumideros DSv2
  • [SPARK-42954] [SC-127261][python][CONNECT] Agregar YearMonthIntervalType al cliente python pySpark y Spark Connect
  • [SPARK-41359] [SC-127256][sql] Usar PhysicalDataType en lugar de DataType en UnsafeRow
  • [SPARK-42873] [SC-127262][sql] Definir tipos de Spark SQL como palabras clave
  • [SPARK-42808] [ SC-126302][core] Evite estar disponibleProcesadores cada vez en MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][sql] PlanSubqueries debe establecer InSubqueryExec#shouldBroadcast en verdadero
  • [SPARK-42896] [SC-126729][sql][PYTHON] Permitir la mapInPandas / mapInArrow ejecución del modo de barrera
  • [SPARK-42874] [ SC-126442][sql] Habilitación del nuevo marco de pruebas de archivos dorados para el análisis de todos los archivos de entrada
  • [SPARK-42922] [SC-126850][sql] Mover de random a SecureRandom
  • [SPARK-42753] [SC-126369] ReusedExchange hace referencia a nodos inexistentes
  • [SPARK-40822] [SC-126274][sql] Aliases estables de columnas derivadas
  • [SPARK-42908] [SC-126856][python] Generar RuntimeError cuando se requiere SparkContext pero no está inicializado
  • [SPARK-42779] [SC-126042][sql] Permitir que las escrituras V2 indiquen el tamaño de particiones de barajado recomendado
  • [SPARK-42914] [SC-126727][python] Reutilizar transformUnregisteredFunction para DistributedSequenceID.
  • [SPARK-42878] [ SC-126882][connect] La API de tabla de DataFrameReader también podría aceptar opciones
  • [SPARK-42927] [SC-126883][core] Cambiar el ámbito de acceso de o.a.spark.util.Iterators#size a private[util]
  • [SPARK-42943] [SC-126879][sql] Usar LONGTEXT en lugar de TEXT para StringType para lograr una longitud efectiva
  • [SPARK-37677] [ SC-126855][core] Unzip podría mantener los permisos de archivo
  • [SPARK-42891] [13.x][sc-126458][CONNECT][python] Implement CoGrouped Map API
  • [SPARK-41876] [SC-126849][connect][PYTHON] Implementar DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761][core][SQL] Cambiar el ámbito de acceso de ProtobufSerDe las implementaciones relacionadas a private[protobuf]
  • [SPARK-42819] [ SC-125879][ss] Se agregó soporte para configurar max_write_buffer_number y write_buffer_size en RocksDB utilizado en streaming
  • [SPARK-42924] [SC-126737][sql][CONNECT][python] Aclaración del comentario de los argumentos sql parametrizados
  • [SPARK-42748] [SC-126455][connect] Administración de artefactos del lado del servidor
  • [SPARK-42816] [SC-126365][connect] Admite el tamaño máximo de mensaje hasta 128 MB.
  • [SPARK-42850] [SC-126109][sql] Quitar reglas duplicadas CombineFilters en el optimizador
  • [SPARK-42662] [ SC-126355][connect][PS] Adición de un mensaje proto para pandas API en el índice predeterminado de Spark
  • [SPARK-42720] [ SC-126136][ps][SQL] Usa expresión para el índice predeterminado de secuencia distribuida en lugar del plan
  • [SPARK-42790] [SC-126174][sql] Abstract the excluded method for better test for JDBC docker tests (Abstraer el método excluido para mejores pruebas de Docker JDBC).
  • [SPARK-42900] [SC-126473][connect][PYTHON] Corregir createDataFrame para respetar la inferencia y los nombres de columna
  • [SPARK-42917] [SC-126657][sql] Corregir getUpdateColumnNullabilityQuery para DerbyDialect
  • [SPARK-42684] [ SC-125157][sql] v2 catalog no debe permitir el valor predeterminado de columna de forma predeterminada
  • [SPARK-42861] [SC-126635][sql] Use private[sql] en lugar de protected[sql] para evitar generar documentos de API
  • [SPARK-42920] [SC-126728][connect][PYTHON] Habilitación de pruebas para UDF con UDT
  • [SPARK-42791] [ SC-126617][sql] Crear un nuevo marco de pruebas de archivos dorados para el análisis
  • [SPARK-42911] [ SC-126652][python] Introducción a excepciones más básicas
  • [SPARK-42904] [SC-126634][sql] Compatibilidad con Char/Varchar para el catálogo JDBC
  • [SPARK-42901] [ SC-126459][connect][PYTHON] Mover StorageLevel a un archivo independiente para evitar posibles file recursively imports
  • [SPARK-42894] [SC-126451][connect] Compatibilidad con cache/persist/unpersist/storageLevelel cliente jvm de Spark connect
  • [SPARK-42792] [SC-125852][ss] Agregar compatibilidad con WRITE_FLUSH_BYTES para RocksDB que se usan en operadores con estado de streaming
  • [SPARK-41233] [SC-126441][connect][PYTHON] Agregar array_prepend al cliente python de Spark Connect
  • [SPARK-42681] [SC-125149][sql] Relajar la restricción de orden para el descriptor de columna ALTER TABLE ADD|REPLACE
  • [SPARK-42889] [SC-126367][connect][PYTHON] Implementación de caché, persistencia, despersistir y nivelDeAlmacenamiento
  • [SPARK-42824] [SC-125985][connect][PYTHON] Proporcione un mensaje de error claro para los atributos JVM no admitidos.
  • [SPARK-42340] [SC-126131][connect][PYTHON] Implementación de la API de asignación agrupada
  • [SPARK-42892] [SC-126454][sql] Mover sameType y métodos pertinentes fuera de DataType
  • [SPARK-42827] [SC-126126][connect] Compatibilidad con functions#array_prepend el cliente de Scala Connect
  • [SPARK-42823] [ SC-125987][sql] spark-sql shell admite espacios de nombres de varias partes para la inicialización
  • [SPARK-42817] [SC-125960][core] Registrar el nombre del servicio de mezcla una vez en el ApplicationMaster
  • [SPARK-42786] [SC-126438][connect] Selección tipada
  • [SPARK-42800] [ SC-125868][connect][PYTHON][ml] Implementación de la función ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439][sql] Compatibilidad de Codegen con HiveSimpleUDF
  • [SPARK-41233] [SC-126110][sql][PYTHON] Agregar array_prepend función
  • [SPARK-42864] [ SC-126268][ml][3.4] Hacer IsotonicRegression.PointsAccumulator privado
  • [SPARK-42876] [SC-126281][sql] La estructura física de tipo de datos de DataType debe ser privada[sql]
  • [SPARK-42101] [SC-125437][sql] Hacer que AQE admita InMemoryTableScanExec
  • [SPARK-41290] [SC-124030][sql] Compatibilidad con expresiones ALWAYS AS generadas para columnas en instrucciones create/replace table
  • [SPARK-42870] [SC-126220][connect] Mover toCatalystValue a connect-common
  • [SPARK-42247] [SC-126107][connect][PYTHON] Solucionar UserDefinedFunction para que tenga returnType
  • [SPARK-42875] [SC-126258][connect][PYTHON] Corregir toPandas para manejar correctamente los tipos de zona horaria y mapa
  • [SPARK-42757] [SC-125626][connect] Implementar textFile para DataFrameReader
  • [SPARK-42803] [SC-126081][core][SQL][ml] Use la función getParameterCount en lugar de getParameterTypes.length
  • [SPARK-42833] [SC-126043][sql] Refactorizar applyExtensions en SparkSession
  • [SPARK-41765] Revertir "[SC-123550][sql] Eliminar las métricas de escritura de v1...
  • [SPARK-42848] [SC-126105][connect][PYTHON] Implementar DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][connect][PYTHON] Soporta UserDefinedType en Spark Connect
  • [SPARK-42818] [SC-125861][connect][PYTHON] Implementar DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867][connect] Agregar client_type al mensaje protobuf AddArtifactsRequest
  • [SPARK-42772] [SC-125860][sql] Cambiar el valor predeterminado de las opciones de JDBC sobre el traspaso a true
  • [SPARK-42771] [SC-125855][sql] Refactorizar HiveGenericUDF
  • [SPARK-25050] [SC-123839][sql] Avro: escritura de uniones complejas
  • [SPARK-42765] [SC-125850][connect][PYTHON] Habilitación de la importación pandas_udf desde pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225][core] MapOutputTracker#getMapLocation debe respetar spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173][sql] Mejorar el rendimiento de la eliminación de particiones
  • [SPARK-42689] [ SC-125195][core][SHUFFLE] Permitir que ShuffleDriverComponent declare si los datos shuffle son almacenados de forma confiable
  • [SPARK-42726] [SC-125279][connect][PYTHON] Implementar DataFrame.mapInArrow
  • [SPARK-41765] [ SC-123550][sql] Extraer métricas de escritura v1 en WriteFiles
  • [SPARK-41171] [SC-124191][sql] Inferir e insertar el límite de ventana a través de la ventana si partitionSpec está vacío
  • [SPARK-42686] [ SC-125292][core] Posponer el formateo de los mensajes de depuración en TaskMemoryManager
  • [SPARK-42756] [ SC-125443][connect][PYTHON] Función auxiliar para convertir proto literal en valor en el cliente de Python
  • [SPARK-42793] [SC-125627][connect] connect módulo requiere build_profile_flags
  • [SPARK-42701] [SC-125192][sql] Agregar la try_aes_decrypt() función
  • [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame no funciona con un esquema que no acepta valores NULL
  • [SPARK-42733] [SC-125542][connect][Followup] Escribir sin ruta o tabla
  • [SPARK-42777] [SC-125525][sql] Compatibilidad con la conversión de estadísticas de catálogo TimestampNTZ a estadísticas de plan
  • [SPARK-42770] [ SC-125558][connect] Añadir truncatedTo(ChronoUnit.MICROS) para hacer que SQLImplicitsTestSuite en la tarea diaria de prueba de Java 17 pase a producción (GA).
  • [SPARK-42752] [ SC-125550][pyspark][SQL] Hacer que las excepciones de PySpark se puedan imprimir durante la inicialización.
  • [SPARK-42732] [SC-125544][pyspark][CONNECT] Implementación del método getActiveSession en la sesión de Spark Connect
  • [SPARK-42755] [ SC-125442][connect] Extraer la conversión de valores literales a connect-common
  • [SPARK-42747] [SC-125399][ml] Corregir el estado interno incorrecto de LoR y AFT
  • [SPARK-42740] [SC-125439][sql] Corrección del error en que la optimización mediante desplazamiento o paginación no es válida para algunos dialectos integrados
  • [SPARK-42745] [SC-125332][sql] La expresión mejorada AliasAwareOutputExpression funciona con DSv2
  • [SPARK-42743] [SC-125330][sql] Soporte para el análisis de columnas TimestampNTZ
  • [SPARK-42721] [SC-125371][connect] Interceptor de registro de RPC
  • [SPARK-42691] [SC-125397][connect][PYTHON] Implementar el dataset.semanticHash
  • [SPARK-42688] [SC-124922][connect] Cambiar el nombre de la solicitud proto connect client_id a session_id
  • [SPARK-42310] [SC-122792][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339][core] Optimizar rutinas Utils.bytesToString
  • [SPARK-42725] [SC-125296][connect][PYTHON] Hacer que LiteralExpression admita los parámetros de matriz
  • [SPARK-42702] [SC-125293][spark-42623][SQL] Compatibilidad con consultas parametrizadas en subconsulta y CTE
  • [SPARK-42697] [SC-125189][webui] Corrección de /api/v1/applications para devolver el tiempo de actividad total en lugar de 0 para el campo de duración
  • [SPARK-42733] [SC-125278][connect][PYTHON] Corregir DataFrameWriter.save para funcionar sin el parámetro de ruta
  • [SPARK-42376] [SC-124928][ss] Introducir la propagación de marcas de agua entre operadores
  • [SPARK-42710] [ SC-125205][connect][PYTHON] Cambiar el nombre de FrameMap proto a MapPartitions
  • [SPARK-37099] [ SC-123542][sql] Introducir el límite de grupo de Window para el filtro basado en rangos para optimizar el cálculo superior k
  • [SPARK-42630] [SC-125207][connect][PYTHON] Introduce UnparsedDataType y retrasa el análisis de la cadena DDL hasta que SparkConnectClient esté disponible.
  • [SPARK-42690] [SC-125193][connect] Implementación de funciones de análisis CSV/JSON para el cliente de Scala
  • [SPARK-42709] [SC-125172][python] Quitar la suposición de __file__ estar disponible
  • [SPARK-42318] [SC-122648][spark-42319][SQL] Asignar nombre a LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183][sql] Soporte para el tipo de datos del parser json “timestamp_ltz” como TimestampType
  • [SPARK-42722] [ SC-125175][connect][PYTHON] Python Connect def schema() no debe almacenar en caché el esquema
  • [SPARK-42643] [SC-125152][connect][PYTHON] Registrar funciones de agregación definidas por el usuario de Java
  • [SPARK-42656] [SC-125177][connect][Followup] Corrección del script spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Permitir que los dialectos jdbc invaliden la consulta usada para crear una tabla
  • [SPARK-41725] [SC-124396][connect] Ejecución diligente de DF.sql()
  • [SPARK-42687] [SC-124896][ss] Mejor mensaje de error para la operación no compatible pivot en Streaming
  • [SPARK-42676] [ SC-124809][ss] Escribir puntos de control temporales para las consultas de streaming en el sistema de archivos local, incluso si el FS predeterminado se establece de forma diferente
  • [SPARK-42303] [SC-122644][sql] Asignar nombre a _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][sql] Asegúrese de especificar al menos una unidad de tiempo tras el término "intervalo"
  • [SPARK-42649] [ SC-124576][core] Quitar el encabezado de licencia de Apache estándar de la parte superior de los archivos de código fuente de terceros
  • [SPARK-42611] [ SC-124395][sql] Insertar comprobaciones de longitud de tipo char/varchar para los campos internos durante la resolución
  • [SPARK-42419] [SC-124019][connect][PYTHON] Migrar al marco de gestión de errores para la API Column de Spark Connect.
  • [SPARK-42637] [SC-124522][connect] Añadir SparkSession.stop()
  • [SPARK-42647] [SC-124647][python] Cambiar alias para tipos en desuso y eliminados de numpy
  • [SPARK-42616] [ SC-124389][sql] SparkSQLCLIDriver solo cerrará la sesión de Hive iniciada.
  • [SPARK-42593] [SC-124405][ps] Marcar como obsoletas y retirar las APIs que se eliminarán en pandas 2.0.
  • [SPARK-41870] [SC-124402][connect][PYTHON] Corregir createDataFrame para controlar nombres de columna duplicados
  • [SPARK-42569] [SC-124379][connect] Lanzar excepciones para la API de sesión no compatible
  • [SPARK-42631] [SC-124526][connect] Compatibilidad con extensiones personalizadas en el cliente de Scala
  • [SPARK-41868] [SC-124387][connect][PYTHON] Corregir createDataFrame para admitir duraciones
  • [SPARK-42572] [SC-124171][sql][SS] Corrección del comportamiento de StateStoreProvider.validateStateRowFormat

Actualizaciones de mantenimiento

Consulte Actualizaciones de mantenimiento de Databricks Runtime 13.1.

Entorno del sistema

  • Sistema operativo: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
directorios de aplicaciones 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
"asttokens" 2.2.1 atributos 21.4.0 llamada de retorno 0.2.0
beautifulsoup4 4.11.1 negro 22.6.0 blanquear 4.1.0
intermitente 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 Haz clic 8.0.4 criptografía 37.0.1
ciclista 0.11.0 Cython 0.29.32 dbus-python 1.2.18
debugpy 1.5.1 decorador 5.1.1 defusedxml 0.7.1
distlib 0.3.6 Conversión de docstring a markdown 0,12 puntos de entrada 0,4
Ejecutar 1.2.0 visión general de las facetas 1.0.3 fastjsonschema 2.16.3
bloqueo de archivos 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 jeepney (autobús colectivo típico de Filipinas) 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
Cliente Jupyter 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 llavero 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
Mccabe 0.7.0 Mal sintonizado 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
cuaderno 6.4.12 numpy 1.21.5 oauthlib 3.2.0
empaquetado 21,3 Pandas 1.4.4 PandocFiltros 1.5.0
parso 0.8.3 especificación de ruta (pathspec) 0.9.0 chivo expiatorio 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Almohada 9.2.0
pepita 22.2.2 platformdirs 2.5.2 trazado 5.9.0
pluggy 1.0.0 Cliente-Prometeo 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 Python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-servidor 1.7.1 configuración de herramienta Python 1.2.2 pytz 2022.1
pyzmq 23.2.0 solicitudes 2.28.1 cuerda 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
biblioteca de visualización de datos de Python llamada seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 six (seis) 1.16.0 colador para sopa 2.3.1
ssh-import-id 5.11 stack-data 0.6.2 statsmodels (paquete de Python para análisis estadístico) 0.13.2
tenacidad 8.1.0 terminado 0.13.1 ruta de prueba 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 actualizaciones desatendidas 0,1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
codificaciones web 0.5.1 ¿Qué es el parche? 1.0.2 rueda 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan con la instantánea de Microsoft CRAN desde el 02-10-2023.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
flecha 10.0.1 askpass 1.1 asegúrate de que 0.2.1
retroportaciones 1.4.1 base 4.2.2 base64enc 0.1-3
poco 4.0.5 bit 64 4.0.5 mancha 1.2.3
bota 1.3-28 fermentar 1,0 - 8 Brio 1.1.3
escoba 1.0.3 bslib 0.4.2 cachemir 1.0.6
callr 3.7.3 cursor 6.0-93 cellranger (herramienta de análisis de datos celulares) 1.1.0
Chron 2.3-59 clase 7.3-21 Cli 3.6.0
clipr 0.8.0 reloj 0.6.1 conglomerado 2.1.4
codetools 0.2-19 espacio de colores 2.1-0 commonmark 1.8.1
compilador 4.2.2 configuración 0.3.1 cpp11 0.4.3
crayón 1.5.2 credenciales 1.3.2 rizo 5.0.0
tabla de datos 1.14.6 conjuntos de datos 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Descripción 1.4.2 devtools 2.4.5
diffobj 0.3.5 digerir 0.6.31 iluminado hacia abajo 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
elipsis 0.3.2 evaluar 0,20 fans 1.0.4
colores 2.1.1 mapa rápido 1.1.0 fontawesome 0.5.0
convictos 1.0.0 foreach 1.5.2 extranjero 0.8-82
fragua 0.2.0 Fs 1.6.1 futuro 1.31.0
aplicación futura 1.10.0 hacer gárgaras 1.3.0 genéricos 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globales 0.16.2
pegamento 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 elementos gráficos 4.2.2 grDevices 4.2.2
rejilla 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 Casco 1.2.0 refugio 2.5.1
más alto 0,10 HMS 1.1.2 herramientas de HTML 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 tejido 1.42
etiquetado 0.4.2 más tarde 1.3.0 retícula 0.20-45
lava 1.7.1 ciclo de vida 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Formato Markdown 1.5
MASA 7.3-58.2 Matriz 1.5-1 memorizar 2.0.1
métodos 4.2.2 mgcv 1.8-41 mimo 0,12
miniUI (Interfaz de Usuario) 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl (software de cifrado) 2.0.5 paralelo 4.2.2
Paralelamente 1.34.0 pilar 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 elogio 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 progreso 1.2.2
progressr 0.13.0 promesas 1.2.0.1 prototipo 1.0.0
intermediario 0.4-27 P.D 1.7.2 ronroneo 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
Bosque Aleatorio (randomForest) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 recetas 1.0.4
partido de revancha 1.0.1 segunda revancha 2.1.2 Telecontroles 2.4.2
ejemplo reproducible 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 balanzas 1.2.1
selectr 0.4-2 información de sesión 1.2.2 forma 1.4.6
brillante 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 espacial 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Estadísticas 4.2.2
estadísticas4 4.2.2 stringi 1.7.12 stringr 1.5.0
supervivencia 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 Formateo de texto 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 cambio de hora 0.2.0 fechaHora 4022.108
tinytex 0,44 herramientas 4.2.2 tzdb 0.3.0
verificador de URL 1.0.1 usa esto 2.1.6 utf8 1.2.3
utilidades 4.2.2 Identificador Único Universal (UUID) 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
bigotes 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 cremallera 2.2.2

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws SDK de AWS para Java - Soporte 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 nativos
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1 nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1 nativos
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone anotaciones_propensas_a_errores 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guayaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger perfilador 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuración 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity analizadores de univocidad 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 0,21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics núcleo de métricas 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics métricas y verificaciones de salud 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus cliente_simple_común 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activación 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.11
javolución javolución 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine escabeche 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr plantilla de cadenas 3.2.1
org.apache.ant hormiga 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant lanzador de aplicaciones Ant 1.9.16
org.apache.arrow formato de flecha 11.0.0
org.apache.arrow núcleo de memoria de flecha 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow vector de flecha 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator marco de trabajo para curadores 2.13.0
org.apache.curator curador-recetas 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de almacenamiento de hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims planificador-de-adaptadores-hive 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hiedra 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc calzos de orco 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4,22
org.apache.yetus anotaciones de audiencia 0.13.0
org.apache.zookeeper guardián de zoológico 3.6.3
org.apache.zookeeper Zookeeper-Jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-continuation 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty Seguridad de Jetty 9.4.50.v20221201
org.eclipse.jetty servidor Jetty 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty Aplicación web de Jetty 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket WebSocket-API 9.4.50.v20221201
org.eclipse.jetty.websocket cliente de websocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket servidor de websocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de contenedor de Jersey 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey común 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator validador de hibernación 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotaciones 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Cuñas 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatible con ScalaTest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1