Comparteix via


Databricks Runtime 13.2 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones compatibles de Databricks Runtime, consulte las notas de la versión y compatibilidad de Databricks Runtime.

En las siguientes notas de la versión, se proporciona información sobre Databricks Runtime 13.2, con tecnología de Apache Spark 3.4.0.

Databricks publicó esta versión en julio de 2023.

Nuevas características y mejoras

Control de registro de cambios para el almacén de estado de RocksDB

Puede habilitar los puntos de control del registro de cambios para reducir la duración del punto de control y la latencia de un extremo a otro para cargas de trabajo de streaming estructurado con estado. Databricks recomienda habilitar los puntos de control del registro de cambios para todas las consultas con estado de Structured Streaming. Consulte Habilitar puntos de control del registro de cambios.

Confiabilidad mejorada para VACUUM con clon superficial en el catálogo de Unity.

Cuando se usan tablas administradas de Unity Catalog para el origen y el destino de una operación de clonación superficial, Unity Catalog administra los archivos de datos subyacentes para mejorar la confiabilidad para el origen y el destino de la operación de clonación. La ejecución de VACUUM en el origen de un clon superficial no interrumpe la tabla clonada. Consulte clones superficiales del catálogo de Unity y vacío.

Compatibilidad con las UDF de Python en SQL

Ahora puede declarar funciones definidas por el usuario mediante Python en instrucciones CREATE FUNCTION de SQL en Unity Catalog. Consulte Funciones definidas por el usuario (UDF) en Unity Catalog.

Delta Lake UniForm para Apache Iceberg se encuentra en vista previa pública.

El formato universal de Delta Lake (UniForm) permite leer tablas delta con clientes de Apache Iceberg. Consulte Lectura de tablas Delta con clientes de Iceberg.

La agrupación dinámica en clústeres de Delta Lake está en versión preliminar pública

La agrupación en clústeres líquidos de Delta Lake reemplaza a la creación de particiones de tablas y ZORDER para simplificar las decisiones de diseño de datos y optimizar el rendimiento de las consultas. Consulte Uso de clústeres líquidos para tablas.

Compatibilidad con archivos en Azure Databricks

El soporte de archivo en Azure Databricks introduce una colección de capacidades que le permite utilizar directivas de ciclo de vida basadas en la nube en el almacenamiento de objetos en la nube que contienen tablas Delta para mover los archivos a niveles de almacenamiento de archivo. Consulte Compatibilidad con archivos en Azure Databricks.

IDENTIFIERsoporte con cláusulas

Use IDENTIFIER(:mytable) para parametrizar de forma segura los nombres de tabla, columna, función y esquema en varias instrucciones SQL.

Compatibilidad de Unity Catalog con Python y funciones definidas por el usuario (UDF) de Pandas

En Databricks Runtime 13.2 y versiones posteriores, las funciones definidas por el usuario (UDF) escritas en Python se admiten en clústeres que usan el modo de acceso estándar (anteriormente modo de acceso compartido) en un área de trabajo habilitada para catálogo de Unity. Esto incluye las Funciones Definidas por el Usuario (UDF) de Python y Pandas. Para más información sobre las UDF de Python, consulte Funciones escalares definidas por el usuario: Python.

Uso compartido de esquemas mediante Delta Sharing

Databricks Runtime 13.2 agrega la capacidad de usar ALTER SHARE <share-name> ADD SCHEMA <schema-name> para compartir un esquema completo mediante Delta Sharing, lo que proporciona al destinatario acceso a todas las tablas y vistas del esquema en el momento de compartirlo, junto con las tablas y vistas que se agregan al esquema en el futuro. Consulte Agregar esquemas a un recurso compartido y ALTER SHARE.

Correcciones de errores

  • Se ha corregido un error con el lector JSON, que provocaba que los registros se analizaran en modo PERMISSIVE si failOnUnknownFieldsmode estaba habilitado. Los registros ahora se quitan en modo de DROPMALFORMEDparser o se escriben en el badRecordsPath, si se establece alguna de estas opciones. FAILFAST produce un error si un tipo de columna no coincide.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • nodeenv de 1.7.0 a 1.8.0
  • Bibliotecas de R actualizadas:
  • Bibliotecas de Java actualizadas:
    • io.delta.delta-sharing-spark_2.12 de 0.6.7 a 0.7.0

Apache Spark

Databricks Runtime 13.2 incluye Apache Spark 3.4.0. En esta versión, se incluyen todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 13.1 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:

  • [SPARK-42750] [SC-133452][dbrrm-273] Compatibilidad con la instrucción Insertar por nombre
  • [SPARK-43133] [SC-133728] Soporte de Scala Client DataStreamWriter Foreach
  • [SPARK-43663] [SC-134135][connect][PS] Habilitar SeriesParityTests.test_compare
  • [SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Una corrección (NullOps|NumOps).(eq|ne) para Spark Connect.
  • [SPARK-44021] [SC-134109][sql] Añadir spark.sql.files.maxPartitionNum
  • [SPARK-43910] [SC-132936][sql] Eliminar __auto_generated_subquery_name de los IDs en los mensajes de error
  • [SPARK-43976] [ SC-133375][core] Controle el caso en el que modifiedConfigs no existe en los registros de eventos
  • [SPARK-32559] [SC-133992][sql] La corrección de la lógica de recorte no manejó correctamente los caracteres de control ASCII.
  • [SPARK-43421] [SC-132930][ss] Implementar puntos de control basados en el registro de cambios para el proveedor de RocksDB State Store
  • [SPARK-43594] [SC-133851][sql] Agregar LocalDateTime a anyToMicros
  • [SPARK-43884] [SC-133867] Marcadores de parámetros en DDL
  • [SPARK-43398] [ SC-133894][core] El tiempo de espera del ejecutor debe ser el máximo entre el tiempo de espera de inactividad de la mezcla y el tiempo de espera de rdd.
  • [SPARK-43610] [ SC-133892][connect][PS] Habilitar InternalFrame.attach_distributed_column en Spark Connect.
  • [SPARK-43971] [SC-133826][connect][PYTHON] Compatibilidad con createDataFrame de Python de forma de streaming
  • [SPARK-44006] [SC-133652][connect][PYTHON] Soporte para artefactos de caché
  • [SPARK-43790] [SC-133468][python][CONNECT][ml] Agregar copyFromLocalToFs API
  • [SPARK-43921] [SC-133461][protobuf] Generar archivos de descriptor protobuf en tiempo de compilación
  • [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implementar la compatibilidad con archivos en SparkSession.addArtifacts
  • [SPARK-44010] [SC-133744][python][SS][minor] Corrección del tipo rowsPerSecond de StreamingQueryProgress en Python
  • [SPARK-43768] [SC-132398][python][CONNECT] Compatibilidad con la administración de dependencias de Python en Python Spark Connect
  • [SPARK-43979] [ 13.X] Se revierte "[SC-133456][sql] CollectedMetrics debe tratarse como el mismo conjunto para el auto-join".
  • [SPARK-42290] [ SC-133696][sql] No se puede notificar el error de OOM cuando AQE está activado
  • [SPARK-43943] [SC-133648][sql][PYTHON][connect] Agregar funciones matemáticas de SQL a Scala y Python
  • [SPARK-43747] [SC-132047][python][CONNECT] Implementación de la compatibilidad con pyfile en SparkSession.addArtifacts
  • [SPARK-43700] [ SC-133726][spark-43701][CONNECT][ps] Habilitar TimedeltaOps.(sub|rsub) con Spark Connect
  • [SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Habilitar la prueba de paridad: test_line_plot, test_pie_plot.
  • [SPARK-43867] [SC-132895][sql] Mejorar los candidatos sugeridos para el atributo sin resolver
  • [SPARK-43901] [SC-133454][sql] Avro para soportar un tipo decimal personalizado basado en Long
  • [SPARK-43267] [SC-133024][jdbc] Controlar la columna desconocida definida por usuario como una cadena de texto en un array
  • [SPARK-43935] [SC-133637][sql][PYTHON][connect] Agregar funciones de xpath_* a Scala y Python
  • [SPARK-43916] [SC-133647][sql][PYTHON][connect] Agregar percentil a la API de Scala y Python
  • [SPARK-43717] [ SC-133455][connect] Scala client reduce agg no puede controlar particiones nulas para las entradas primitivas de scala.
  • [SPARK-43984] [ SC-133469][sql][PROTOBUF] Cambiar para utilizar foreach cuando map no genera resultados
  • [SPARK-43612] [SC-132011][connect][PYTHON] Implementación de SparkSession.addArtifact(s) en el cliente de Python
  • [SPARK-44002] [SC-133606][connect] Corrección del controlador de estados de artefactos
  • [SPARK-43933] [SC-133470][sql][PYTHON][connect] Agregar funciones de agregado de regresión lineal a Scala y Python
  • [SPARK-43920] [SC-133614][sql][CONNECT] Creación de un módulo sql/api
  • [SPARK-43979] [ SC-133456][sql] CollectedMetrics debe tratarse como la misma para la autocombinación.
  • [SPARK-43977] [SC-133373][connect] Corregir el resultado inesperado de la comprobación de dev/connect-jvm-client-mima-check
  • [SPARK-43985] [SC-133412][protobuf] Spark protobuf: corregir el error de enums como enteros
  • [SPARK-43930] [SC-133406][sql][PYTHON][connect] Agregar funciones unix_* a Scala y Python
  • [SPARK-43807] [SC-132545][sql] Migrar _LEGACY_ERROR_TEMP_1269 a PARTITION_SCHEMA_IS_EMPTY
  • [SPARK-43956] [SC-133123][sql] Solucionar el error que no muestra la expresión SQL de la columna para Percentile[Cont|Disc]
  • [SPARK-42626] [SC-133248][connect] Agregar iterador destructivo para SparkResult
  • [SPARK-43333] [SC-132898][sql] Permitir que Avro convierta el tipo de unión en SQL con el nombre de campo estable con el tipo
  • [SPARK-43953] [ SC-133134][connect] Remove pass
  • [SPARK-43970] [SC-133403][python][CONNECT] Ocultar métodos de dataframe no admitidos de la finalización automática
  • [SPARK-43973] [ SC-133272][ss][UI] Structured Streaming UI debe mostrar correctamente consultas fallidas
  • [SPARK-42577] [ SC-125445][core] Agregar limitación de intentos máximos para las fases para evitar posibles reintentos infinitos
  • [SPARK-43841] [ SC-132699][sql] Manejar atributos candidatos sin prefijo en StringUtils#orderSuggestedIdentifiersBySimilarity
  • [SPARK-41497] [SC-124795][core][Seguimiento] Modificar la configuración para que la versión sea compatible con 3.5.0
  • [SPARK-37942] [SC-130983][core][SQL] Migrar clases de error
  • [SPARK-43898] [ SC-132926][core] Registrar automáticamente immutable.ArraySeq$ofRef en KryoSerializer para Scala 2.13
  • [SPARK-43775] [SC-132891][sql] DataSource V2: Permitir la representación de actualizaciones como eliminaciones e inserciones
  • [SPARK-43817] [SC-132662][spark-43702][PYTHON] Admite UserDefinedType en createDataFrame desde pandas DataFrame y toPandas
  • [SPARK-43418] [SC-132753][sc-130685][CONNECT] Agregar SparkSession.Builder.getOrCreate
  • [SPARK-43549] [ SC-132383][sql] Convierta _LEGACY_ERROR_TEMP_0036 en INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
  • [SPARK-41497] [SC-124644][core] Corrección del recuento del acumulador en el caso de la tarea de reintento con caché RDD
  • [SPARK-43892] [SC-133006][python] Agregar compatibilidad con autocompletar para df[|] en pyspark.sql.dataframe.DataFrame
  • [SPARK-43881] [SC-133140][sql][PYTHON][connect] Agregar un patrón opcional para Catalog.listDatabases
  • [SPARK-43205] [SC-132623] IDENTIFIER cláusula
  • [SPARK-43545] [SC-132378][sql][PYTHON] Compatibilidad con el tipo de marca de tiempo anidada
  • [SPARK-43949] [SC-133048][python] Actualización de cloudpickle a 2.2.1
  • [SPARK-43760] [SC-132809][sql] Nulabilidad de los resultados de la subconsulta escalar
  • [SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Corrección TimedeltaOps para Spark Connect
  • [SPARK-43895] [ SC-132897][connect][GO] Preparar la ruta de acceso del paquete de Go
  • [SPARK-43894] [SC-132892][python] Corrección del error en df.cache()
  • [SPARK-43509] [SC-131625][connect] Compatibilidad con la creación de varias sesiones de Spark Connect
  • [SPARK-43882] [SC-132888][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2122
  • [SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Corrección NumOps para Spark Connect
  • [SPARK-43604] [ SC-132165][sql] Refactorización INVALID_SQL_SYNTAX para evitar insertar el texto del error en el código fuente
  • [SPARK-43859] [SC-132883][sql] Sobrescribir el método toString en LateralColumnAliasReference
  • [SPARK-43792] [SC-132939][sql][PYTHON][connect] Agregar patrón opcional para Catalog.listCatalogs
  • [SPARK-43353] Revertir "[SC-132734][python] Migrar los errores de sesión restantes a la clase de error"
  • [SPARK-43375] [SC-130309][connect] Mejorar los mensajes de error de INVALID_CONNECT_URL
  • [SPARK-43863] [SC-132721][connect] Quitar redundancia toSeq de SparkConnectPlanner para Scala 2.13
  • [SPARK-43676] [ SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Solución DatetimeOps para Spark Connect
  • [SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Corrección BinaryOps para Spark Connect
  • [SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Corrección NullOps para Spark Connect
  • [SPARK-43782] [SC-132885][core] Compatibilidad con la configuración de nivel de registro con Spark estática
  • [SPARK-43132] [SC-131623] [SS] [CONNECT] API foreach() de DataStreamWriter de cliente Python
  • [SPARK-43290] [SC-131961][sql] Agrega compatibilidad con AES IV y AAD a ExpressionImplUtils
  • [SPARK-43795] [SC-132532][connect] Quitar parámetros no usados para SparkConnectPlanner
  • [SPARK-42317] [SC-129194][sql] Asignar nombre específico a _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
  • [SPARK-43597] [SC-131960][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_0017
  • [SPARK-43834] [SC-132679][sql] Utilizar clases de error para los errores de compilación de ResolveDefaultColumns
  • [SPARK-43749] [ SC-132423][spark-43750][SQL] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_240[4-5]
  • [SPARK-43576] [ SC-132533][core] Quitar declaraciones sin usar del módulo Core
  • [SPARK-43314] [SC-129970][connect][PYTHON] Migración de errores de cliente de Spark Connect a la clase de error
  • [SPARK-43799] [SC-132715][python] Agregar la opción binaria de descriptor en la API Protobuf de PySpark
  • [SPARK-43837] [SC-132678][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_103[1-2]
  • [SPARK-43862] [SC-132750][sql] Asignar un nombre a la clase de error LEGACY_ERROR_TEMP(1254 y 1315)
  • [SPARK-43886] [SC-132808][python] Acepte la tupla genérica como sugerencias de escritura de UDF de Pandas
  • [SPARK-43530] [ SC-132653][protobuf] Leer el archivo de descriptor solo una vez
  • [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_241[1-7]
  • [SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Corrección CategoricalOps para Spark Connect
  • [SPARK-39979] [ SC-132685][sql] Agregar opción para usar vectores de ancho variable grande para las operaciones UDF de flecha
  • [SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Corrección StringOps para Spark Connect
  • [SPARK-43353] [SC-132734][python] Migre los errores de sesión restantes a la clase de error.
  • [SPARK-43815] [SC-132781][sql] Agregar to_varchar alias para to_char
  • [SPARK-43543] [13.x][sc-131839][PYTHON] Corrección del comportamiento de MapType anidado en UDF de Pandas
  • [SPARK-43361] [SC-131789][protobuf] actualizar la documentación para errores relacionados con la serialización de enumeraciones
  • [SPARK-43740] [SC-132035][python][CONNECT] Ocultar métodos no admitidos session de la autocompletación
  • [SPARK-43022] [SC-131681][connect] Compatibilidad con funciones protobuf para el cliente de Scala
  • [SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrar NotImplementedError a PySparkNotImplementedError
  • [SPARK-43860] [ SC-132713][sql] Habilite la recursividad de cola siempre que sea posible.
  • [SPARK-42421] [SC-132695][core] Usar las utilidades para obtener el interruptor de la asignación dinámica utilizada en el punto de control local.
  • [SPARK-43590] [SC-132012][connect] Hacer connect-jvm-client-mima-check que admita la comprobación de mima con el módulo protobuf
  • [SPARK-43315] [13.x][connect][PYTHON][ss] Migrar los errores restantes de DataFrame(Reader|Writer) a la clase de error
  • [SPARK-43361] [ SC-130980][protobuf] spark-protobuf: permitir la serialización con enums como enteros
  • [SPARK-43789] [ SC-132397][r] Usa 'spark.sql.execution.arrow.maxRecordsPerBatch' en R createDataFrame con Arrow de forma predeterminada
  • [SPARK-43596] [SC-126994][sql] Gestionar el predicado IsNull en rewriteDomainJoins
  • [SPARK-42249] [ SC-122565][sql] Refinar el vínculo html para obtener documentación en los mensajes de error.
  • [SPARK-43128] [ SC-131628][connect][SS] Hacer que recentProgress y lastProgress devuelvan StreamingQueryProgress de manera coherente con la API nativa de Scala
  • [SPARK-43387] [ SC-130448][sql] Proporcione un código de error legible para _LEGACY_ERROR_TEMP_1168.
  • [SPARK-43334] [SC-132358] [UI] Se corrigió el error al serializar ExecutorPeakMetricsDistributions en la respuesta de la API
  • [SPARK-42958] [SC-131475][connect] Refactorizar connect-jvm-client-mima-check para admitir la comprobación de mima con el módulo avro
  • [SPARK-43591] [SC-131977][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_0013
  • [SPARK-38464] [SC-132211][core] Usar clases de error en org.apache.spark.io
  • [SPARK-43759] [SC-132189][sql][PYTHON] Exponer TimestampNTZType en pyspark.sql.types
  • [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_240[1-3]
  • [SPARK-43719] [SC-132016][webui] Manejar el campo missing row.excludedInStages
  • [SPARK-42956] [SC-127257][connect] Compatibilidad con funciones avro para el cliente de Scala
  • [SPARK-43487] [SC-131975][sql] Corregir el mensaje de error CTE anidado
  • [SPARK-43265] [SC-129653] Traslado del marco de error a un módulo de utilidades comunes
  • [SPARK-40912] [SC-131547][core]Impacto de las excepciones en KryoDeserializationStream
  • [SPARK-43583] [SC-131976][core] obtener MergedBlockedMetaReqHandler del delegado en lugar de la instancia de SaslRpcHandler
  • [SPARK-42996] [SC-131997][connect][PS][ml] Crear y asignar tickets adecuados de JIRA para todas las pruebas con errores.
  • [SPARK-38469] [SC-131425][core] Use la clase de error en org.apache.spark.network
  • [SPARK-43718] [SC-132014][sql] Establecer la anulabilidad correctamente para las claves en uniones USING
  • [SPARK-43502] [ SC-131419][python][CONNECT] DataFrame.drop debe aceptar una columna vacía.
  • [SPARK-43743] [ SC-132038][sql] Puerto HIVE-12188(DoAs no funciona correctamente en HS2 protegido sin kerberos)
  • [SPARK-43598] [SC-131929][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_2400
  • [SPARK-43138] [SC-131031][core] Corregir ClassNotFoundException durante la migración
  • [SPARK-43360] [SC-131526][ss][CONNECT] Cliente de Scala StreamingQueryManager
  • [SPARK-38467] [SC-131025][core] Usar clases de error en org.apache.spark.memory
  • [SPARK-43345] [SC-131790][spark-43346][SQL] Cambiar el nombre de las clases de error LEGACY_ERROR_TEMP[0041|1206]
  • [SPARK-42815] [ SC-126450][sql] Soporte de eliminación de subexpresión para expresión de atajo
  • [SPARK-38462] [SC-130449][core] Agregar clase de error INTERNAL_ERROR_EXECUTOR
  • [SPARK-43589] [SC-131798][sql] Corregir cannotBroadcastTableOverMaxTableBytesError para usar bytesToString
  • [SPARK-43539] [SC-131830][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_0003
  • [SPARK-43157] [SC-131688][sql] Clonar el plan en caché de InMemoryRelation para evitar que el plan clonado haga referencia a los mismos objetos.
  • [SPARK-43309] [ SC-129746][spark-38461][CORE] Extender INTERNAL_ERROR con categorías y agregar la clase de error INTERNAL_ERROR_BROADCAST
  • [SPARK-43281] [SC-131370][sql] Corregir que el escritor concurrente no actualiza las métricas de archivo.
  • [SPARK-43383] [SC-130660][sql] Agregar rowCount estadísticas a LocalRelation
  • [SPARK-43574] [ SC-131739][python][SQL] Compatibilidad para establecer el ejecutable de Python para las API de funciones UDF y pandas en los trabajadores durante el tiempo de ejecución
  • [SPARK-43569] [SC-131694][sql] Quitar solución alternativa para HADOOP-14067
  • [SPARK-43183] [SC-128938][ss][13.x] Introduce una nueva devolución de llamada "onQueryIdle" a StreamingQueryListener
  • [SPARK-43528] [SC-131531][sql][PYTHON] Compatibilidad con nombres de campo duplicados en createDataFrame con DataFrame pandas
  • [SPARK-43548] [ SC-131686][ss] Eliminar la solución alternativa para HADOOP-16255
  • [SPARK-43494] [SC-131272][core] Llame a replicate() directamente para HdfsDataOutputStreamBuilder en lugar de usar reflexión en SparkHadoopUtil#createFile
  • [SPARK-43471] [ SC-131063][core] Manejar la falta de hadoopProperties y metricsProperties
  • [SPARK-42899] [SC-126456][sql] Corregir DataFrame.to(schema) para controlar el caso en el que hay un campo anidado que no acepta valores nulos dentro de un campo que sí acepta valores nulos.
  • [SPARK-43302] [SC-129747][sql] Convertir UDAF de Python en una función de agregación
  • [SPARK-43223] [SC-131270][connect] Agregaciones tipadas, funciones de agregación, RelationalGroupedDataset#as
  • [SPARK-43482] [SC-131375][ss] Expanda QueryTerminatedEvent para contener la clase de error si existe en la excepción
  • [SPARK-43359] [SC-131463][sql] Eliminar de la tabla de Hive debería generar "UNSUPPORTED_FEATURE.TABLE_OPERATION"
  • [SPARK-43284] [SC-130313] Volver a utilizar cadenas codificadas en URL
  • [SPARK-43492] [SC-131227][sql] Agregar alias de función de 3 argumentos DATE_ADD y DATE_DIFF
  • [SPARK-43473] [SC-131372][python] Compatibilidad con el tipo de estructura createDataFrame desde pandas DataFrame
  • [SPARK-43386] [SC-131110][sql] Mejora de la lista de columnas/atributos sugeridos en UNRESOLVED_COLUMN.WITH_SUGGESTION clase de error
  • [SPARK-43443] [SC-131332][sql] Agregar pruebas comparativas para la inferencia de tipo Timestamp cuando se usa un valor no válido
  • [SPARK-43518] [SC-131420][sql] Convertir _LEGACY_ERROR_TEMP_2029 en INTERNAL_ERROR
  • [SPARK-42604] [SC-130648][connect] Implementar functions.typedlit
  • [SPARK-42323] [ES-669513] Revertir "[SC-123479][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2332"
  • [SPARK-43357] [SC-130649][sql] Fecha de cita de tipo de filtro
  • [SPARK-43410] [SC-130526][sql] Mejorar el bucle vectorizado para los skipValues agrupados de manera compacta
  • [SPARK-43441] [ SC-130995][core] makeDotNode no debe producir un error cuando DeterministicLevel está ausente
  • [SPARK-43324] [SC-130455][sql] Gestionar UPDATE comandos para fuentes basadas en Delta
  • [SPARK-43272] [SC-131168][core] Llamar directamente createFile en lugar de reflexión
  • [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migración de errores de sesión de Spark Connect a la clase de error
  • [SPARK-43405] [SC-130987][sql] Quitar inútil getRowFormatSQL, inputRowFormatSQL, outputRowFormatSQL método
  • [SPARK-43447] [SC-131017][r] Compatibilidad con R 4.3.0
  • [SPARK-43425] [SC-130981][sql] Agregar TimestampNTZType a ColumnarBatchRow
  • [SPARK-41532] [SC-130523][connect][CLIENT] Agregar comprobación de las operaciones que implican varios marcos de datos
  • [SPARK-43262] [SC-129270][connect][SS][python] Migración de errores de Spark Connect Structured Streaming a la clase de error
  • [SPARK-42992] [13.x][sc-129465][PYTHON] Introducción de PySparkRuntimeError
  • [SPARK-43422] [SC-130982][sql] Mantener etiquetas en LogicalRelation con salida de metadatos
  • [SPARK-43390] [ SC-130646][sql] DSv2 permite que CTAS/RTAS reserve la nulabilidad del esquema.
  • [SPARK-43430] [ SC-130989][connect][PROTO] ExecutePlanRequest admite opciones de solicitud arbitrarias.
  • [SPARK-43313] [SC-130254][sql] Agregar los valores predeterminados de columna que faltan a las acciones MERGE INSERT
  • [SPARK-42842] [SC-130438][sql] Combine la clase de error _LEGACY_ERROR_TEMP_2006 en REGEX_GROUP_INDEX
  • [SPARK-43377] [SC-130405][sql] Habilitar spark.sql.thriftServer.interruptOnCancel de forma predeterminada
  • [SPARK-43292] [ SC-130525][core][CONNECT] Mover ExecutorClassLoader al módulo core y simplificar Executor#addReplClassLoaderIfNeeded
  • [SPARK-43040] [SC-130310][sql] Mejorar la compatibilidad con el tipo TimestampNTZ en el origen de datos JDBC
  • [SPARK-43343] [ SC-130629][ss] FileStreamSource debe deshabilitar una comprobación de glob de archivo adicional al crear DataSource
  • [SPARK-43312] [ SC-130294][protobuf] Opción para convertir cualquier campo en JSON
  • [SPARK-43404] [ SC-130586][ss] Omitir la reutilización del archivo sst para la misma versión del almacén de estado de RocksDB para evitar errores de coincidencia de identificador
  • [SPARK-43397] [ SC-130614][core] Registrar la duración de la desmantelación del ejecutor en el método executorLost
  • [SPARK-42388] [SC-128568][sql] Evitar que el lector vectorizado lea el pie de parquet dos veces
  • [SPARK-43306] [13.x][sc-130320][PYTHON] Migrar ValueError de los tipos de Spark SQL a la clase de error
  • [SPARK-43337] [ SC-130353][ui][3.4] Los iconos de flecha asc/desc para la columna de ordenación no se muestran en la columna de tabla
  • [SPARK-43279] [SC-130351][core] Limpieza de miembros no utilizados de SparkHadoopUtil
  • [SPARK-43250] [SC-130147][sql] Reemplace la clase _LEGACY_ERROR_TEMP_2014 de error por un error interno.
  • [SPARK-43363] [SC-130299][sql][PYTHON] Realizar una llamada astype al tipo de categoría solo cuando no se proporciona el tipo de flecha
  • [SPARK-43261] [SC-130154][python] Migrar TypeError de tipos SQL de Spark a una clase de error
  • [SPARK-41971] [SC-130230][sql][PYTHON] Agregar una configuración para la conversión de pandas sobre cómo manejar los tipos de estructuras
  • [SPARK-43381] [SC-130464][connect] Convertir 'transformStatCov' en vago
  • [SPARK-43362] [SC-130481][sql] Control especial del tipo JSON para el conector MySQL
  • [SPARK-42843] [SC-130196][sql] Actualización de la clase de error _LEGACY_ERROR_TEMP_2007 a REGEX_GROUP_INDEX
  • [SPARK-42585] [SC-129968][connect] Streaming de relaciones locales
  • [SPARK-43181] [SC-130476][sql] Mostrar URL de la interfaz de usuario en el shell
  • [SPARK-43051] [SC-130194][connect] Agregar opción para emitir valores predeterminados
  • [SPARK-43204] [SC-129296][sql] Alinear asignaciones MERGE con atributos de tabla
  • [SPARK-43348] [SC-130082][python] Compatibilidad Python 3.8 con PyPy3
  • [SPARK-42845] [SC-130078][sql] Actualizar la clase de error _LEGACY_ERROR_TEMP_2010 a InternalError
  • [SPARK-43211] [SC-128978][hive] Eliminación de la compatibilidad con Hadoop2 en IsolatedClientLoader

Entorno del sistema

  • Sistema operativo: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
directorios de aplicaciones 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
"asttokens" 2.2.1 atributos 21.4.0 llamada de retorno 0.2.0
beautifulsoup4 4.11.1 negro 22.6.0 blanquear 4.1.0
intermitente 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 Haz clic 8.0.4 criptografía 37.0.1
ciclista 0.11.0 Cython 0.29.32 SDK de Databricks 0.1.6
dbus-python 1.2.18 debugpy 1.5.1 decorador 5.1.1
defusedxml 0.7.1 distlib 0.3.6 Conversión de docstring a markdown 0,12
puntos de entrada 0,4 Ejecutar 1.2.0 visión general de facetas 1.0.3
fastjsonschema 2.16.3 bloqueo de archivo 3.12.0 fonttools 4.25.0
googleapis-common-protos 1.56.4 grpcio 1.48.1 grpcio-status 1.48.1
httplib2 0.20.2 idna 3.3 importlib-metadata 4.6.4
ipykernel 6.17.1 ipython 8.10.0 ipython-genutils 0.2.0
ipywidgets 7.7.2 Jedi 0.18.1 jeepney (autobús colectivo típico de Filipinas) 0.7.1
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.2.0
jsonschema 4.16.0 Cliente Jupyter 7.3.4 jupyter_core 4.11.2
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 llavero 23.5.0
kiwisolver 1.4.2 launchpadlib 1.10.16 lazr.restfulclient 0.14.4
lazr.uri 1.0.6 MarkupSafe 2.0.1 matplotlib 3.5.2
matplotlib-inline 0.1.6 Mccabe 0.7.0 Mal sintonizado 0.8.4
more-itertools 8.10.0 mypy-extensions 0.4.3 nbclient 0.5.13
nbconvert 6.4.4 nbformat 5.5.0 nest-asyncio 1.5.5
nodeenv 1.8.0 cuaderno 6.4.12 numpy 1.21.5
oauthlib 3.2.0 empaquetado 21,3 Pandas 1.4.4
PandocFiltros 1.5.0 parso 0.8.3 especificación de ruta (pathspec) 0.9.0
chivo expiatorio 0.5.2 pexpect 4.8.0 pickleshare 0.7.5
Almohada 9.2.0 pepita 22.2.2 platformdirs 2.5.2
trazado 5.9.0 pluggy 1.0.0 Cliente-Prometeo 0.14.1
prompt-toolkit 3.0.36 protobuf 3.19.4 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 8.0.0 pycparser 2.21 pydantic 1.10.6
pyflakes 3.0.1 Pygments 2.11.2 PyGObject 3.42.1
PyJWT 2.3.0 pyodbc 4.0.32 pyparsing 3.0.9
pyright 1.1.294 pyrsistent 0.18.0 Python-dateutil 2.8.2
python-lsp-jsonrpc 1.0.0 python-lsp-servidor 1.7.1 configuración de herramienta Python 1.2.2
pytz 2022.1 pyzmq 23.2.0 solicitudes 2.28.1
cuerda 1.7.0 s3transfer 0.6.0 scikit-learn 1.1.1
scipy 1.9.1 biblioteca de visualización de datos de Python llamada seaborn 0.11.2 SecretStorage 3.3.1
Send2Trash 1.8.0 setuptools 63.4.1 Seis 1.16.0
colador para sopa 2.3.1 ssh-import-id 5.11 stack-data 0.6.2
statsmodels (paquete de Python para análisis estadístico) 0.13.2 tenacidad 8.1.0 terminado 0.13.1
ruta de prueba 0.6.0 threadpoolctl 2.2.0 tokenize-rt 4.2.1
tomli 2.0.1 tornado 6.1 traitlets 5.1.1
typing_extensions 4.3.0 ujson 5.4.0 actualizaciones desatendidas 0,1
urllib3 1.26.11 virtualenv 20.16.3 wadllib 1.3.6
wcwidth 0.2.5 codificaciones web 0.5.1 ¿Qué es el parche? 1.0.2
rueda 0.37.1 widgetsnbextension 3.6.1 yapf 0.31.0
zipp 1.0.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 10-02-2023.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
flecha 10.0.1 askpass 1.1 asegúrate de que 0.2.1
retroportaciones 1.4.1 base 4.2.2 base64enc 0.1-3
poco 4.0.5 bit 64 4.0.5 mancha 1.2.3
bota 1.3-28 fermentar 1,0 - 8 Brio 1.1.3
escoba 1.0.3 bslib 0.4.2 cachemir 1.0.6
callr 3.7.3 cursor 6.0-93 cellranger (herramienta de análisis de datos celulares) 1.1.0
Chron 2.3-59 clase 7.3-21 Cli 3.6.0
clipr 0.8.0 reloj 0.6.1 conglomerado 2.1.4
codetools 0.2-19 espacio de colores 2.1-0 commonmark 1.8.1
compilador 4.2.2 configuración 0.3.1 cpp11 0.4.3
crayón 1.5.2 credenciales 1.3.2 rizo 5.0.0
tabla de datos 1.14.6 conjuntos de datos 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Descripción 1.4.2 devtools 2.4.5
diffobj 0.3.5 digerir 0.6.31 iluminado hacia abajo 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
elipsis 0.3.2 evaluar 0,20 fans 1.0.4
colores 2.1.1 mapa rápido 1.1.0 fontawesome 0.5.0
convictos 1.0.0 foreach 1.5.2 extranjero 0.8-82
fragua 0.2.0 Fs 1.6.1 futuro 1.31.0
aplicación futura 1.10.0 hacer gárgaras 1.3.0 genéricos 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globales 0.16.2
pegamento 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 gráficos 4.2.2 grDevices 4.2.2
rejilla 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 Casco 1.2.0 refugio 2.5.1
más alto 0,10 HMS 1.1.2 herramientas de HTML 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
Identificadores 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteradores 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 tejido 1.42
etiquetado 0.4.2 más tarde 1.3.0 retícula 0.20-45
lava 1.7.1 ciclo de vida 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Formato Markdown 1.5
MASA 7.3-58.2 Matriz 1.5-1 memorizar 2.0.1
métodos 4.2.2 mgcv 1.8-41 mimo 0,12
miniUI (Interfaz de Usuario) 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl (software de cifrado) 2.0.5 paralelo 4.2.2
Paralelamente 1.34.0 pilar 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 elogio 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 progreso 1.2.2
progressr 0.13.0 promesas 1.2.0.1 prototipo 1.0.0
intermediario 0.4-27 P.D 1.7.2 ronroneo 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
Bosque Aleatorio (randomForest) 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 recetas 1.0.4
partido de revancha 1.0.1 segunda revancha 2.1.2 Telecontroles 2.4.2
ejemplo reproducible 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 balanzas 1.2.1
selectr 0.4-2 información de sesión 1.2.2 forma 1.4.6
brillante 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 espacial 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 estadísticas 4.2.2
estadísticas4 4.2.2 stringi 1.7.12 stringr 1.5.0
supervivencia 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 formateo de texto 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 cambio de hora 0.2.0 fechaHora 4022.108
tinytex 0,44 herramientas 4.2.2 tzdb 0.3.0
verificador de URL 1.0.1 utiliza esto 2.1.6 utf8 1.2.3
utilidades 4.2.2 Identificador Único Universal (UUID) 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
bigotes 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 cremallera 2.2.2

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws SDK de AWS para Java - Soporte 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 nativos
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1 nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1 nativos
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone anotaciones propensas a errores 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guayaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger perfilador 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuración 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity analizadores de univocidad 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 0,21
io.delta delta-sharing-spark_2.12 0.7.0
io.dropwizard.metrics núcleo de métricas 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics métricas-verificaciones de salud 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus cliente_simple_común 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activación 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.11
javolución javolución 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine escabeche 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.29
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr plantilla de cadenas 3.2.1
org.apache.ant hormiga 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant lanzador de aplicaciones Ant 1.9.16
org.apache.arrow formato de flecha 11.0.0
org.apache.arrow núcleo de memoria de flecha 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow vector de flecha 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curador-cliente 2.13.0
org.apache.curator marco de trabajo para curadores 2.13.0
org.apache.curator curador-recetas 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de almacenamiento de hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims planificador-de-adaptadores-hive 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hiedra 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos Mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc calzos de orco 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4,22
org.apache.yetus anotaciones de audiencia 0.13.0
org.apache.zookeeper cuidador de zoológico 3.6.3
org.apache.zookeeper Zookeeper-Jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-continuation 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty Seguridad de Jetty 9.4.50.v20221201
org.eclipse.jetty servidor Jetty 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty Aplicación web de Jetty 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket API de WebSocket 9.4.50.v20221201
org.eclipse.jetty.websocket cliente de websocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket servidor de websocket 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de contenedor de Jersey 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator validador de hibernación 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains anotaciones 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Cuñas 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatible con ScalaTest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1