Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Nota:
El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones compatibles de Databricks Runtime, consulte las notas de la versión y compatibilidad de Databricks Runtime.
En las siguientes notas de la versión, se proporciona información sobre Databricks Runtime 13.2, con tecnología de Apache Spark 3.4.0.
Databricks publicó esta versión en julio de 2023.
Nuevas características y mejoras
- Control de registro de cambios para el almacén de estado de RocksDB
- Confiabilidad mejorada para VACUUM con clon superficial en el catálogo de Unity.
- Compatibilidad con UDF de Python en SQL
- Delta Lake UniForm para Apache Iceberg está en versión preliminar pública
- La agrupación dinámica en clústeres de Delta Lake está en versión preliminar pública
- Compatibilidad con archivos en Azure Databricks
- IDENTIFIER cláusula admite
- Compatibilidad de Unity Catalog con Python y funciones definidas por el usuario de Pandas (UDF)
- Uso compartido de esquemas mediante Delta Sharing
- Correcciones de errores
Control de registro de cambios para el almacén de estado de RocksDB
Puede habilitar los puntos de control del registro de cambios para reducir la duración del punto de control y la latencia de un extremo a otro para cargas de trabajo de streaming estructurado con estado. Databricks recomienda habilitar los puntos de control del registro de cambios para todas las consultas con estado de Structured Streaming. Consulte Habilitar puntos de control del registro de cambios.
Confiabilidad mejorada para VACUUM con clon superficial en el catálogo de Unity.
Cuando se usan tablas administradas de Unity Catalog para el origen y el destino de una operación de clonación superficial, Unity Catalog administra los archivos de datos subyacentes para mejorar la confiabilidad para el origen y el destino de la operación de clonación. La ejecución de VACUUM en el origen de un clon superficial no interrumpe la tabla clonada. Consulte clones superficiales del catálogo de Unity y vacío.
Compatibilidad con las UDF de Python en SQL
Ahora puede declarar funciones definidas por el usuario mediante Python en instrucciones CREATE FUNCTION de SQL en Unity Catalog. Consulte Funciones definidas por el usuario (UDF) en Unity Catalog.
Delta Lake UniForm para Apache Iceberg se encuentra en vista previa pública.
El formato universal de Delta Lake (UniForm) permite leer tablas delta con clientes de Apache Iceberg. Consulte Lectura de tablas Delta con clientes de Iceberg.
La agrupación dinámica en clústeres de Delta Lake está en versión preliminar pública
La agrupación en clústeres líquidos de Delta Lake reemplaza a la creación de particiones de tablas y ZORDER para simplificar las decisiones de diseño de datos y optimizar el rendimiento de las consultas. Consulte Uso de clústeres líquidos para tablas.
Compatibilidad con archivos en Azure Databricks
El soporte de archivo en Azure Databricks introduce una colección de capacidades que le permite utilizar directivas de ciclo de vida basadas en la nube en el almacenamiento de objetos en la nube que contienen tablas Delta para mover los archivos a niveles de almacenamiento de archivo. Consulte Compatibilidad con archivos en Azure Databricks.
IDENTIFIERsoporte con cláusulas
Use IDENTIFIER(:mytable) para parametrizar de forma segura los nombres de tabla, columna, función y esquema en varias instrucciones SQL.
Compatibilidad de Unity Catalog con Python y funciones definidas por el usuario (UDF) de Pandas
En Databricks Runtime 13.2 y versiones posteriores, las funciones definidas por el usuario (UDF) escritas en Python se admiten en clústeres que usan el modo de acceso estándar (anteriormente modo de acceso compartido) en un área de trabajo habilitada para catálogo de Unity. Esto incluye las Funciones Definidas por el Usuario (UDF) de Python y Pandas. Para más información sobre las UDF de Python, consulte Funciones escalares definidas por el usuario: Python.
Uso compartido de esquemas mediante Delta Sharing
Databricks Runtime 13.2 agrega la capacidad de usar ALTER SHARE <share-name> ADD SCHEMA <schema-name> para compartir un esquema completo mediante Delta Sharing, lo que proporciona al destinatario acceso a todas las tablas y vistas del esquema en el momento de compartirlo, junto con las tablas y vistas que se agregan al esquema en el futuro. Consulte Agregar esquemas a un recurso compartido y ALTER SHARE.
Correcciones de errores
- Se ha corregido un error con el lector JSON, que provocaba que los registros se analizaran en modo
PERMISSIVEsifailOnUnknownFieldsmodeestaba habilitado. Los registros ahora se quitan en modo deDROPMALFORMEDparsero se escriben en elbadRecordsPath, si se establece alguna de estas opciones.FAILFASTproduce un error si un tipo de columna no coincide.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- nodeenv de 1.7.0 a 1.8.0
- Bibliotecas de R actualizadas:
- Bibliotecas de Java actualizadas:
- io.delta.delta-sharing-spark_2.12 de 0.6.7 a 0.7.0
Apache Spark
Databricks Runtime 13.2 incluye Apache Spark 3.4.0. En esta versión, se incluyen todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 13.1 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:
- [SPARK-42750] [SC-133452][dbrrm-273] Compatibilidad con la instrucción Insertar por nombre
- [SPARK-43133] [SC-133728] Soporte de Scala Client DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][connect][PS] Habilitar
SeriesParityTests.test_compare -
[SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Una corrección
(NullOps|NumOps).(eq|ne)para Spark Connect. - [SPARK-44021] [SC-134109][sql] Añadir spark.sql.files.maxPartitionNum
-
[SPARK-43910] [SC-132936][sql] Eliminar
__auto_generated_subquery_namede los IDs en los mensajes de error - [SPARK-43976] [ SC-133375][core] Controle el caso en el que modifiedConfigs no existe en los registros de eventos
- [SPARK-32559] [SC-133992][sql] La corrección de la lógica de recorte no manejó correctamente los caracteres de control ASCII.
- [SPARK-43421] [SC-132930][ss] Implementar puntos de control basados en el registro de cambios para el proveedor de RocksDB State Store
- [SPARK-43594] [SC-133851][sql] Agregar LocalDateTime a anyToMicros
- [SPARK-43884] [SC-133867] Marcadores de parámetros en DDL
- [SPARK-43398] [ SC-133894][core] El tiempo de espera del ejecutor debe ser el máximo entre el tiempo de espera de inactividad de la mezcla y el tiempo de espera de rdd.
-
[SPARK-43610] [ SC-133892][connect][PS] Habilitar
InternalFrame.attach_distributed_columnen Spark Connect. - [SPARK-43971] [SC-133826][connect][PYTHON] Compatibilidad con createDataFrame de Python de forma de streaming
- [SPARK-44006] [SC-133652][connect][PYTHON] Soporte para artefactos de caché
-
[SPARK-43790] [SC-133468][python][CONNECT][ml] Agregar
copyFromLocalToFsAPI - [SPARK-43921] [SC-133461][protobuf] Generar archivos de descriptor protobuf en tiempo de compilación
- [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implementar la compatibilidad con archivos en SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][python][SS][minor] Corrección del tipo rowsPerSecond de StreamingQueryProgress en Python
- [SPARK-43768] [SC-132398][python][CONNECT] Compatibilidad con la administración de dependencias de Python en Python Spark Connect
- [SPARK-43979] [ 13.X] Se revierte "[SC-133456][sql] CollectedMetrics debe tratarse como el mismo conjunto para el auto-join".
- [SPARK-42290] [ SC-133696][sql] No se puede notificar el error de OOM cuando AQE está activado
- [SPARK-43943] [SC-133648][sql][PYTHON][connect] Agregar funciones matemáticas de SQL a Scala y Python
- [SPARK-43747] [SC-132047][python][CONNECT] Implementación de la compatibilidad con pyfile en SparkSession.addArtifacts
-
[SPARK-43700] [ SC-133726][spark-43701][CONNECT][ps] Habilitar
TimedeltaOps.(sub|rsub)con Spark Connect -
[SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Habilitar la prueba de paridad:
test_line_plot,test_pie_plot. - [SPARK-43867] [SC-132895][sql] Mejorar los candidatos sugeridos para el atributo sin resolver
- [SPARK-43901] [SC-133454][sql] Avro para soportar un tipo decimal personalizado basado en Long
- [SPARK-43267] [SC-133024][jdbc] Controlar la columna desconocida definida por usuario como una cadena de texto en un array
- [SPARK-43935] [SC-133637][sql][PYTHON][connect] Agregar funciones de xpath_* a Scala y Python
- [SPARK-43916] [SC-133647][sql][PYTHON][connect] Agregar percentil a la API de Scala y Python
- [SPARK-43717] [ SC-133455][connect] Scala client reduce agg no puede controlar particiones nulas para las entradas primitivas de scala.
-
[SPARK-43984] [ SC-133469][sql][PROTOBUF] Cambiar para utilizar
foreachcuandomapno genera resultados - [SPARK-43612] [SC-132011][connect][PYTHON] Implementación de SparkSession.addArtifact(s) en el cliente de Python
- [SPARK-44002] [SC-133606][connect] Corrección del controlador de estados de artefactos
- [SPARK-43933] [SC-133470][sql][PYTHON][connect] Agregar funciones de agregado de regresión lineal a Scala y Python
- [SPARK-43920] [SC-133614][sql][CONNECT] Creación de un módulo sql/api
- [SPARK-43979] [ SC-133456][sql] CollectedMetrics debe tratarse como la misma para la autocombinación.
-
[SPARK-43977] [SC-133373][connect] Corregir el resultado inesperado de la comprobación de
dev/connect-jvm-client-mima-check - [SPARK-43985] [SC-133412][protobuf] Spark protobuf: corregir el error de enums como enteros
- [SPARK-43930] [SC-133406][sql][PYTHON][connect] Agregar funciones unix_* a Scala y Python
- [SPARK-43807] [SC-132545][sql] Migrar _LEGACY_ERROR_TEMP_1269 a PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [SC-133123][sql] Solucionar el error que no muestra la expresión SQL de la columna para Percentile[Cont|Disc]
- [SPARK-42626] [SC-133248][connect] Agregar iterador destructivo para SparkResult
- [SPARK-43333] [SC-132898][sql] Permitir que Avro convierta el tipo de unión en SQL con el nombre de campo estable con el tipo
-
[SPARK-43953] [ SC-133134][connect] Remove
pass - [SPARK-43970] [SC-133403][python][CONNECT] Ocultar métodos de dataframe no admitidos de la finalización automática
- [SPARK-43973] [ SC-133272][ss][UI] Structured Streaming UI debe mostrar correctamente consultas fallidas
- [SPARK-42577] [ SC-125445][core] Agregar limitación de intentos máximos para las fases para evitar posibles reintentos infinitos
-
[SPARK-43841] [ SC-132699][sql] Manejar atributos candidatos sin prefijo en
StringUtils#orderSuggestedIdentifiersBySimilarity - [SPARK-41497] [SC-124795][core][Seguimiento] Modificar la configuración para que la versión sea compatible con 3.5.0
- [SPARK-37942] [SC-130983][core][SQL] Migrar clases de error
-
[SPARK-43898] [ SC-132926][core] Registrar automáticamente
immutable.ArraySeq$ofRefenKryoSerializerpara Scala 2.13 - [SPARK-43775] [SC-132891][sql] DataSource V2: Permitir la representación de actualizaciones como eliminaciones e inserciones
- [SPARK-43817] [SC-132662][spark-43702][PYTHON] Admite UserDefinedType en createDataFrame desde pandas DataFrame y toPandas
- [SPARK-43418] [SC-132753][sc-130685][CONNECT] Agregar SparkSession.Builder.getOrCreate
- [SPARK-43549] [ SC-132383][sql] Convierta _LEGACY_ERROR_TEMP_0036 en INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [SC-124644][core] Corrección del recuento del acumulador en el caso de la tarea de reintento con caché RDD
-
[SPARK-43892] [SC-133006][python] Agregar compatibilidad con autocompletar para
df[|]enpyspark.sql.dataframe.DataFrame - [SPARK-43881] [SC-133140][sql][PYTHON][connect] Agregar un patrón opcional para Catalog.listDatabases
- [SPARK-43205] [SC-132623] IDENTIFIER cláusula
- [SPARK-43545] [SC-132378][sql][PYTHON] Compatibilidad con el tipo de marca de tiempo anidada
- [SPARK-43949] [SC-133048][python] Actualización de cloudpickle a 2.2.1
- [SPARK-43760] [SC-132809][sql] Nulabilidad de los resultados de la subconsulta escalar
-
[SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Corrección
TimedeltaOpspara Spark Connect - [SPARK-43895] [ SC-132897][connect][GO] Preparar la ruta de acceso del paquete de Go
- [SPARK-43894] [SC-132892][python] Corrección del error en df.cache()
- [SPARK-43509] [SC-131625][connect] Compatibilidad con la creación de varias sesiones de Spark Connect
- [SPARK-43882] [SC-132888][sql] Asignar nombre a _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Corrección
NumOpspara Spark Connect -
[SPARK-43604] [ SC-132165][sql] Refactorización
INVALID_SQL_SYNTAXpara evitar insertar el texto del error en el código fuente - [SPARK-43859] [SC-132883][sql] Sobrescribir el método toString en LateralColumnAliasReference
- [SPARK-43792] [SC-132939][sql][PYTHON][connect] Agregar patrón opcional para Catalog.listCatalogs
- [SPARK-43353] Revertir "[SC-132734][python] Migrar los errores de sesión restantes a la clase de error"
- [SPARK-43375] [SC-130309][connect] Mejorar los mensajes de error de INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][connect] Quitar redundancia
toSeqdeSparkConnectPlannerpara Scala 2.13 -
[SPARK-43676] [ SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Solución
DatetimeOpspara Spark Connect -
[SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Corrección
BinaryOpspara Spark Connect -
[SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Corrección
NullOpspara Spark Connect - [SPARK-43782] [SC-132885][core] Compatibilidad con la configuración de nivel de registro con Spark estática
- [SPARK-43132] [SC-131623] [SS] [CONNECT] API foreach() de DataStreamWriter de cliente Python
- [SPARK-43290] [SC-131961][sql] Agrega compatibilidad con AES IV y AAD a ExpressionImplUtils
- [SPARK-43795] [SC-132532][connect] Quitar parámetros no usados para SparkConnectPlanner
- [SPARK-42317] [SC-129194][sql] Asignar nombre específico a _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [SC-131960][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][sql] Utilizar clases de error para los errores de compilación de
ResolveDefaultColumns - [SPARK-43749] [ SC-132423][spark-43750][SQL] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_240[4-5]
- [SPARK-43576] [ SC-132533][core] Quitar declaraciones sin usar del módulo Core
- [SPARK-43314] [SC-129970][connect][PYTHON] Migración de errores de cliente de Spark Connect a la clase de error
- [SPARK-43799] [SC-132715][python] Agregar la opción binaria de descriptor en la API Protobuf de PySpark
- [SPARK-43837] [SC-132678][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_103[1-2]
- [SPARK-43862] [SC-132750][sql] Asignar un nombre a la clase de error LEGACY_ERROR_TEMP(1254 y 1315)
- [SPARK-43886] [SC-132808][python] Acepte la tupla genérica como sugerencias de escritura de UDF de Pandas
- [SPARK-43530] [ SC-132653][protobuf] Leer el archivo de descriptor solo una vez
- [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_241[1-7]
-
[SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Corrección
CategoricalOpspara Spark Connect - [SPARK-39979] [ SC-132685][sql] Agregar opción para usar vectores de ancho variable grande para las operaciones UDF de flecha
-
[SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Corrección
StringOpspara Spark Connect - [SPARK-43353] [SC-132734][python] Migre los errores de sesión restantes a la clase de error.
-
[SPARK-43815] [SC-132781][sql] Agregar
to_varcharalias parato_char - [SPARK-43543] [13.x][sc-131839][PYTHON] Corrección del comportamiento de MapType anidado en UDF de Pandas
- [SPARK-43361] [SC-131789][protobuf] actualizar la documentación para errores relacionados con la serialización de enumeraciones
-
[SPARK-43740] [SC-132035][python][CONNECT] Ocultar métodos no admitidos
sessionde la autocompletación - [SPARK-43022] [SC-131681][connect] Compatibilidad con funciones protobuf para el cliente de Scala
-
[SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrar
NotImplementedErroraPySparkNotImplementedError - [SPARK-43860] [ SC-132713][sql] Habilite la recursividad de cola siempre que sea posible.
- [SPARK-42421] [SC-132695][core] Usar las utilidades para obtener el interruptor de la asignación dinámica utilizada en el punto de control local.
-
[SPARK-43590] [SC-132012][connect] Hacer
connect-jvm-client-mima-checkque admita la comprobación de mima con el móduloprotobuf - [SPARK-43315] [13.x][connect][PYTHON][ss] Migrar los errores restantes de DataFrame(Reader|Writer) a la clase de error
- [SPARK-43361] [ SC-130980][protobuf] spark-protobuf: permitir la serialización con enums como enteros
- [SPARK-43789] [ SC-132397][r] Usa 'spark.sql.execution.arrow.maxRecordsPerBatch' en R createDataFrame con Arrow de forma predeterminada
- [SPARK-43596] [SC-126994][sql] Gestionar el predicado IsNull en rewriteDomainJoins
- [SPARK-42249] [ SC-122565][sql] Refinar el vínculo html para obtener documentación en los mensajes de error.
-
[SPARK-43128] [ SC-131628][connect][SS] Hacer que
recentProgressylastProgressdevuelvanStreamingQueryProgressde manera coherente con la API nativa de Scala - [SPARK-43387] [ SC-130448][sql] Proporcione un código de error legible para _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [UI] Se corrigió el error al serializar ExecutorPeakMetricsDistributions en la respuesta de la API
-
[SPARK-42958] [SC-131475][connect] Refactorizar
connect-jvm-client-mima-checkpara admitir la comprobación de mima con el módulo avro - [SPARK-43591] [SC-131977][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [SC-132211][core] Usar clases de error en org.apache.spark.io
- [SPARK-43759] [SC-132189][sql][PYTHON] Exponer TimestampNTZType en pyspark.sql.types
- [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Asignar nombres a la clase de error _LEGACY_ERROR_TEMP_240[1-3]
-
[SPARK-43719] [SC-132016][webui] Manejar el campo
missing row.excludedInStages - [SPARK-42956] [SC-127257][connect] Compatibilidad con funciones avro para el cliente de Scala
- [SPARK-43487] [SC-131975][sql] Corregir el mensaje de error CTE anidado
- [SPARK-43265] [SC-129653] Traslado del marco de error a un módulo de utilidades comunes
- [SPARK-40912] [SC-131547][core]Impacto de las excepciones en KryoDeserializationStream
- [SPARK-43583] [SC-131976][core] obtener MergedBlockedMetaReqHandler del delegado en lugar de la instancia de SaslRpcHandler
- [SPARK-42996] [SC-131997][connect][PS][ml] Crear y asignar tickets adecuados de JIRA para todas las pruebas con errores.
- [SPARK-38469] [SC-131425][core] Use la clase de error en org.apache.spark.network
- [SPARK-43718] [SC-132014][sql] Establecer la anulabilidad correctamente para las claves en uniones USING
-
[SPARK-43502] [ SC-131419][python][CONNECT]
DataFrame.dropdebe aceptar una columna vacía. - [SPARK-43743] [ SC-132038][sql] Puerto HIVE-12188(DoAs no funciona correctamente en HS2 protegido sin kerberos)
- [SPARK-43598] [SC-131929][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][core] Corregir ClassNotFoundException durante la migración
- [SPARK-43360] [SC-131526][ss][CONNECT] Cliente de Scala StreamingQueryManager
- [SPARK-38467] [SC-131025][core] Usar clases de error en org.apache.spark.memory
- [SPARK-43345] [SC-131790][spark-43346][SQL] Cambiar el nombre de las clases de error LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [ SC-126450][sql] Soporte de eliminación de subexpresión para expresión de atajo
- [SPARK-38462] [SC-130449][core] Agregar clase de error INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][sql] Corregir
cannotBroadcastTableOverMaxTableBytesErrorpara usarbytesToString - [SPARK-43539] [SC-131830][sql] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [SC-131688][sql] Clonar el plan en caché de InMemoryRelation para evitar que el plan clonado haga referencia a los mismos objetos.
- [SPARK-43309] [ SC-129746][spark-38461][CORE] Extender INTERNAL_ERROR con categorías y agregar la clase de error INTERNAL_ERROR_BROADCAST
- [SPARK-43281] [SC-131370][sql] Corregir que el escritor concurrente no actualiza las métricas de archivo.
-
[SPARK-43383] [SC-130660][sql] Agregar
rowCountestadísticas a LocalRelation - [SPARK-43574] [ SC-131739][python][SQL] Compatibilidad para establecer el ejecutable de Python para las API de funciones UDF y pandas en los trabajadores durante el tiempo de ejecución
- [SPARK-43569] [SC-131694][sql] Quitar solución alternativa para HADOOP-14067
- [SPARK-43183] [SC-128938][ss][13.x] Introduce una nueva devolución de llamada "onQueryIdle" a StreamingQueryListener
- [SPARK-43528] [SC-131531][sql][PYTHON] Compatibilidad con nombres de campo duplicados en createDataFrame con DataFrame pandas
- [SPARK-43548] [ SC-131686][ss] Eliminar la solución alternativa para HADOOP-16255
-
[SPARK-43494] [SC-131272][core] Llame a
replicate()directamente paraHdfsDataOutputStreamBuilderen lugar de usar reflexión enSparkHadoopUtil#createFile - [SPARK-43471] [ SC-131063][core] Manejar la falta de hadoopProperties y metricsProperties
- [SPARK-42899] [SC-126456][sql] Corregir DataFrame.to(schema) para controlar el caso en el que hay un campo anidado que no acepta valores nulos dentro de un campo que sí acepta valores nulos.
- [SPARK-43302] [SC-129747][sql] Convertir UDAF de Python en una función de agregación
- [SPARK-43223] [SC-131270][connect] Agregaciones tipadas, funciones de agregación, RelationalGroupedDataset#as
- [SPARK-43482] [SC-131375][ss] Expanda QueryTerminatedEvent para contener la clase de error si existe en la excepción
- [SPARK-43359] [SC-131463][sql] Eliminar de la tabla de Hive debería generar "UNSUPPORTED_FEATURE.TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Volver a utilizar cadenas codificadas en URL
-
[SPARK-43492] [SC-131227][sql] Agregar alias de función de 3 argumentos
DATE_ADDyDATE_DIFF - [SPARK-43473] [SC-131372][python] Compatibilidad con el tipo de estructura createDataFrame desde pandas DataFrame
-
[SPARK-43386] [SC-131110][sql] Mejora de la lista de columnas/atributos sugeridos en
UNRESOLVED_COLUMN.WITH_SUGGESTIONclase de error - [SPARK-43443] [SC-131332][sql] Agregar pruebas comparativas para la inferencia de tipo Timestamp cuando se usa un valor no válido
-
[SPARK-43518] [SC-131420][sql] Convertir
_LEGACY_ERROR_TEMP_2029en INTERNAL_ERROR - [SPARK-42604] [SC-130648][connect] Implementar functions.typedlit
-
[SPARK-42323] [ES-669513] Revertir "[SC-123479][sql] Asignar nombre a
_LEGACY_ERROR_TEMP_2332" - [SPARK-43357] [SC-130649][sql] Fecha de cita de tipo de filtro
- [SPARK-43410] [SC-130526][sql] Mejorar el bucle vectorizado para los skipValues agrupados de manera compacta
-
[SPARK-43441] [ SC-130995][core]
makeDotNodeno debe producir un error cuando DeterministicLevel está ausente - [SPARK-43324] [SC-130455][sql] Gestionar UPDATE comandos para fuentes basadas en Delta
-
[SPARK-43272] [SC-131168][core] Llamar directamente
createFileen lugar de reflexión - [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migración de errores de sesión de Spark Connect a la clase de error
-
[SPARK-43405] [SC-130987][sql] Quitar inútil
getRowFormatSQL,inputRowFormatSQL,outputRowFormatSQLmétodo - [SPARK-43447] [SC-131017][r] Compatibilidad con R 4.3.0
-
[SPARK-43425] [SC-130981][sql] Agregar
TimestampNTZTypeaColumnarBatchRow - [SPARK-41532] [SC-130523][connect][CLIENT] Agregar comprobación de las operaciones que implican varios marcos de datos
- [SPARK-43262] [SC-129270][connect][SS][python] Migración de errores de Spark Connect Structured Streaming a la clase de error
- [SPARK-42992] [13.x][sc-129465][PYTHON] Introducción de PySparkRuntimeError
- [SPARK-43422] [SC-130982][sql] Mantener etiquetas en LogicalRelation con salida de metadatos
- [SPARK-43390] [ SC-130646][sql] DSv2 permite que CTAS/RTAS reserve la nulabilidad del esquema.
- [SPARK-43430] [ SC-130989][connect][PROTO] ExecutePlanRequest admite opciones de solicitud arbitrarias.
- [SPARK-43313] [SC-130254][sql] Agregar los valores predeterminados de columna que faltan a las acciones MERGE INSERT
- [SPARK-42842] [SC-130438][sql] Combine la clase de error _LEGACY_ERROR_TEMP_2006 en REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][sql] Habilitar
spark.sql.thriftServer.interruptOnCancelde forma predeterminada -
[SPARK-43292] [ SC-130525][core][CONNECT] Mover
ExecutorClassLoaderal módulocorey simplificarExecutor#addReplClassLoaderIfNeeded - [SPARK-43040] [SC-130310][sql] Mejorar la compatibilidad con el tipo TimestampNTZ en el origen de datos JDBC
- [SPARK-43343] [ SC-130629][ss] FileStreamSource debe deshabilitar una comprobación de glob de archivo adicional al crear DataSource
- [SPARK-43312] [ SC-130294][protobuf] Opción para convertir cualquier campo en JSON
- [SPARK-43404] [ SC-130586][ss] Omitir la reutilización del archivo sst para la misma versión del almacén de estado de RocksDB para evitar errores de coincidencia de identificador
-
[SPARK-43397] [ SC-130614][core] Registrar la duración de la desmantelación del ejecutor en el método
executorLost - [SPARK-42388] [SC-128568][sql] Evitar que el lector vectorizado lea el pie de parquet dos veces
- [SPARK-43306] [13.x][sc-130320][PYTHON] Migrar ValueError de los tipos de Spark SQL a la clase de error
- [SPARK-43337] [ SC-130353][ui][3.4] Los iconos de flecha asc/desc para la columna de ordenación no se muestran en la columna de tabla
-
[SPARK-43279] [SC-130351][core] Limpieza de miembros no utilizados de
SparkHadoopUtil -
[SPARK-43250] [SC-130147][sql] Reemplace la clase
_LEGACY_ERROR_TEMP_2014de error por un error interno. -
[SPARK-43363] [SC-130299][sql][PYTHON] Realizar una llamada
astypeal tipo de categoría solo cuando no se proporciona el tipo de flecha -
[SPARK-43261] [SC-130154][python] Migrar
TypeErrorde tipos SQL de Spark a una clase de error - [SPARK-41971] [SC-130230][sql][PYTHON] Agregar una configuración para la conversión de pandas sobre cómo manejar los tipos de estructuras
- [SPARK-43381] [SC-130464][connect] Convertir 'transformStatCov' en vago
- [SPARK-43362] [SC-130481][sql] Control especial del tipo JSON para el conector MySQL
- [SPARK-42843] [SC-130196][sql] Actualización de la clase de error _LEGACY_ERROR_TEMP_2007 a REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][connect] Streaming de relaciones locales
- [SPARK-43181] [SC-130476][sql] Mostrar URL de la interfaz de usuario en el shell
- [SPARK-43051] [SC-130194][connect] Agregar opción para emitir valores predeterminados
- [SPARK-43204] [SC-129296][sql] Alinear asignaciones MERGE con atributos de tabla
-
[SPARK-43348] [SC-130082][python] Compatibilidad
Python 3.8con PyPy3 - [SPARK-42845] [SC-130078][sql] Actualizar la clase de error _LEGACY_ERROR_TEMP_2010 a InternalError
- [SPARK-43211] [SC-128978][hive] Eliminación de la compatibilidad con Hadoop2 en IsolatedClientLoader
Entorno del sistema
- Sistema operativo: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| directorios de aplicaciones | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| "asttokens" | 2.2.1 | atributos | 21.4.0 | llamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | negro | 22.6.0 | blanquear | 4.1.0 |
| intermitente | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | Haz clic | 8.0.4 | criptografía | 37.0.1 |
| ciclista | 0.11.0 | Cython | 0.29.32 | SDK de Databricks | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.5.1 | decorador | 5.1.1 |
| defusedxml | 0.7.1 | distlib | 0.3.6 | Conversión de docstring a markdown | 0,12 |
| puntos de entrada | 0,4 | Ejecutar | 1.2.0 | visión general de facetas | 1.0.3 |
| fastjsonschema | 2.16.3 | bloqueo de archivo | 3.12.0 | fonttools | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | jeepney (autobús colectivo típico de Filipinas) | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | Cliente Jupyter | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | llavero | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
| matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | Mal sintonizado | 0.8.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
| nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | cuaderno | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | empaquetado | 21,3 | Pandas | 1.4.4 |
| PandocFiltros | 1.5.0 | parso | 0.8.3 | especificación de ruta (pathspec) | 0.9.0 |
| chivo expiatorio | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Almohada | 9.2.0 | pepita | 22.2.2 | platformdirs | 2.5.2 |
| trazado | 5.9.0 | pluggy | 1.0.0 | Cliente-Prometeo | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
| pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
| pyright | 1.1.294 | pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-servidor | 1.7.1 | configuración de herramienta Python | 1.2.2 |
| pytz | 2022.1 | pyzmq | 23.2.0 | solicitudes | 2.28.1 |
| cuerda | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
| scipy | 1.9.1 | biblioteca de visualización de datos de Python llamada seaborn | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 63.4.1 | Seis | 1.16.0 |
| colador para sopa | 2.3.1 | ssh-import-id | 5.11 | stack-data | 0.6.2 |
| statsmodels (paquete de Python para análisis estadístico) | 0.13.2 | tenacidad | 8.1.0 | terminado | 0.13.1 |
| ruta de prueba | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornado | 6.1 | traitlets | 5.1.1 |
| typing_extensions | 4.3.0 | ujson | 5.4.0 | actualizaciones desatendidas | 0,1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | codificaciones web | 0.5.1 | ¿Qué es el parche? | 1.0.2 |
| rueda | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
| zipp | 1.0.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 10-02-2023.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 10.0.1 | askpass | 1.1 | asegúrate de que | 0.2.1 |
| retroportaciones | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
| poco | 4.0.5 | bit 64 | 4.0.5 | mancha | 1.2.3 |
| bota | 1.3-28 | fermentar | 1,0 - 8 | Brio | 1.1.3 |
| escoba | 1.0.3 | bslib | 0.4.2 | cachemir | 1.0.6 |
| callr | 3.7.3 | cursor | 6.0-93 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 |
| Chron | 2.3-59 | clase | 7.3-21 | Cli | 3.6.0 |
| clipr | 0.8.0 | reloj | 0.6.1 | conglomerado | 2.1.4 |
| codetools | 0.2-19 | espacio de colores | 2.1-0 | commonmark | 1.8.1 |
| compilador | 4.2.2 | configuración | 0.3.1 | cpp11 | 0.4.3 |
| crayón | 1.5.2 | credenciales | 1.3.2 | rizo | 5.0.0 |
| tabla de datos | 1.14.6 | conjuntos de datos | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Descripción | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | digerir | 0.6.31 | iluminado hacia abajo | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| elipsis | 0.3.2 | evaluar | 0,20 | fans | 1.0.4 |
| colores | 2.1.1 | mapa rápido | 1.1.0 | fontawesome | 0.5.0 |
| convictos | 1.0.0 | foreach | 1.5.2 | extranjero | 0.8-82 |
| fragua | 0.2.0 | Fs | 1.6.1 | futuro | 1.31.0 |
| aplicación futura | 1.10.0 | hacer gárgaras | 1.3.0 | genéricos | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globales | 0.16.2 |
| pegamento | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | gráficos | 4.2.2 | grDevices | 4.2.2 |
| rejilla | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtable | 0.3.1 | Casco | 1.2.0 | refugio | 2.5.1 |
| más alto | 0,10 | HMS | 1.1.2 | herramientas de HTML | 0.5.4 |
| htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | tejido | 1.42 |
| etiquetado | 0.4.2 | más tarde | 1.3.0 | retícula | 0.20-45 |
| lava | 1.7.1 | ciclo de vida | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Formato Markdown | 1.5 |
| MASA | 7.3-58.2 | Matriz | 1.5-1 | memorizar | 2.0.1 |
| métodos | 4.2.2 | mgcv | 1.8-41 | mimo | 0,12 |
| miniUI (Interfaz de Usuario) | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.0.5 | paralelo | 4.2.2 |
| Paralelamente | 1.34.0 | pilar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | progreso | 1.2.2 |
| progressr | 0.13.0 | promesas | 1.2.0.1 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | P.D | 1.7.2 | ronroneo | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| Bosque Aleatorio (randomForest) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.3 | readxl | 1.4.2 | recetas | 1.0.4 |
| partido de revancha | 1.0.1 | segunda revancha | 2.1.2 | Telecontroles | 2.4.2 |
| ejemplo reproducible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | balanzas | 1.2.1 |
| selectr | 0.4-2 | información de sesión | 1.2.2 | forma | 1.4.6 |
| brillante | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | espacial | 7.3-15 | Splines | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estadísticas | 4.2.2 |
| estadísticas4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
| supervivencia | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | formateo de texto | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | cambio de hora | 0.2.0 | fechaHora | 4022.108 |
| tinytex | 0,44 | herramientas | 4.2.2 | tzdb | 0.3.0 |
| verificador de URL | 1.0.1 | utiliza esto | 2.1.6 | utf8 | 1.2.3 |
| utilidades | 4.2.2 | Identificador Único Universal (UUID) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| bigotes | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | cremallera | 2.2.2 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | anotaciones propensas a errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | perfilador | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1,15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.0 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | métricas-verificaciones de salud | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metrics-json | 4.2.10 |
| io.dropwizard.metrics | metrics-jvm | 4.2.10 |
| io.dropwizard.metrics | metrics-servlets | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | netty-handler | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | netty-resolver | 4.1.87.Final |
| io.netty | netty-transport | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | cliente_simple_común | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recopilador | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.29 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.16 |
| org.apache.arrow | formato de flecha | 11.0.0 |
| org.apache.arrow | núcleo de memoria de flecha | 11.0.0 |
| org.apache.arrow | arrow-memory-netty | 11.0.0 |
| org.apache.arrow | vector de flecha | 11.0.0 |
| org.apache.avro | avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | marco de trabajo para curadores | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | planificador-de-adaptadores-hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | calzos de orco | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4,22 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | cuidador de zoológico | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | servidor Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | jersey-common | 2,36 |
| org.glassfish.jersey.core | jersey-server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | validador de hibernación | 6.1.7.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Cuñas | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |