Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 14.3 LTS, con tecnología de Apache Spark 3.5.0.
Databricks publicó esta versión en febrero de 2024.
Nota:
LTS significa que esta versión tiene soporte técnico a largo plazo. Consulte Ciclo de vida de la versión de Databricks Runtime LTS.
Sugerencia
Para ver las notas de la versión de las versiones de Databricks Runtime que han alcanzado el fin de soporte técnico (EoS), consulte Notas de la versión de Databricks Runtime de fin de soporte técnico. Las versiones de Databricks Runtime EoS se han retirado y es posible que no se actualicen.
Nuevas características y mejoras
- Compatibilidad con el sistema de archivos del área de trabajo en funciones definidas por el usuario (UDF) de PySpark en clústeres de modo de acceso estándar (anteriormente modo de acceso compartido)
-
Soporte con optimizaciones de vectores
MERGEde eliminación sin Photon - API de catálogo de Spark ahora son totalmente compatibles con el modo de acceso estándar
- Delta UniForm ya está disponible con carácter general
- nueva función SQL EXECUTE IMMEDIATE
- Recálculo de las estadísticas de omisión de datos para tablas delta
- Información de estado de consulta para consultas de streaming con estado
- Usar el identificador de Entra de Microsoft para la autenticación de Kafka en clústeres estándar
- Compatibilidad agregada para la eliminación de archivos y particiones para mejorar el rendimiento de las consultas
- Declaración de variables temporales en una sesión de SQL
- Actualizaciones del servidor Thrift para quitar características que no se usan
- Uso del almacén de confianza y los archivos de almacén de claves en volúmenes de Unity Catalog
- Compatibilidad con el formato de archivo XML nativo (versión preliminar pública)
- Compatibilidad con el almacenamiento de Cloudflare R2 (versión preliminar pública)
- El acceso de Spark y dbutils a los archivos del área de trabajo admiten clústeres de Catálogo de Unity de acceso estándar
- Compatibilidad con scripts de inicialización y biblioteca de clústeres en clústeres de Catálogo de Unity de acceso estándar
Compatibilidad con el sistema de archivos del área de trabajo en funciones definidas por el usuario (UDF) de PySpark en clústeres de modo de acceso estándar (anteriormente modo de acceso compartido)
Las UDF de PySpark en clústeres estándar ahora pueden importar módulos de Python desde carpetas de Git, archivos de área de trabajo o volúmenes UC.
Para obtener más información sobre cómo trabajar con módulos en carpetas de Git o archivos de área de trabajo, vea Trabajar con módulos de Python y R.
Soporte con optimizaciones de vectores de eliminación MERGE sin Photon
Photon ya no es necesario para MERGE operaciones para aprovechar las optimizaciones de vectores de eliminación. Consulte ¿Qué son los vectores de eliminación?.
Las API de catálogo de Spark ahora son totalmente compatibles con el modo de acceso estándar
Ahora puede usar todas las funciones de la API de spark.catalog en Python y Scala en sistemas de computación configurados con el modo de acceso estándar.
Delta UniForm ya está disponible con carácter general
UniForm ahora está disponible con carácter general y usa la característica de tabla IcebergCompatV2. Ahora puede habilitar o actualizar UniForm en las tablas existentes. Consulte Lectura de tablas Delta con clientes de Iceberg.
Nueva función SQL EXECUTE IMMEDIATE
Ahora puede usar la sintaxis de EXECUTE IMMEDIATE para admitir consultas con parámetros en SQL. Consulte EXECUTE IMMEDIATE.
Recálculo de las estadísticas de omisión de datos para tablas delta
Ahora puede volver a calcular las estadísticas almacenadas en el registro delta después de cambiar las columnas que se usan para la omisión de datos. Vea Especificación de columnas de estadísticas delta.
Información de estado de consulta para consultas de streaming con estado
Ahora puede consultar los datos de estado y los metadatos de Structured Streaming. Consulte Leer información de estado de Structured Streaming.
Uso de Microsoft Entra ID para la autenticación de Kafka en clústeres estándar
Ahora puede autenticar los servicios de Event Hubs a través de OAuth con Microsoft Entra ID en recursos de computación configurados con el modo de acceso estándar. Consulte Autenticación de entidad de servicio con Microsoft Entra ID y Azure Event Hubs.
Compatibilidad agregada para la eliminación de archivos y particiones para mejorar el rendimiento de las consultas
Para acelerar algunas consultas que dependen de la igualdad tolerante a valores NULL en condiciones JOIN ahora se admite DynamicFilePruning y DynamicPartitionPruning para el EqualNullSafe operador en JOIN.
Declaración de variables temporales en una sesión de SQL
Esta versión presenta la capacidad de declarar variables temporales en una sesión que se puede establecer y, a continuación, hacer referencia a desde dentro de las consultas. Consulte Variables.
Actualizaciones del servidor Thrift para quitar características que no se usan
El código del servidor Thrift se ha actualizado para quitar el código de las características obsoletas. Debido a estos cambios, ya no se admiten las siguientes configuraciones:
- Los archivos JAR auxiliares de Hive, configurados con la propiedad
hive.aux.jars.path, ya no se admiten para las conexioneshive-thriftserver. - El archivo init global de Hive (
.hiverc), cuya ubicación se configura mediante la propiedadhive.server2.global.init.file.locationo la variable de entornoHIVE_CONF_DIR, ya no se admite para las conexioneshive-thriftserver.
Uso del almacén de confianza y los archivos de almacén de claves en volúmenes de Unity Catalog
Ahora puede usar archivos de almacén de confianza y de almacén de claves en los volúmenes del Catálogo de Unity para autenticarse en un Registro de esquemas Confluent para datos de búfer de protocolo o avro. Consulte la documentación de avro o protocol buffers.
Compatibilidad con el formato de archivo XML nativo (versión preliminar pública)
La compatibilidad con el formato de archivo XML nativo ahora está en versión preliminar pública. La compatibilidad con formatos de archivo XML permite la ingesta, la consulta y el análisis de datos XML para el procesamiento por lotes o el streaming. Puede deducir y evolucionar automáticamente los tipos de datos y esquemas, admite expresiones SQL como from_xml, y pueden generar documentos XML. No requiere archivos jar externos y funciona sin problemas con el cargador automático, read_files, COPY INTOy DLT. Consulte Lectura y escritura de archivos XML.
Compatibilidad con el almacenamiento de Cloudflare R2 (versión preliminar pública)
Ahora puede usar Cloudflare R2 como almacenamiento en la nube para los datos registrados en Unity Catalog. Cloudflare R2 está pensado principalmente para los casos de uso compartido de Delta en los que desea evitar las tarifas de salida de datos que cobran los proveedores de nube cuando los datos cruzan regiones. El almacenamiento R2 admite todos los recursos de inteligencia artificial y datos de Databricks compatibles con AWS S3, Azure Data Lake Storage y Google Cloud Storage. Consulte Uso de réplicas de Cloudflare R2 o migración de almacenamiento a R2 y Creación de una credencial de almacenamiento para conectarse a Cloudflare R2.
El acceso de Spark y dbutils a los archivos del área de trabajo admiten clústeres de Catálogo de Unity de acceso estándar
Spark y dbutils acceso de lectura y escritura a los archivos del área de trabajo ahora se admiten en clústeres de Unity Catalog en modo de acceso estándar. Consulte Trabajar con archivos del área de trabajo.
Compatibilidad con scripts de inicialización y biblioteca de clústeres en clústeres de Catálogo de Unity de acceso estándar
La instalación de scripts de inicialización con ámbito de clúster y bibliotecas de Python y JAR en clústeres de Catálogo de Unity en modo de acceso estándar, incluida la instalación mediante directivas de clúster, ahora está disponible con carácter general. Databricks recomienda instalar scripts y bibliotecas de inicialización desde volúmenes de Unity Catalog.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- fastjsonschema de 2.19.0 a 2.19.1
- filelock de 3.12.4 a 3.13.1
- googleapis-common-protos de 1.61.0 a 1.62.0
- packaging de 22.0 a 23.2
- Bibliotecas de R actualizadas:
- foreign de 0.8-82 a 0.8-85
- nlme de 3.1-162 a 3.1-163
- rpart de 4.1.19 a 4.1.21
- Bibliotecas de Java actualizadas:
- com.databricks.databricks-sdk-java de 0.7.0 a 0.13.0
- org.apache.orc.orc-core de 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.1 a 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 de 2.9.0 a 2.11.0
Apache Spark
Databricks Runtime 14.3 incluye Apache Spark 3.5.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 14.2 (EoS), así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
- [SPARK-46541] [SC-153546][sql][CONNECT] Corregir la referencia de columna ambigua en la unión automática
- [SPARK-45433] Reversión de "[SC-145163][sql] Corrección de la inferencia de esquema CSV/JSON…
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] Hacer que addArtifact vuelva a intentarlo
- [SPARK-46660] [SC-153391][connect] Actualización de la actividad de SessionHolder mediante solicitudes ReattachExecute
- [SPARK-46670] [SC-153273][python][SQL] Hacer que DataSourceManager pueda clonar automáticamente separando orígenes de datos de Python estáticos y en tiempo de ejecución
- [SPARK-46720] [SC-153410][sql][PYTHON] Refactorizar el origen de datos de Python para alinearse con otros orígenes de datos integrados de DSv2
- [SPARK-46684] [SC-153275][python][CONNECT] Corregir CoGroup.applyInPandas/Arrow para pasar argumentos correctamente
- [SPARK-46667] [SC-153271][SC-153263][SQL] XML: error en varios orígenes de datos XML
- [SPARK-46382] [SC-151881][sql] XML: configuración del valor predeterminado de ignoreSurroundingSpaces en true
-
[SPARK-46382] [SC-153178][sql] XML: Actualizar el documento para
ignoreSurroundingSpaces - [SPARK-45292] Reversión de "[SC-151609][sql][HIVE] Eliminación de Guava de las clases compartidas de IsolatedClientLoader"
- [SPARK-45292] [SC-151609][sql][HIVE] Eliminar Guava de las clases compartidas de IsolatedClientLoader
-
[SPARK-46311] [SC-150137][core] Registro del estado final de los controladores durante
Master.removeDriver - [SPARK-46413] [SC-151052][python] Validación de returnType en la UDF de Arrow Python
- [SPARK-46633] [WARMFIX][sc-153092][SQL] Corrección del lector de Avro para que controle bloques de longitud cero
- [SPARK-46537] [SC-151286][sql] Conversión de NPE y aserciones de comandos a errores internos
- [SPARK-46179] [SC-151678][sql] Adición de CrossDbmsQueryTestSuites, que ejecuta otros DBMS en archivos dorados con otros DBMS, empezando por Postgres
- [SPARK-44001] [SC-151413][protobuf] Adición de una opción para permitir la desencapsulación de tipos de contenedor conocidos de protobuf
- [SPARK-40876] [SC-151786][sql] Ampliación de la promoción de tipos para decimales con mayor escala en lectores de Parquet
-
[SPARK-46605] [SC-151769][connect] Hacer que la función
lit/typedLiten el módulo connect admitas.c.immutable.ArraySeq - [SPARK-46634] [SC-153005][sql] la validación literal no debe explorar en profundidad los campos NULL.
-
[SPARK-37039] [SC-153094][ps] Corregir
Series.astypepara que funcione correctamente con el valor que falta. -
[SPARK-46312] [SC-150163][core] Usar
lower_camel_caseenstore_types.proto - [SPARK-46630] [SC-153084][sql] XML: Validar el nombre del elemento XML en escritura
- [SPARK-46627] [SC-152981][ss][UI] Corrección del contenido de la información sobre herramientas de la escala de tiempo en la interfaz de usuario de streaming
- [SPARK-46248] [SC-151774][sql] XML: Compatibilidad con ignoreCorruptFiles y opciones ignoreMissingFiles
- [SPARK-46386] [SC-150766][python] Mejora de las aserciones de observación (pyspark.sql.observation)
- [SPARK-46581] [SC-151789][core] Actualizar comentario sobre isZero en AccumulatorV2
- [SPARK-46601] [SC-151785][CORE] Corrección del error de registro en handleStatusMessage
- [SPARK-46568] [SC-151685][python] Conversión de las opciones de origen de datos de Python en un diccionario que no distingue mayúsculas de minúsculas
- [SPARK-46611] [SC-151783][core] Quitar ThreadLocal por reemplazar SimpleDateFormat por DateTimeFormatter
-
[SPARK-46604] [SC-151768][sql] Compatibilidad de
Literal.applycons.c.immuable.ArraySeq - [SPARK-46324] [SC-150223][sql][PYTHON] Corregir el nombre de salida de pyspark.sql.functions.user y session_user
- [SPARK-46621] [SC-151794][python] Solución de valores null de Exception.getMessage en una excepción Py4J capturada
- [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader debe respetar el modo de memoria al crear vectores de columna para la columna que falta.
- [SPARK-46613] [SC-151778][sql][PYTHON] Registrar la excepción completa cuando no se pudo encontrar los orígenes de datos de Python
-
[SPARK-46559] [SC-151364][MLLIB] Encapsulación de
exporten el nombre del paquete con acentos graves - [SPARK-46522] [SC-151784][python] Bloquear el registro del origen de datos de Python debido a conflictos de nombres
- [SPARK-45580] [SC-149956][SQL] Solución del caso en el que una subconsulta anidada se convierte en una combinación existente
- [SPARK-46609] [SC-151714][sql] Evitar la explosión exponencial en PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][SQL] Corrección de NPE al describir una columna extendida sin estadísticas de columna
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML: Use TypeCoercion.findTightestCommonType para comprobar la compatibilidad
- [SPARK-40876] [SC-151129][SQL] Ampliación de las promociones de tipos en lectores de Parquet
- [SPARK-46179] [SC-151069][sql] Extraer código en funciones reutilizables en SQLQueryTestSuite
-
[SPARK-46586] [SC-151679][SQL] Compatibilidad de
s.c.immutable.ArraySeqcomocustomCollectionClsenMapObjects -
[SPARK-46585] [SC-151622][core]
metricPeaksse construyó directamente como unimmutable.ArraySeqen lugar de utilizarmutable.ArraySeq.toSeqenExecutor - [SPARK-46488] [SC-151173][sql] Omitir la llamada trimAll durante el análisis de marca de tiempo
-
[SPARK-46231] [SC-149724][python] Migre todos los
NotImplementedError&TypeErrorrestantes al marco de errores de PySpark -
[SPARK-46348] [SC-150281][core] Compatibilidad con
spark.deploy.recoveryTimeout -
[SPARK-46313] [SC-150164][CORE] Registro de la duración de la recuperación de
Spark HA -
[SPARK-46358] [SC-150307][CONNECT] Simplificación de la comprobación de la condición en
ResponseValidator#verifyResponse - [SPARK-46380] [SC-151078][sql]Reemplace la hora y fecha actuales antes de evaluar las expresiones de tabla insertadas.
- [SPARK-46563] [SC-151441][SQL] La vista simpleString no sigue la configuración spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNCT][GRAPHX] Reducción de la profundidad de la pila reemplazando (cadena|matriz).size por (cadena|matriz).length
- [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT(todos los campos de una estructura) da como resultado un error de aserción
- [SPARK-46565] [SC-151414][python] Refinar clases de error y mensajes de error para orígenes de datos de Python
- [SPARK-46576] [SC-151614][sql] Mejorar los mensajes de error para el modo de guardado de orígenes de datos no admitidos
- [SPARK-46540] [SC-151355][PYTHON] Respeto de los nombres de columna cuando la función de lectura del origen de datos de Python genera objetos Row con nombre
- [SPARK-46577] [ SC-151448][sql] HiveMetastoreLazyInitializationSuite pierde el SessionState de Hive
-
[SPARK-44556] [SC-151562][sql] Reutilizar
OrcTailal habilitar vectorizedReader - [SPARK-46587] [SC-151618][SQL] XML: corrección de la conversión de enteros grandes XSD
- [SPARK-46382] [SC-151297][sql] XML: Capturar valores intercalados entre elementos
- [SPARK-46567] [SC-151447][CORE] Eliminación de ThreadLocal para ReadAheadInputStream
- [SPARK-45917] [SC-151269][python][SQL] Registro automático del origen de datos de Python al iniciarse
- [SPARK-28386] [SC-151014][sql] No se pueden resolver ORDER BY columnas con GROUP BY y HAVING
- [SPARK-46524] [SC-151446][SQL] Mejora de los mensajes de error para modos de guardado no válidos
- [SPARK-46294] [SC-150672][SQL] Limpieza de la semántica de init frente al valor cero
-
[SPARK-46301] [SC-150100][core] Compatibilidad con
spark.worker.(initial|max)RegistrationRetries -
[SPARK-46542] [SC-151324][SQL] Eliminación de la comprobación de
c>=0enExternalCatalogUtils#needsEscapingporque siempre es true -
[SPARK-46553] [SC-151360][ps]
FutureWarningparainterpolatecon el objeto dtype - [SPARK-45914] [SC-151312][PYTHON] Compatibilidad con la confirmación y anulación de la API para la escritura de orígenes de datos de Python
-
[SPARK-46543] [SC-151350][PYTHON][CONNECT] Hacer que
json_tuplegenere el error PySparkValueError para campos vacíos - [SPARK-46520] [SC-151227][python] Compatibilidad con el modo de sobrescritura para escritura de orígenes de datos de Python
- [SPARK-46502] [SC-151235][sql] Soporte de tipos de timestamp en UnwrapCastInBinaryComparison
-
[SPARK-46532] [SC-151279][CONNECT] Pasar parámetros de mensaje en metadatos de
ErrorInfo -
[SPARK-46397] Reversión de "[SC-151311][PYTHON][CONNECT] La función
sha2debe generar el errorPySparkValueErrorparanumBitsno válidos" - [SPARK-46170] [SC-149472][sql] Admite la inyección de reglas de estrategia de planificación posterior a consultas adaptativas en SparkSessionExtensions
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable no debe cargar la tabla
-
[SPARK-46397] [SC-151311][PYTHON][CONNECT] La función
sha2debe generar el errorPySparkValueErrorparanumBitsno válidos - [SPARK-46145] [SC-149471][sql] spark.catalog.listTables no produce una excepción cuando no se encuentra la tabla o vista
- [SPARK-46272] [SC-151012][SQL] Compatibilidad con CTAS mediante orígenes DSv2
- [SPARK-46480] [SC-151127][core][SQL] Corregir NPE cuando se intenta la tarea de caché de tablas
- [SPARK-46100] [SC-149051][core][PYTHON] Reduzca la profundidad de la pila reemplazando (string|array).size por (string|array).length.
- [SPARK-45795] [SC-150764][SQL] DS V2 admite el modo de inserción
- [SPARK-46485] [SC-151133][sql] V1Write no debe agregar Sort cuando no sea necesario.
- [SPARK-46468] [SC-151121][SQL] Solución del error COUNT para subconsultas EXISTS con Aggregate sin agrupar claves
- [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE soporte para SQL
-
[SPARK-46498] [SC-151199][core] Quitar
shuffleServiceEnableddeo.a.spark.util.Utils#getConfiguredLocalDirs -
[SPARK-46440] [SC-150807][sql] Establecer las configuraciones de rebase en el modo de
CORRECTEDde forma predeterminada - [SPARK-45525] [SC-151120][sql][PYTHON] Compatibilidad con escritura de orígenes de datos de Python mediante DSv2
-
[SPARK-46505] [SC-151187][connect] Hacer que el umbral de bytes sea configurable en
ProtoUtils.abbreviate - [SPARK-46447] [SC-151025][SQL] Eliminación de las configuraciones de SQL de fecha y hora heredadas
- [SPARK-46443] [SC-151123][sql] La precisión decimal y la escala deben decidirse por el dialecto H2.
- [SPARK-46384] [SC-150694][SPARK-46404][SS][UI] Corrección del gráfico de pila de duración de la operación en la página de streaming estructurado
- [SPARK-46207] [SC-151068][sql] Compatibilidad con MergeInto en DataFrameWriterV2
- [SPARK-46452] [SC-151018][sql] Agregar una nueva API en DataWriter para escribir un iterador de registros
- [SPARK-46273] [SC-150313][sql] Compatibilidad con INSERT INTO/OVERWRITE mediante orígenes DSv2
- [SPARK-46344] [SC-150267][CORE] Advertir correctamente cuando un controlador existe, pero el maestro está desconectado
-
[SPARK-46284] [SC-149944][python][CONNECT] Agregar
session_userfunción a Python - [SPARK-46043] [SC-149786][sql] Compatibilidad con la creación de tablas mediante orígenes DSv2
- [SPARK-46323] [SC-150191][python] Corregir el nombre de salida de pyspark.sql.functions.now
-
[SPARK-46465] [SC-151059][python][CONNECT] Agregar
Column.isNaNen PySpark -
[SPARK-46456] [SC-151050][core] Agregar
spark.ui.jettyStopTimeoutpara establecer el tiempo de espera de detención del servidor Jetty para desbloquear el apagado de SparkContext - [SPARK-43427] [SC-150356][PROTOBUF] spark protobuf: permitir la difusión de tipos enteros sin signo
- [SPARK-46399] [SC-151013][14.x][Core] Adición del estado de salida al evento de finalización de la aplicación para el uso del agente de escucha de Spark
- [SPARK-46423] [SC-150752][python][SQL] Crear la instancia de fuente de datos de Python en DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][PYTHON][SQL] Compatibilidad con métricas de Python en el origen de datos de Python
- [SPARK-46330] [SC-151015] Carga de bloques de interfaz de usuario de Spark durante mucho tiempo cuando HybridStore está habilitado
- [SPARK-46378] [SC-150397][SQL] Seguir quitando Sort después de convertir Aggregate en Project
- [SPARK-45506] [SC-146959][CONNECT] Adición de compatibilidad con URI de ivy a SparkConnect addArtifact
- [SPARK-45814] [SC-147871][connect][SQL] Hacer que ArrowConverters.createEmptyArrowBatch llame a close() para evitar fugas de memoria
- [SPARK-46427] [SC-150759][python][SQL] Cambiar la descripción del origen de datos de Python para que sea bastante explicada
- [SPARK-45597] [SC-150730][python][SQL] Compatibilidad con la creación de tablas mediante un origen de datos de Python en SQL (exec DSv2)
- [SPARK-46402] [SC-150700][python] Agregar compatibilidad con getMessageParameters y getQueryContext
-
[SPARK-46453] [SC-150897][CONNECT] Inicio de la excepción de
internalError()enSessionHolder - [SPARK-45758] [SC-147454][sql] Introducción de un mapeador para códecs de compresión de Hadoop
-
[SPARK-46213] [PYTHON] Introducción de
PySparkImportErrorpara el marco de errores -
[SPARK-46230] [SC-149960][PYTHON] Migración de
RetriesExceededal error de PySpark - [SPARK-45035] [SC-145887][SQL] Corrección de la notificación de error al ejecutar ignoreCorruptFiles/ignoreMissingFiles con CSV/JSON multilínea
- [SPARK-46289] [SC-150846][SQL] Compatibilidad con la ordenación de UDT en modo interpretado
- [SPARK-46229] [SC-150798][PYTHON][CONNECT] Adición de applyInArrow a groupBy y cogroup en Spark Connect
- [SPARK-46420] [SC-150847][sql] Quitar el transporte sin usar en SparkSQLCLIDriver
-
[SPARK-46226] [PYTHON] Migrar todos los elementos
RuntimeErrorrestantes al marco de manejo de errores de PySpark - [SPARK-45796] [SC-150613][sql] Soporte para MODE() DENTRO DEL GRUPO (ORDER BY col)
- [SPARK-40559] [SC-149686][PYTHON][14.X] Adición de applyInArrow a groupBy y cogroup
- [SPARK-46069] [SC-149672][SQL] Compatibilidad con la desencapsulación del tipo de marca de tiempo al tipo de fecha
- [SPARK-46406] [SC-150770][sql] Asigne un nombre a la clase de error _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss] Convertir
IllegalStateExceptionainternalErroren iteradores de sesión - [SPARK-45807] [SC-150751][sql] Mejorar ViewCatalog API
- [SPARK-46009] [SC-149771][sql][CONNECT] Combinar la regla de análisis de PercentileCont y PercentileDisc en functionCall
- [SPARK-46403] [SC-150756][SQL] Descodificación del archivo binario parquet con el método getBytesUnsafe
-
[SPARK-46389] [SC-150779][core] Cierre manualmente la instancia de
RocksDB/LevelDBcuandocheckVersioninicie la excepción -
[SPARK-46360] [SC-150376][python] Mejorar la depuración de mensajes de error con la nueva API de
getMessage -
[SPARK-46233] [SC-149766][python] Migre todos los
AttributeErrorrestantes al marco de error de PySpark -
[SPARK-46394] [SC-150599][sql] Corregir problemas en spark.catalog.listDatabases() en esquemas con caracteres especiales cuando
spark.sql.legacy.keepCommandOutputSchemaestá establecido en true - [SPARK-45964] [SC-148484][SQL] Eliminación del descriptor de acceso de SQL privado en XML y el paquete JSON, en el paquete Catalyst
- [SPARK-45856] [SC-148691] Mover ArtifactManager desde Spark Connect hasta SparkSession (sql/core)
- [SPARK-46409] [SC-150714][connect] Corrección del script de inicio de spark-connect-scala-client
-
[SPARK-46416] [SC-150699][core] Agregar
@tailrecaHadoopFSUtils#shouldFilterOutPath -
[SPARK-46115] [SC-149154][sql] Restringir los conjuntos de caracteres en
encode() - [SPARK-46253] [SC-150416][python] Planificar la lectura de la fuente de datos de Python utilizando MapInArrow
- [SPARK-46339] [SC-150266][ss] El directorio con el nombre del número de lote no debe tratarse como registro de metadatos
-
[SPARK-46353] [SC-150396][CORE] Refactorización para mejorar la cobertura de pruebas unitarias de
RegisterWorker - [SPARK-45826] [SC-149061][SQL] Adición de una configuración de SQL para seguimientos de la pila en el contexto de consulta de DataFrame
- [SPARK-45649] [SC-150300][sql] Unificar el marco de preparación para OffsetWindowFunctionFrame
-
[SPARK-46346] [SC-150282][CORE] Corrección de Master para actualizar un trabajo de
UNKNOWNaALIVEen el mensajeRegisterWorker -
[SPARK-46388] [SC-150496][SQL] HiveAnalysis pierde la protección de patrones de
query.resolved -
[SPARK-46401] [SC-150609][core] Use
!isEmpty()enRoaringBitmapen lugar degetCardinality() > 0enRemoteBlockPushResolver - [SPARK-46393] [SC-150603][sql] Clasificar excepciones en el catálogo de tablas de JDBC
- [SPARK-45798] [SC-150513][connect] Seguimiento: agregar serverSessionId a SessionHolderInfo
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML: Agregar compatibilidad con TimestampNTZType
- [SPARK-46075] [SC-150393][connect] Mejoras en SparkConnectSessionManager
- [SPARK-46357] [SC-150596] Reemplazo del uso incorrecto de la documentación de setConf con conf.set
- [SPARK-46202] [SC-150420][connect] Exponer nuevas API de ArtifactManager para admitir directorios de destino personalizados
-
[SPARK-45824] [SC-147648][sql] Imponer la clase de error en
ParseException - [SPARK-45845] [SC-148163][SS][UI] Adición del número de filas de estado expulsadas en la interfaz de usuario de streaming
-
[SPARK-46316] [SC-150181][core] Habilitar
buf-lint-actionen el módulocore -
[SPARK-45816] [SC-147656][SQL] Devolución de
NULLcuando hay un desbordamiento durante la conversión de la marca de tiempo a enteros -
[SPARK-46333] [SC-150263][SQL] Reemplazo de
IllegalStateExceptionporSparkException.internalErroren catalyst - [SPARK-45762] [SC-148486][CORE] Compatibilidad con administradores aleatorios definidos en archivos JAR de usuarios cambiando el orden de inicio
-
[SPARK-46239] [SC-149752][core] Ocultar información
Jetty -
[SPARK-45886] [SC-148089][SQL] Generar el seguimiento de la pila completa en
callSitedel contexto de DataFrame - [SPARK-46290] [SC-150059][python] Cambiar saveMode a una marca booleana para DataSourceWriter
- [SPARK-45899] [SC-148097][CONNECT] Establecimiento de errorClass en errorInfoToThrowable
-
[SPARK-45841] [SC-147657][SQL] Exposición del seguimiento de la pila por
DataFrameQueryContext -
[SPARK-45843] [SC-147721][core] Compatibilidad con
killallen la API de envío de REST -
[SPARK-46234] [SC-149711][python] Introducción
PySparkKeyErrorpara el marco de errores de PySpark - [SPARK-45606] [SC-147655][SQL] Eliminación de las restricciones del filtro en tiempo de ejecución de varias capas
- [SPARK-45725] [SC-147006][SQL] Eliminación del filtro IN de subconsulta en tiempo de ejecución no predeterminado
-
[SPARK-45694] [SC-147314][spark-45695][SQL] Limpiar el uso de API obsoleto
View.forceyScalaNumberProxy.signum -
[SPARK-45805] [SC-147488][sql] Hacer que
withOriginsea más genérico - [SPARK-46292] [SC-150086][core][UI] Mostrar un resumen de los trabajadores en MasterPage
-
[SPARK-45685] [SC-146881][core][SQL] Use
LazyListen lugar deStream - [SPARK-45888] [SC-149945][ss] Aplicar el marco de clases de error al origen de datos de estado (metadata)
-
[SPARK-46261] [SC-150111][CONNECT]
DataFrame.withColumnsRenameddebe mantener el orden dict/map -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui] Depurar conversiones de
SeqOps.viewyArrayOps.view -
[SPARK-46029] [SC-149255][SQL] Escape de la comilla simple,
_y%para la delegación de DS V2 - [SPARK-46275] [SC-150189] Protobuf: Devolver null en modo permisivo cuando falle la deserialización.
-
[SPARK-46320] [SC-150187][core] Compatibilidad con
spark.master.rest.host - [SPARK-46092] [SC-149658][sql] No empuje filtros de grupo de filas Parquet que generan desbordamiento
- [SPARK-46300] [SC-150097][PYTHON][CONNECT] Buscar coincidencias de comportamientos menores en Columna con cobertura de prueba completa
- [SPARK-46298] [SC-150092][PYTHON][CONNECT] Coincidencia de la advertencia de desuso, caso de prueba y error de Catalog.createExternalTable
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL] Eliminar el uso de API obsoleto relacionado con
StringContext/StringOps/RightProjection/LeftProjection/Eithery el uso de tipo deBufferedIterator/CanBuildFrom/Traversable - [SPARK-33393] [SC-148407][sql] Compatibilidad con SHOW TABLE EXTENDED en v2
-
[SPARK-45737] [SC-147011][sql] Quitar
.toArray[InternalRow]innecesario enSparkPlan#executeTake - [SPARK-46249] [SC-149797][SS] Requerir el bloqueo de la instancia para adquirir métricas de RocksDB para evitar la carrera con operaciones en segundo plano
-
[SPARK-46260] [SC-149940][PYTHON][SQL]
DataFrame.withColumnsRenameddeben respetar el orden dict - [SPARK-46274] [SC-150043][SQL] Corrección del operador Range computeStats() para comprobar la validez prolongada antes de la conversión
- [SPARK-46040] [SC-149767][sql][Python] Actualizar la API UDTF para 'analizar' las columnas de partición/orden para admitir expresiones generales
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmptydebe funcionar con todos los tipos de datos - [SPARK-45678] [SC-146825][CORE] Encapsulación de BufferReleasingInputStream.available/reset en tryOrFetchFailedException
-
[SPARK-45667] [SC-146716][core][SQL][connect] Realizar una limpieza del uso de la API obsoleta relacionada con
IterableOnceExtensionMethods. -
[SPARK-43980] [SC-148992][SQL] Introducción de la sintaxis
select * except - [SPARK-46269] [SC-149816][ps] Habilitar más pruebas de función de compatibilidad de NumPy
- [SPARK-45807] [SC-149851][SQL] Adición de createOrReplaceView(..) / replaceView(..) a ViewCatalog
-
[SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Introduce una función implícita para que la matriz de Scala se ajuste a
immutable.ArraySeq. -
[SPARK-46205] [SC-149655][core] Mejorar el rendimiento de
PersistenceEngineconKryoSerializer - [SPARK-45746] [ SC-149359][python] Devuelve mensajes de error específicos si el método "analyze" o "eval" de UDTF acepta o devuelve valores incorrectos.
- [SPARK-46186] [SC-149707][connect] Corregir la transición de estado no válida cuando ExecuteThreadRunner se interrumpe antes de iniciarse
-
[SPARK-46262] [SC-149803][PS] Habilitación de la prueba de
np.left_shiftpara el objeto Pandas-on-Spark. - [SPARK-45093] [SC-149679][CONNECT][PYTHON] Compatibilidad correcta con la solución de errores y la conversión para AddArtifactHandler
- [SPARK-46188] [ SC-149571][doc][3.5] Corregir el CSS de las tablas generadas del documento de Spark
- [SPARK-45940] [SC-149549][python] Agregar InputPartition a la interfaz DataSourceReader
- [SPARK-43393] [SC-148301][sql] Error de desbordamiento de expresiones de secuencia de direcciones.
- [SPARK-46144] [SC-149466][sql] Error INSERT INTO … REPLACE si la condición contiene subconsultas
-
[SPARK-46118] [SC-149096][sql][SS][connect] Use
SparkSession.sessionState.confen lugar deSQLContext.confy marqueSQLContext.confcomo en desuso - [SPARK-45760] [SC-147550][sql] Agregar con expresión para evitar duplicar expresiones
- [SPARK-43228] [SC-149670][sql] Las claves de combinación también coinciden con PartitioningCollection en CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][ps] Pruebe SparkPandasNotImplementedError con la limpieza de código sin usar
-
[SPARK-46119] [SC-149205][SQL] Invalidación del método
toStringparaUnresolvedAlias - [SPARK-46206] [SC-149674][ps] Usar una excepción de ámbito más estrecha para el procesador SQL
-
[SPARK-46191] [SC-149565][CORE] Mejora del mensaje de error
FileSystemPersistenceEngine.persisten caso de que exista un archivo - [SPARK-46036] [SC-149356][SQL] Eliminación de la clase de error en la función raise_error
- [SPARK-46055] [SC-149254][SQL] Reescritura de la implementación de las API de bases de datos de catálogos
- [SPARK-46152] [SC-149454][sql] XML: Agregar compatibilidad con DecimalType en la inferencia de esquemas XML
- [SPARK-45943] [SC-149452][SQL] Mover DetermineTableStats a reglas de resolución
-
[SPARK-45887] [SC-148994][SQL] Alineación de la implementación de codegen y non-codegen de
Encode - [SPARK-45022] [SC-147158][sql] Proporcionar contexto para errores de API del conjunto de datos
-
[SPARK-45469] [SC-145135][core][SQL][connect][PYTHON] Reemplace
toIteratorporiteratorparaIterableOnce - [SPARK-46141] [SC-149357][sql] Cambie el valor predeterminado de spark.sql.legacy.ctePrecedencePolicy a CORRECTED
-
[SPARK-45663] [SC-146617][core][MLLIB] Reemplace
IterableOnceOps#aggregateporIterableOnceOps#foldLeft - [SPARK-45660] [SC-146493][SQL] Reutilización de objetos literales en la regla ComputeCurrentTime
-
[SPARK-45803] [SC-147489][core] Quitar el
RpcAbortExceptionya no usado - [SPARK-46148] [SC-149350][ps] Corrección de pyspark.pandas.mlflow.load_model test (Python 3.12)
- [SPARK-46110] [SC-149090][PYTHON] Uso de clases de error en los módulos catalog, conf, connect, observation y pandas
- [SPARK-45827] [SC-149203][SQL] Correcciones de variaciones con codegen y el lector vectorizado deshabilitados
- [SPARK-46080] Reversión de "[SC-149012][PYTHON] Actualización de Cloudpickle a 3.0.0"
-
[SPARK-45460] [SC-144852][sql] Reemplace
scala.collection.convert.ImplicitConversionsporscala.jdk.CollectionConverters - [SPARK-46073] [SC-149019][sql] Quitar la resolución especial de UnresolvedNamespace para determinados comandos
- [SPARK-45600] [SC-148976][python] Hacer que el registro del origen de datos de Python sea a nivel de sesión
- [SPARK-46074] [SC-149063][connect][SCALA] Detalles insuficientes en el mensaje de error al fallar la UDF
- [SPARK-46114] [SC-149076][python] Agregar PySparkIndexError para el marco de error
-
[SPARK-46120] [SC-149083][connect][PYTHON] Quitar la función auxiliar
DataFrame.withPlan - [SPARK-45927] [SC-148660][python] Actualización del manejo de rutas para el origen de datos de Python
- [SPARK-46062] [14.x][sc-148991][SQL] Sincronizar el indicador isStreaming entre la definición de CTE y la referencia
-
[SPARK-45698] [SC-146736][core][SQL][ss] Limpiar el uso de la API en desuso relacionado con
Buffer - [SPARK-46064] [SC-148984][SQL][SS] Mover EliminateEventTimeWatermark al analizador y cambiarlo para que solo surta efecto en el elemento secundario resuelto
- [SPARK-45922] [SC-149038][CONNECT][CLIENT] Refactorización de reintentos menores (seguimiento de varias directivas)
- [SPARK-45851] [SC-148419][connect][SCALA] Compatibilidad con varias directivas en el cliente de scala
- [SPARK-45974] [SC-149062][SQL] Adición de un criterio scan.filterAttributes no vacío para RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][CONNECT] Dataset.groupingSets en el cliente de Scala Spark Connect
- [SPARK-45136] [SC-146607][CONNECT] Mejora de la compatibilidad de ClosureCleaner con Ammonite
- [SPARK-46084] [SC-149020][PS] Refactorización de la operación de conversión de tipos de datos para el tipo de categoría.
- [SPARK-46083] [SC-149018][python] Hacer de SparkNoSuchElementException una API de error canónica.
- [SPARK-46048] [SC-148982][python][CONNECT] Compatibilidad con DataFrame.groupingSets en Python Spark Connect
- [SPARK-46080] [SC-149012][python] Actualizar Cloudpickle a 3.0.0
- [SPARK-46082] [SC-149015][python][CONNECT] Corrección de la representación de cadena protobuf para la API de Funciones de Pandas con Spark Connect
-
[SPARK-46065] [SC-148985][ps] Refactorizar
(DataFrame|Series).factorize()para usarcreate_map. - [SPARK-46070] [SC-148993][SQL] Compilación del patrón regex en SparkDateTimeUtils.getZoneId fuera del bucle frecuente
- [SPARK-46063] [SC-148981][PYTHON][CONNECT] Mejora de los mensajes de error relacionados con los tipos de argumento en cute, rollup, groupby y pivot
- [SPARK-44442] [SC-144120][mesos] Eliminar soporte de Mesos
- [SPARK-45555] [SC-147620][python] Incluye un objeto depurable para una afirmación fallida
- [SPARK-46048] [SC-148871][python][SQL] Compatibilidad con DataFrame.groupingSets en PySpark
- [SPARK-45768] [SC-147304][sql][PYTHON] Hacer que el controlador de errores sea una configuración en tiempo de ejecución para Python en SQL
- [SPARK-45996] [SC-148586][python][CONNECT] Mostrar mensajes de requisitos de dependencia adecuados para Spark Connect
- [SPARK-45681] [SC-146893][ui] Clone una versión js de UIUtils.errorMessageCell para la representación de errores coherente en la interfaz de usuario
-
[SPARK-45767] [SC-147225][core] Eliminar
TimeStampedHashMapy su UT - [SPARK-45696] [SC-148864][CORE] Corrección del método tryCompleteWith, está en desuso con el rasgo Promise
- [SPARK-45503] [SC-146338][ss] Agregar configuración para establecer la compresión de RocksDB
-
[SPARK-45338] [SC-143934][core][SQL] Reemplazar
scala.collection.JavaConvertersascala.jdk.CollectionConverters -
[SPARK-44973] [SC-148804][sql] Corrección de
ArrayIndexOutOfBoundsExceptionenconv() - [SPARK-45912] [SC-144982][sc-148467][SQL] Mejora de la API XSDToSchema: Cambio a la API de HDFS para la accesibilidad del almacenamiento en la nube
-
[SPARK-45819] [SC-147570][core] Compatibilidad con
clearen la API de envío de REST -
[SPARK-45552] [14.x][sc-146874][PS] Introduce parámetros flexibles para
assertDataFrameEqual -
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] Proporcionar una interfaz para que otras fuentes de Streaming agreguen columnas de
_metadata - [SPARK-45929] [SC-148692][sql] Compatibilidad con la operación groupingSets en la API dataframe
- [SPARK-46012] [SC-148693][core] EventLogFileReader no debe leer registros graduales si falta el archivo de estado de la aplicación
- [SPARK-45965] [SC-148575][SQL] Mover expresiones de partición DSv2 a functions.partitioning
-
[SPARK-45971] [SC-148541][core][SQL] Corrija el nombre del paquete de
SparkCollectionUtilsaorg.apache.spark.util -
[SPARK-45688] [SC-147356][spark-45693][CORE] Limpiar el uso de la API en desuso relacionado con
MapOps& Corregirmethod += in trait Growable is deprecated -
[SPARK-45962] [SC-144645][sc-148497][SQL] Quitar
treatEmptyValuesAsNullsy usarnullValueopción en su lugar en XML -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] Corrección de typehints para controlar
listGenericAlias en Python 3.11+ -
[SPARK-45999] [SC-148595][PS] Uso de
PandasProductdedicados encumprod -
[SPARK-45986] [SC-148583][ml][PYTHON] Corrección de
pyspark.ml.torch.tests.test_distributoren Python 3.11 -
[SPARK-45994] [SC-148581][python] Cambie
description-fileadescription_file - [SPARK-45575] [SC-146713][SQL] Compatibilidad con opciones de viaje en tiempo para la API df read
- [SPARK-45747] [SC-148404][SS] Uso de información de clave de prefijo en metadatos de estado para controlar el estado de lectura para la agregación de ventanas de sesión
- [SPARK-45898] [SC-148213][sql] Reescritura de las API de tabla de catálogo para usar un plan lógico sin resolver
- [SPARK-45828] [SC-147663][sql] Quitar método en desuso en dsl
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect] Actualizar
protobufa 4.25.1 para admitirPython 3.11 - [SPARK-45911] [SC-148226][core] Haga que TLS1.3 sea el valor predeterminado para RPC SSL.
- [SPARK-45955] [SC-148429][UI] Compatibilidad con la contracción de los detalles de los gráficos de flama y del volcado de subprocesos
-
[SPARK-45936] [SC-148392][PS] Optimización de
Index.symmetric_difference - [SPARK-45389] [SC-144834][sql][3.5] Regla de coincidencia de MetaException correcta para obtener metadatos de partición
- [SPARK-45655] [SC-148085][sql][SS] Permitir expresiones no deterministas dentro de AggregateFunctions en CollectMetrics
- [SPARK-45946] [SC-148448][SS] Corrección del uso de escritura de FileUtils en desuso para pasar el conjunto de caracteres predeterminado en RocksDBSuite
- [SPARK-45511] [SC-148285][ss] Fuente de datos de estado - Lector
-
[SPARK-45918] [SC-148293][PS] Optimización de
MultiIndex.symmetric_difference - [SPARK-45813] [SC-148288][CONNECT][PYTHON] Devolución de las métricas observadas de los comandos
-
[SPARK-45867] [SC-147916][core] Compatibilidad con
spark.worker.idPattern -
[SPARK-45945] [SC-148418][connect] Agregar una función auxiliar para
parser - [SPARK-45930] [SC-148399][sql] Compatibilidad con UDF no deterministas en MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][python] Creación de una API UDTF de Python para dejar de consumir filas de la tabla de entrada
-
[SPARK-45731] [SC-147929][sql] Actualice también las estadísticas de partición con
ANALYZE TABLEcomando -
[SPARK-45868] [SC-148355][CONNECT] Garantizar que
spark.tableusa el mismo analizador con vanilla spark - [SPARK-45882] [SC-148161][sql] La propagación de particiones en BroadcastHashJoinExec debería respetar CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][sql] Asignar nombres al error _LEGACY_ERROR_TEMP_21[59,60,61,62]
-
[SPARK-45915] [SC-148306][sql] Tratar decimal(x, 0) igual que IntegralType en
PromoteStrings - [SPARK-45786] [SC-147552][sql] Corregir resultados de división y multiplicación decimal inexactos
-
[SPARK-45871] [SC-148084][CONNECT] Conversión de colecciones de optimizaciones relacionadas con
.toBufferen los módulosconnect - [SPARK-45822] [SC-147546][CONNECT] SparkConnectSessionManager puede buscar un sparkcontext detenido
- [SPARK-45913] [SC-148289][PYTHON] Hacer que los atributos internos sean privados para los errores de PySpark.
- [SPARK-45827] [SC-148201][SQL] Adición del tipo de datos Variant en Spark.
- [SPARK-44886] [SC-147876][sql] Cláusula Introduce CLUSTER BY para CREATE/REPLACE TABLE
-
[SPARK-45756] [SC-147959][core] Compatibilidad con
spark.master.useAppNameAsAppId.enabled - [SPARK-45798] [SC-147956][CONNECT] Declaración del identificador de sesión del lado servidor
-
[SPARK-45896] [SC-148091][sql] Construye
ValidateExternalTypecon el tipo esperado correcto -
[SPARK-45902] [SC-148123][sql] Eliminar la función sin usar
resolvePartitionColumnsdeDataSource -
[SPARK-45909] [SC-148137][SQL] Eliminación de la conversión de
NumericTypesi se puede convertir de forma segura enIsNotNull - [SPARK-42821] [SC-147715][sql] Quitar parámetros sin usar en métodos splitFiles
-
[SPARK-45875] [SC-148088][core] Quitar
MissingStageTableRowDatadel módulocore - [SPARK-45783] [SC-148120][python][CONNECT] Mejorar los mensajes de error cuando el modo Spark Connect está habilitado, pero no se establece la dirección URL remota
- [SPARK-45804] [SC-147529][ui] Agregar la configuración spark.ui.threadDump.flamegraphEnabled para activar o desactivar el gráfico de llamas
- [SPARK-45664] [SC-146878][SQL] Introducción de un asignador para los códecs de compresión de ocr
- [SPARK-45481] [SC-146715][SQL] Introducción de un asignador para los códecs de compresión de parquet
- [SPARK-45752] [SC-148005][sql] Simplificación del código para comprobar relaciones CTE sin referencia
- [SPARK-44752] [SC-146262][sql] XML: Actualizar documentación de Spark
- [SPARK-45752] [SC-147869][SQL] Las CTE sin referencia deben comprobarse mediante CheckAnalysis0
- [SPARK-45842] [SC-147853][sql] Refactorizar las API de función de catálogo para usar el analizador
- [SPARK-45639] [SC-147676][sql][PYTHON] Compatibilidad con la carga de orígenes de datos de Python en DataFrameReader
- [SPARK-45592] [SC-146977][sql] Problema de corrección en AQE con InMemoryTableScanExec
- [SPARK-45794] [SC-147646][SS] Introducción del origen de metadatos de estado para consultar la información de metadatos de estado de streaming
- [SPARK-45739] [SC-147059][PYTHON] Captura de IOException en lugar de solo EOFException para faulthandler
- [SPARK-45677] [SC-146700] Mejora del registro de errores para la API de observación
- [SPARK-45544] [SC-146873][core] Integración de la compatibilidad con SSL en TransportContext
- [SPARK-45654] [SC-147152][python] Adición de la API de escritura de orígenes de datos de Python
-
[SPARK-45771] [SC-147270][core] Habilitar
spark.eventLog.rolling.enabledde forma predeterminada - [SPARK-45713] [SC-146986][python] Compatibilidad con el registro de orígenes de datos de Python
- [SPARK-45656] [SC-146488][sql] Se corrige la observación cuando existen observaciones nombradas igual en diferentes conjuntos de datos
- [SPARK-45808] [SC-147571][connect][PYTHON] Mejor control de errores para excepciones de SQL
-
[SPARK-45774] [SC-147353][core][UI] Compatibilidad con
spark.master.ui.historyServerUrlenApplicationPage -
[SPARK-45776] [SC-147327][CORE] Eliminación de la comprobación defensiva de valores null para
MapOutputTrackerMaster#unregisterShuffleagregada en SPARK-39553 - [SPARK-45780] [SC-147410][CONNECT] Propagación de todos los ThreadLocal de cliente de Spark Connect en InheritableThread
-
[SPARK-45785] [SC-147419][core] Compatibilidad con
spark.deploy.appNumberModulopara rotar el número de la app - [SPARK-45793] [SC-147456][core] Mejorar los códecs de compresión integrados
- [SPARK-45757] [SC-147282][ml] Evite volver a calcular NNZ en Binarizer
- [SPARK-45209] [SC-146490][CORE][UI] Compatibilidad del Gráfico de flama con la página de volcado de subprocesos del ejecutor
-
[SPARK-45777] [SC-147319][core] Compatibilidad con
spark.test.appIdenLocalSchedulerBackend - [SPARK-45523] [SC-146331][python] Refactorizar la comprobación de valores nulos para tener atajos
- [SPARK-45711] [SC-146854][sql] Introducir un mapeador para los códecs de compresión avro
- [SPARK-45523] [SC-146077][python] Devuelve un mensaje de error útil si UDTF devuelve None para cualquier columna que no acepta valores NULL.
- [SPARK-45614] [SC-146729][sql] Asignar nombres al error _LEGACY_ERROR_TEMP_215[6,7,8]
-
[SPARK-45755] [SC-147164][sql] Mejorar
Dataset.isEmpty()aplicando el límite global1 - [SPARK-45569] [SC-145915][sql] Asignar nombre al error _LEGACY_ERROR_TEMP_2153
-
[SPARK-45749] [SC-147153][core][WEBUI] Corregir
Spark History Serverpara ordenarDurationcolumna correctamente -
[SPARK-45754] [SC-147169][core] Compatibilidad con
spark.deploy.appIdPattern -
[SPARK-45707] [SC-146880][sql] Simplificar
DataFrameStatFunctions.countMinSketchconCountMinSketchAgg -
[SPARK-45753] [SC-147167][core] Compatibilidad con
spark.deploy.driverIdPattern -
[SPARK-45763] [SC-147177][CORE][UI] Mejora de
MasterPagepara que muestre la columnaResourcesolo cuando exista - [SPARK-45112] [SC-143259][SQL] Uso de la resolución basada en UnresolvedFunction en funciones de conjunto de datos de SQL
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 14.3.
Entorno del sistema
-
Sistema operativo: Ubuntu 22.04.3 LTS
- Nota: Esta es la versión de Ubuntu que usan los contenedores de Databricks Runtime. Los contenedores de DBR se ejecutan en las máquinas virtuales del proveedor de nube, que pueden usar otra versión de Ubuntu o distribución de Linux.
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.1.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| "asttokens" | 2.0.5 | atributos | 22.1.0 | llamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | negro | 22.6.0 | blanquear | 4.1.0 |
| intermitente | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | Haz clic | 8.0.4 | Comm | 0.1.2 |
| contourpy | 1.0.5 | criptografía | 39.0.1 | ciclista | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.7 | Conversión de docstring a markdown | 0,11 | puntos de entrada | 0,4 |
| Ejecutar | 0.8.3 | visión general de las facetas | 1.1.1 | fastjsonschema | 2.19.1 |
| bloqueo de archivos | 3.13.1 | fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
| grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
| ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 3.1.2 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
| jupyter-client | 7.3.4 | servidor-jupyter | 1.23.4 | jupyter_core | 5.2.0 |
| jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | llavero | 23.5.0 |
| kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
| matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| Mal sintonizado | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
| nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
| cuaderno | 6.5.2 | notebook_shim | 0.2.2 | numpy | 1.23.5 |
| oauthlib | 3.2.0 | empaquetado | 23.2 | Pandas | 1.5.3 |
| PandocFiltros | 1.5.0 | parso | 0.8.3 | pathspec | 0.10.3 |
| chivo expiatorio | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Almohada | 9.4.0 | pepita | 22.3.1 | platformdirs | 2.5.2 |
| trazado | 5.9.0 | pluggy | 1.0.0 | Cliente-Prometeo | 0.14.1 |
| prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pyarrow-hotfix | 0,5 | pycparser | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
| Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-servidor | 1.8.0 |
| configuración de herramienta Python | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
| solicitudes | 2.28.1 | cuerda | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn | 1.1.1 | scipy | 1.10.0 | biblioteca de visualización de datos de Python llamada seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
| Seis | 1.16.0 | sniffio | 1.2.0 | colador para sopa | 2.3.2.post1 |
| ssh-import-id | 5.11 | stack-data | 0.2.0 | statsmodels (paquete de Python para análisis estadístico) | 0.13.5 |
| tenacidad | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
| tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.7.1 | typing_extensions | 4.4.0 |
| ujson | 5.4.0 | actualizaciones desatendidas | 0,1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| codificaciones web | 0.5.1 | cliente de websocket | 0.58.0 | whatthepatch | 1.0.2 |
| rueda | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
| zipp | 1.0.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del administrador de paquetes de Posit el 13-07-2023: https://packagemanager.posit.co/cran/2023-07-13/.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 12.0.1 | askpass | 1.1 | asegúrate de que | 0.2.1 |
| retroportaciones | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| bit | 4.0.5 | bit 64 | 4.0.5 | mancha | 1.2.4 |
| bota | 1.3-28 | fermentar | 1,0 - 8 | Brio | 1.1.3 |
| escoba | 1.0.5 | bslib | 0.5.0 | cachemir | 1.0.8 |
| callr | 3.7.3 | cursor | 6.0-94 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 |
| Chron | 2.3-61 | clase | 7.3-22 | Cli | 3.6.1 |
| clipr | 0.8.0 | reloj | 0.7.0 | conglomerado | 2.1.4 |
| codetools | 0.2-19 | espacio de colores | 2.1-0 | commonmark | 1.9.0 |
| compilador | 4.3.1 | configuración | 0.3.1 | Confuso | 1.2.0 |
| cpp11 | 0.4.4 | crayón | 1.5.2 | credenciales | 1.3.2 |
| rizo | 5.0.1 | tabla de datos | 1.14.8 | conjuntos de datos | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Descripción | 1.4.2 |
| devtools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
| digerir | 0.6.33 | iluminado hacia abajo | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | elipsis | 0.3.2 |
| evaluar | 0,21 | fans | 1.0.4 | colores | 2.1.1 |
| mapa rápido | 1.1.1 | fontawesome | 0.5.1 | convictos | 1.0.0 |
| foreach | 1.5.2 | extranjero | 0.8-85 | fragua | 0.2.0 |
| Fs | 1.6.2 | futuro | 1.33.0 | aplicación futura | 1.11.0 |
| hacer gárgaras | 1.5.1 | genéricos | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | globales | 0.16.2 | pegamento | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.3.1 | grDevices | 4.3.1 | rejilla | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
| Casco | 1.3.0 | refugio | 2.5.3 | más alto | 0,10 |
| HMS | 1.1.3 | herramientas de HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
| etiquetado | 0.4.2 | más tarde | 1.3.1 | retícula | 0.21-8 |
| lava | 1.7.2.1 | ciclo de vida | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.2 | magrittr | 2.0.3 | Formato Markdown | 1.7 |
| MASA | 7.3-60 | Matriz | 1.5-4.1 | memorizar | 2.0.1 |
| métodos | 4.3.1 | mgcv | 1.8-42 | mimo | 0,12 |
| miniUI (Interfaz de Usuario) | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.0.6 | paralelo | 4.3.1 |
| Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr | 1.8.8 | alabanza | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | progreso | 1.2.2 |
| progressr | 0.13.0 | promesas | 1.2.0.1 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | P.D | 1.7.5 | ronroneo | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| Bosque Aleatorio (randomForest) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.4 | readxl | 1.4.3 | recetas | 1.0.6 |
| partido de revancha | 1.0.1 | segunda revancha | 2.1.2 | Telecontroles | 2.4.2 |
| ejemplo reproducible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2,23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.6 | balanzas | 1.2.1 |
| selectr | 0.4-2 | información de sesión | 1.2.2 | forma | 1.4.6 |
| brillante | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| SparkR | 3.5.0 | espacial | 7.3-15 | Splines | 4.3.1 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | estadísticas | 4.3.1 |
| estadísticas4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
| supervivencia | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| tcltk | 4.3.1 | testthat | 3.1.10 | formateo de texto | 0.3.6 |
| tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 2.0.0 | cambio de hora | 0.2.0 | fechaHora | 4022.108 |
| tinytex | 0.45 | herramientas | 4.3.1 | tzdb | 0.4.0 |
| verificador de URLs | 1.0.1 | usa esto | 2.2.2 | utf8 | 1.2.3 |
| utilidades | 4.3.1 | Identificador Universalmente Único (UUID) | 1.1-0 | vctrs | 0.6.3 |
| viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
| bigotes | 0.4.1 | withr | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | cremallera | 2.3.0 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
| Identificador de grupo | Identificador de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-support | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.13.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | perfilador | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0,25 |
| io.delta | delta-sharing-client_2.12 | 1.1.4 |
| io.dropwizard.metrics | anotación de métricas | 4.2.19 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas-verificaciones de salud | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | recopilador | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.16 |
| org.apache.arrow | formato de flecha | 12.0.1 |
| org.apache.arrow | núcleo de memoria de flecha | 12.0.1 |
| org.apache.arrow | arrow-memory-netty | 12.0.1 |
| org.apache.arrow | vector de flecha | 12.0.1 |
| org.apache.avro | avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | marco de trabajo para curadores | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | planificador-de-adaptadores-hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | aplicación web Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | API de WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,40 |
| org.glassfish.jersey.core | jersey-client | 2,40 |
| org.glassfish.jersey.core | jersey común | 2,40 |
| org.glassfish.jersey.core | jersey-server | 2,40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,40 |
| org.hibernate.validator | validador de hibernación | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Cuñas | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |