Nota
L'accés a aquesta pàgina requereix autorització. Pots provar d'iniciar sessió o canviar de directori.
L'accés a aquesta pàgina requereix autorització. Pots provar de canviar directoris.
Nota:
La compatibilidad con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para todas las versiones compatibles de Databricks Runtime, consulte las notas de lanzamiento de Databricks Runtime sobre versiones y compatibilidad.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 14.1, con tecnología de Apache Spark 3.5.0.
Databricks publicó esta versión en octubre de 2023.
Nuevas características y mejoras
- array_insert() se basa en 1 para índices negativos
- Puntos de comprobación de Delta v2 habilitados de forma predeterminada con la agrupación en clústeres líquidos
- Funcionalidad de eliminar tabla Delta en versión pública preliminar
- Delta Sharing: los destinatarios pueden realizar consultas por lotes en tablas compartidas con vectores de eliminación (vista previa pública)
- Delta Sharing: los destinatarios pueden realizar consultas masivas en tablas compartidas con asignación de columnas (en vista previa pública)
- Transmisión de vistas de Unity Catalog en versión preliminar pública
- Conector de Apache Pulsar en versión preliminar pública
- Controlador Snowflake actualizado
- Variables de sesión de SQL
- Invocación de parámetros con nombre para UDF de SQL y Python.
- Los argumentos de tabla para las funciones admiten la creación de particiones y el orden.
- Funciones SQL integradas nuevas y mejoradas
- Control mejorado de subconsultas correlacionadas
array_insert() se basa en 1 para índices negativos
La array_insert función se basa en 1 para índices positivos y negativos. Ahora inserta un nuevo elemento al final de las matrices de entrada para el índice -1. Para restaurar el comportamiento anterior, establezca spark.sql.legacy.negativeIndexInArrayInsert en true.
Puntos de comprobación de Delta v2 habilitados de forma predeterminada con la agrupación en clústeres líquidos
Las tablas Delta recién creadas con clústeres líquidos usan puntos de control v2 de forma predeterminada. Consulte Compatibilidad para tablas con agrupación en clústeres líquidos.
Quitar la característica de tabla Delta en la versión preliminar pública
Ahora puede quitar algunas características de tabla para las tablas Delta. El soporte actual incluye eliminar deletionVectors y v2Checkpoint. Consulte Eliminar una característica de tabla de Delta Lake y degradar el protocolo de tabla.
Delta Sharing: los destinatarios pueden realizar consultas por lotes en tablas compartidas con vectores de eliminación (Public Preview)
Los destinatarios de delta Sharing ahora pueden realizar consultas por lotes en tablas compartidas que usan vectores de eliminación. Consulte Agregar tablas con vectores de eliminación o asignación de columnas a un recurso compartido, Lea tablas con vectores de eliminación o asignación de columnas habilitadas y Lea tablas con vectores de eliminación o asignación de columnas habilitadas.
Delta Sharing: los destinatarios pueden realizar consultas por lotes en tablas compartidas con asignación de columnas (versión preliminar pública)
Los destinatarios de Delta Sharing ahora pueden realizar consultas por lotes en tablas compartidas que usan la asignación de columnas. Consulte Agregar tablas con vectores de eliminación o asignación de columnas a un recurso compartido, Lea tablas con vectores de eliminación o asignación de columnas habilitadas y Lea tablas con vectores de eliminación o asignación de columnas habilitadas.
Transmisión de vistas de Unity Catalog en versión preliminar pública
Ahora puede usar Structured Streaming para realizar lecturas en streaming de vistas registradas con el Catálogo de Unity. Azure Databricks solo admite lecturas de streaming de vistas definidas en tablas Delta.
Conector de Apache Pulsar en versión preliminar pública
Ahora puede usar Structured Streaming para transmitir datos desde Apache Pulsar en Azure Databricks. Consulte Transmitir desde Apache Pulsar.
Controlador de Snowflake actualizado
El controlador JDBC de Snowflake ahora usa la versión 3.13.33.
Variables de sesión de SQL
Esta versión presenta la capacidad de declarar variables temporales en una sesión que se puede establecer y, a continuación, hacer referencia a desde dentro de las consultas. Consulte Variables.
Invocación de parámetros con nombre para UDF de SQL y Python.
Ahora puede usar Invocación de parámetros con nombre en SQL y Python UDF.
Los argumentos de tabla para las funciones admiten la creación de particiones y el orden.
Ahora puede usar PARTITION BY cláusulas y ORDER BY para controlar cómo se pasan los argumentos de tabla a una función durante la invocación de función.
Funciones SQL integradas nuevas y mejoradas
Se han agregado las siguientes funciones integradas:
-
from_xml: analiza un XML
STRINGen unSTRUCT. -
schema_of_xml: deriva un esquema de un XML
STRING. - session_user: devuelve el usuario que ha iniciado sesión.
-
try_reflect: devuelve
NULLen lugar de la excepción si se produce un error en un método de Java.
Se han mejorado las siguientes funciones integradas:
- mode: compatibilidad con un parámetro opcional que fuerza un resultado determinista.
-
to_char: nueva compatibilidad con
DATE,TIMESTAMPyBINARY. -
to_varchar: nueva compatibilidad con
DATE,TIMESTAMPyBINARY.
Control mejorado de subconsultas correlacionadas
Se ha ampliado la capacidad de procesar la correlación en subconsultas:
- Controle el límite y el orden por en subconsultas escalares (laterales) correlacionadas.
- Compatibilidad de funciones de ventana en subconsultas escalares correlacionadas.
- Compatibilidad con referencias correlacionadas en predicados de combinación para subconsultas escalares y laterales
Cambio de comportamiento
Comprobación estricta de tipos en lector Photon Parquet
Se produce un error en Photon al intentar leer un valor decimal de una columna Parquet que no es un tipo decimal. Photon también produce un error al leer una matriz de bytes de longitud fija de Parquet como una cadena.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- bloqueo de archivos de 3.12.2 a 3.12.3
- s3transfer de 0.6.1 a 0.6.2
- Bibliotecas de Java actualizadas:
- com.uber.h3 de 3.7.0 a 3.7.3
- io.airlift.aircompressor de 0.24 a 0.25
- io.delta.delta-sharing-spark_2.12 de 0.7.1 a 0.7.5
- io.netty.netty-all de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-buffer de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-http2 de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-codec-socks de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-common de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-handler-proxy de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-resolver de 4.1.93.Final a 4.1.96.Final
- Actualización de io.netty.netty-transport de la versión 4.1.93.Final a la versión 4.1.96.Final
- io.netty.netty-transport-classes-epoll de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-classes-kqueue de 4.1.93.Final a 4.1.96.Final
- io.netty.netty-transport-native-epoll de 4.1.93.Final-linux-x86_64 a 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue de 4.1.93.Final-osx-x86_64 a 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.93.Final a 4.1.96.Final
- net.snowflake.snowflake-jdbc de 3.13.29 a 3.13.33
- org.apache.orc.orc-core de 1.9.0-shaded-protobuf a 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.9.0-shaded-protobuf a 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims de 1.9.0 a 1.9.1
Apache Spark
Databricks Runtime 14.1 incluye Apache Spark 3.5.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 14.0 (EoS), así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
- [SPARK-45088] [DBRRM-557] Revertir “[SC-142785][python][CONNECT] Hacer que getitem funcione con una columna duplicada”
-
[SPARK-43453] [DBRRM-557]Revertir “[SC-143135][ps] Omitir
namesdeMultiIndexcuandoaxis=1paraconcat” - [SPARK-45225] [SC-143207][sql] XML: compatibilidad con direcciones URL de archivo XSD
-
[SPARK-45156] [SC-142782][sql] Ajuste de
inputNamepor acento grave en la clase de errorNON_FOLDABLE_INPUT - [SPARK-44910] [ SC-143082][sql] Encoders.bean no admite superclases con argumentos de tipo genérico
-
[SPARK-43453] [SC-143135][ps] Omitir
namesdeMultiIndexcuandoaxis=1paraconcat - [SPARK-44463] [SS][connect] Mejorar el control de errores para conectar el trabajo de streaming de Python
- [SPARK-44960] [SC-141023][ui] Unescape y resumen de errores en las páginas de la interfaz de usuario
- [SPARK-44788] [ SC-142980][connect][PYTHON][sql] Agregar from_xml y schema_of_xml a la función pyspark, spark connect y sql
- [SPARK-44614] [SC-138460][python][CONNECT][3.5] Agregar paquetes que faltan en setup.py
- [SPARK-45151] [SC-142861][core][UI] Soporte de volcados de subprocesos de nivel de tarea
- [SPARK-45056] [SC-142779][python][SS][connect] Terminación de pruebas para streamingQueryListener y foreachBatch
- [SPARK-45084] [SC-142828][ss] StateOperatorProgress para usar un número de partición aleatorio eficaz preciso
- [SPARK-44872] [SC-142405][connect] Infraestructura de pruebas de servidor y ReattachableExecuteSuite
-
[SPARK-45197] [SC-142984][core] Hacer que
StandaloneRestServeragregueJavaModuleOptionsa los controladores - [SPARK-44404] [SC-139601][sql] Asignar nombres a la clase de error LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278]
- [SPARK-44647] [SC-142297][sql] Admite SPJ donde las claves de combinación son inferiores a las claves de clúster
-
[SPARK-45088] [ SC-142785][python][CONNECT] Permitir que
getitemfuncione con columnas duplicadas -
[SPARK-45128] [SC-142851][sql] Compatibilidad
CalendarIntervalTypecon Arrow - [SPARK-45130] [SC-142976][connect][ML][python] Evitar el modelo de ML de Spark connect para cambiar el dataframe de Pandas de entrada
- [SPARK-45034] [SC-142959][sql] Compatibilidad con la función de modo determinista
- [SPARK-45173] [SC-142931][ui] Quitar algunos archivos sourceMapping innecesarios en la interfaz de usuario
-
[SPARK-45162] [SC-142781][sql] Admite mapas y parámetros de matriz construidos a través de
call_function - [SPARK-45143] [ SC-142840][python][CONNECT] Hacer que PySpark sea compatible con PyArrow 13.0.0
-
[SPARK-45174] [SC-142837][core] Soporte técnico
spark.deploy.maxDrivers -
[SPARK-45167] [ SC-142956][connect][PYTHON] El cliente python debe llamar a
release_all - [SPARK-36191] [SC-142777][sql] Controlar el límite y el orden en subconsultas escalares (laterales) correlacionadas
- [SPARK-45159] [SC-142829][python] Control de argumentos con nombre solo cuando sea necesario
- [SPARK-45133] [SC-142512][connect] Hacer que las consultas de Spark Connect finalicen cuando finalice la última tarea de resultado
- [SPARK-44801] [SC-140802][sql][UI] Captura del análisis de consultas con errores en el cliente de escucha y la interfaz de usuario
- [SPARK-45139] [SC-142527][sql] Agregar DatabricksDialect para controlar la conversión de tipos SQL
-
[SPARK-45157] [SC-142546][sql] Evitar comprobaciones repetidas
if[On|Off|HeapColumnVector - [SPARK-45077] Revertir “[SC-142069][ui] Actualización de dagre-d3.js de 04.3 a 0.6.4”
- [SPARK-45145] [ SC-142521][ejemplo] Ejemplo de adición de JavaSparkSQLCli
-
[SPARK-43295] Revertir “[SC-142254][ps] Admite columnas de tipo de cadena para
DataFrameGroupBy.sum” - [SPARK-44915] [ SC-142383][core] Valide la suma de comprobación de los datos aleatorios de PVC remontados antes de la recuperación
-
[SPARK-45147] [SC-142524][core] Eliminación del uso de
System.setSecurityManager -
[SPARK-45104] [SC-142206][ui] Actualización
graphlib-dot.min.jsa 1.0.2 -
[SPARK-44238] [ SC-141606][core][SQL] Introduce un nuevo
readFrommétodo con entrada de matriz de bytes paraBloomFilter -
[SPARK-45060] [SC-141742][sql] Corrección de un error interno desde
to_char()al formatoNULL -
[SPARK-43252] [SC-142381][sql] Reemplace la clase
_LEGACY_ERROR_TEMP_2016de error por un error interno. - [SPARK-45069] [ SC-142279][sql] La variable SQL siempre debe resolverse después de la referencia externa.
- [SPARK-44911] [ SC-142388][sql] Crear una tabla de hive con una columna no válida debe devolver la clase de error
- [SPARK-42754] [SC-125567][sql][UI] Corrección del problema de compatibilidad con versiones anteriores en la ejecución anidada de SQL
-
[SPARK-45121] [ SC-142375][connect][PS] Compatibilidad
Series.emptycon Spark Connect. - [SPARK-44805] [ SC-142203][sql] getBytes/getShorts/getInts/etc. debe funcionar en un vector de columna que tenga un diccionario.
-
[SPARK-45027] [SC-142248][python] Ocultar funciones o variables internas en
pyspark.sql.functionsdesde la finalización automática -
[SPARK-45073] [SC-141791][ps][CONNECT] Reemplazar por
LastNotNullLast(ignoreNulls=True) - [SPARK-44901] [SC-141676][sql] Backport manual: Agregar API en el método "analyze" udTF de Python para devolver expresiones de partición y ordenación
-
[SPARK-45076] [SC-141795][ps] Cambiar a función integrada
repeat - [SPARK-44162] [SC-141605][core] Compatibilidad con G1GC en métricas de Spark
- [SPARK-45053] [SC-141733][python][MENOR] Mejora en el registro en el error de coincidencia de la versión de Python
-
[SPARK-44866] [SC-142221][sql] Agregar
SnowflakeDialectpara controlar el tipo BOOLEAN correctamente -
[SPARK-45064] [SC-141775][python][CONNECT] Agregar el parámetro que falta
scaleenceil/ceiling -
[SPARK-45059] [ SC-141757][connect][PYTHON] Agregar
try_reflectfunciones a Scala y Python -
[SPARK-43251] [SC-142280][sql] Reemplace la clase
_LEGACY_ERROR_TEMP_2015de error por un error interno. - [SPARK-45052] [SC-141736][sql][PYTHON][connect] Hacer que los nombres de columnas de salida de alias de funciones sean coherentes con SQL
- [SPARK-44239] [ SC-141502][sql] Memoria libre asignada por vectores grandes cuando se restablecen los vectores
-
[SPARK-43295] [SC-142254][ps] Admite columnas de tipo de cadena para
DataFrameGroupBy.sum - [SPARK-45080] [SC-142062][ss] Soporte con llamadas explícitas para columnas en orígenes de datos de streaming DSv2
- [SPARK-45036] [SC-141768][sql] SPJ: Simplificación de la lógica para controlar la distribución en clúster parcial
- [SPARK-45077] [SC-142069][ui] Actualización dagre-d3.js de 0.4.3 a 0.6.4
-
[SPARK-45091] [SC-142020][python][CONNECT][sql] La función
floor/round/broundacepta el tipo de columnascale -
[SPARK-45090] [SC-142019][python][CONNECT]
DataFrame.{cube, rollup}admite ordinales de columna -
[SPARK-44743] [SC-141625][sql] Agregar
try_reflectfunción - [SPARK-45086] [SC-142052][ui] Mostrar hexadecimales para el código hash de bloqueo de subprocesos
- [SPARK-44952] [SC-141644][sql][PYTHON] Soporte con argumentos con nombre en UDF de Pandas agregados
-
[SPARK-44987] [SC-141552][sql] Asignar un nombre a la clase de error
_LEGACY_ERROR_TEMP_1100 -
[SPARK-45032] [SC-141730][connect] Corrección de advertencias de compilación relacionadas con
Top-level wildcard is not allowed and will error under -Xsource:3 - [SPARK-45048] [SC-141629][connect] Adición de pruebas adicionales para el cliente de Python y la ejecución adjuntable
- [SPARK-45072] [SC-141807][connect] Corregir ámbitos externos para clases ammonite
-
[SPARK-45033] [SC-141759][sql] Soporte para mapas mediante parámetros
sql() -
[SPARK-45066] [SC-141772][sql][PYTHON][connect] Hacer que la función
repeatacepte tipo de columnan - [SPARK-44860] [SC-141103][sql] Agregar SESSION_USER función
-
[SPARK-45074] [SC-141796][python][CONNECT]
DataFrame.{sort, sortWithinPartitions}admite ordinales de columna -
[SPARK-45047] [SC-141774][python][CONNECT]
DataFrame.groupByadmite ordinales - [SPARK-44863] [SC-140798][ui] Agregar un botón para descargar el volcado de subprocesos como un txt en la interfaz de usuario de Spark
-
[SPARK-45026] [ SC-141604][connect]
spark.sqldebe admitir tipos de datos no compatibles con la flecha -
[SPARK-44999] [SC-141145][core] Refactorización de
ExternalSorterpara reducir las comprobaciones enshouldPartitional llamar agetPartition -
[SPARK-42304] [SC-141501][sql] Cambiar el nombre
_LEGACY_ERROR_TEMP_2189aGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION - [SPARK-43781] [SC-139450][sql] Corregir IllegalStateException al agrupar dos conjuntos de datos derivados del mismo origen
- [SPARK-45018] [SC-141516][python][CONNECT] Agregar CalendarIntervalType al cliente de Python
- [SPARK-45024] [SC-141513][python][CONNECT] Filtrar algunas configuraciones en la creación de sesiones
-
[SPARK-45017] [SC-141508][python] Agregar
CalendarIntervalTypea PySpark - [SPARK-44720] [SC-139375][connect] Hacer que el conjunto de datos use Encoder en lugar de AgnosticEncoder
- [SPARK-44982] [SC-141027][connect] Marcar las configuraciones del servidor spark Connect como estáticas
- [SPARK-44839] [ SC-140900][ss][CONNECT] Mejor registro de errores cuando el usuario intenta serializar la sesión de Spark
- [SPARK-44865] [ SC-140905][ss] Hacer que StreamingRelationV2 admita la columna de metadatos
- [SPARK-45001] [SC-141141][python][CONNECT] Implementación de DataFrame.foreachPartition
- [SPARK-44497] [SC-141017][webui] Mostrar el identificador de partición de tareas en la tabla de tareas
- [SPARK-45006] [SC-141143][ui] Usa el mismo formato de fecha de otros elementos de fecha de la interfaz de usuario para el eje X de las líneas de tiempo
- [SPARK-45000] [SC-141135][python][CONNECT] Implementación de DataFrame.foreach
- [SPARK-44967] [ SC-141137][sql][CONNECT] La unidad debe considerarse primero antes de usar Boolean para TreeNodeTag
-
[SPARK-44993] [ SC-141088][core] Agregar
ShuffleChecksumUtils.compareChecksumsmediante la reutilizaciónShuffleChecksumTestHelp.compareChecksums - [SPARK-44807] [SC-140176][connect] Adición de Dataset.metadataColumn al cliente de Scala
-
[SPARK-44965] [SC-141098][python] Ocultar funciones o variables internas de
pyspark.sql.functions -
[SPARK-44983] [SC-141030][sql] Convertir binario en cadena por
to_charpara los formatos:hex, ,base64utf-8 - [SPARK-44980] [DBRRM-462] [sc-141024] [PYTHON] [connect] Se ha corregido la herencia de namedtuples para trabajar en createDataFrame
- [SPARK-44985] [SC-141033][core] Usar toString en lugar de stacktrace para threadDump de reaper de tareas
-
[SPARK-44984] [SC-141028][python][CONNECT] Eliminar
_get_aliasdel DataFrame - [SPARK-44975] [SC-141013][sql] Se resolvió la eliminación de BinaryArithmetic a menos que se invalide
-
[SPARK-44969] [ SC-140957][sql] Reutilizar
ArrayInsertenArrayAppend - [SPARK-44549] [SC-140714][sql] Soporte para funciones de ventana en subconsultas escalares correlacionadas
-
[SPARK-44938] [SC-140811][sql] Cambiar el valor predeterminado de
spark.sql.maxSinglePartitionBytesa 128m - [SPARK-44918] [SC-140816][sql][PYTHON] Soporte para argumentos nombrados en funciones UDF escalares de Python/Pandas
-
[SPARK-44966] [SC-140907][core][CONNECT] Cambio del valor
varnunca cambiado aval - [SPARK-41471] [SC-140804][sql] Reducir el orden aleatorio de Spark cuando solo un lado de una combinación es KeyGroupedPartitioning
- [SPARK-44214] [SC-140528][core] Soporte de la interfaz de usuario de registro activo del controlador Spark
- [SPARK-44861] [SC-140716][connect] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][connect] Agregar ProducedRowCount a SparkListenerConnectOperationFinished
-
[SPARK-42017] [SC-140765][python][CONNECT]
df['col_name']debe validar el nombre de columna. - [SPARK-40178] [SC-140433][sql][COONECT] Soporte con sugerencias de fusión con facilidad para PySpark y R
-
[SPARK-44840] [SC-140593][sql] Hacer que
array_insert()sea de una base para índices negativos - [SPARK-44939] [SC-140778][r] Compatibilidad con Java 21 en SparkR SystemRequirements
- [SPARK-44936] [SC-140770][core] Simplificar el registro cuando Spark HybridStore alcanza el límite de memoria
- [SPARK-44908] [SC-140712][ml][CONNECT] Corrección de la funcionalidad del parámetros foldCol de validador cruzada
- [SPARK-44816] [SC-140717][connect] Mejorar el mensaje de error cuando no se encuentra la clase UDF
- [SPARK-44909] [SC-140710][ml] Omitir el inicio del servidor de streaming de registro del distribuidor de antorchas cuando no está disponible
- [SPARK-44920] [SC-140707][core] Use await() en lugar de awaitUninterruptibly() en TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][sql] lastRegex con estado provoca NullPointerException en eval para regexp_replace
- [SPARK-43987] [SC-139594][shuffle] Separe el procesamiento finalizeShuffleMerge en grupos de subprocesos dedicados
- [SPARK-42768] [SC-140549][sql] Habilitar que el plan almacenado en caché aplique AQE de forma predeterminada
-
[SPARK-44741] [ SC-139447][core] Admite MetricFilter basado en regex en
StatsdSink - [SPARK-44751] [ SC-140532][sql] Implementación de la interfaz FileFormat XML
-
[SPARK-44868] [SC-140438][sql] Conversión de datetime en cadena por
to_char/to_varchar - [SPARK-44748] [SC-140504][sql] Ejecución de consultas para la PARTITION cláusula BY en argumentos UDTF TABLE
- [SPARK-44873] [SC-140427] Compatibilidad con alter view con columnas anidadas en el cliente de Hive
- [SPARK-44876] [SC-140431][python] Corrección de UDF de Python optimizada para flechas en Spark Connect
- [SPARK-44520] [SC-137845][sql] Reemplazo del término UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY por UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY y divulgación del AE raíz
-
[SPARK-42664] [SC-139769][connect] Compatibilidad con la función
bloomFilterparaDataFrameStatFunctions -
[SPARK-43567] [ SC-139227][ps] Compatibilidad
use_na_sentinelconfactorize - [SPARK-44859] [SC-140254][ss] Corregir el nombre de propiedad incorrecto en el documento de streaming estructurado
- [SPARK-44822] [SC-140182][python][SQL] Hacer que los UDTF de Python sean no deterministas de manera predeterminada
- [SPARK-44731] [SC-139524][python][CONNECT] Hacer que TimestampNTZ funcione con literales en Python Spark Connect
- [SPARK-44836] [SC-140180][python] Refactorización de UDTF de Arrow Python
- [SPARK-44714] [SC-139238] Restricción de la resolución LCA con respecto a las consultas que tienen
- [SPARK-44749] [SC-139664][sql][PYTHON] Compatibilidad con argumentos con nombre en PYTHON UDTF
- [SPARK-44737] [ SC-139512][sql][UI] No debe mostrar errores de formato JSON en la página SQL para elementos que no son SparkThrowables en la pestaña SQL.
- [SPARK-44665] [SC-139307][python] Agregar soporte con pandas DataFrame assertDataFrameEqual
- [SPARK-44736] [SC-139622][connect] Agregar dataset.explode al cliente Scala de Spark Connect
- [SPARK-44732] [SC-139422][sql] Compatibilidad integrada con orígenes de datos XML
- [SPARK-44694] [ SC-139213][python][CONNECT] Refactorizar sesiones activas y exponerlas como UNA API
- [SPARK-44652] [SC-138881] Se produce un error cuando solo hay un df
- [SPARK-44562] [SC-138824][sql] Adición de OptimizeOneRowRelationSubquery en lote de subconsulta
- [SPARK-44717] [SC-139319][python][PS] Respetar timestampNTZ en el remuestreo
- [SPARK-42849] [SC-139365] [SQL] Variables de sesión
-
[SPARK-44236] [SC-139239][sql] Deshabilitar WholeStageCodegen cuando se establece
spark.sql.codegen.factoryModeen NO_CODEGEN -
[SPARK-44695] [SC-139316][python] Mejorar el mensaje de error para
DataFrame.toDF -
[SPARK-44680] [SC-139234][sql] Mejorar el error de los parámetros en
DEFAULT - [SPARK-43402] [SC-138321][sql] FileSourceScanExec admite la inserción del filtro de datos con subconsulta escalar
- [SPARK-44641] [ SC-139216][sql] Resultado incorrecto en determinados escenarios cuando spJ no se desencadena
-
[SPARK-44689] [SC-139219][connect] Hacer que el control de excepciones de la función
SparkConnectPlanner#unpackScalarScalaUDFsea más universal -
[SPARK-41636] [SC-139061][sql] Asegúrese de que
selectFiltersdevuelve predicados en orden determinista -
[SPARK-44132] [SC-139197][sql] Materializar
Streamde nombres de columna de combinación para evitar errores de codegen -
[SPARK-42330] [SC-138838][sql] Asignar el nombre
RULE_ID_NOT_FOUNDa la clase de error_LEGACY_ERROR_TEMP_2175 - [SPARK-44683] [ SC-139214][ss] No se pasa correctamente el nivel de registro al proveedor del almacén de estado de RocksDB.
-
[SPARK-44658] [ SC-138868][core]
ShuffleStatus.getMapStatusdebe devolverNoneen lugar deSome(null) - [SPARK-44603] [SC-138353] Incluir pyspark.testing en setup.py
- [SPARK-44252] [ SC-137505][ss] Definir una nueva clase de error y aplicar para el caso en el que se produce un error en el estado de carga desde DFS
- [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Produce un error cuando UDF no es deserializable.
- [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Retry ExecutePlan en caso de que la solicitud inicial no llegara al servidor
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Quitar de la dependencia de Connect Client Catalyst
- [SPARK-44059] [SC-138833][sql] Adición de mejores mensajes de error para argumento con nombre de SQL
-
[SPARK-44620] [SC-138831][sql][PS][connect] Hacer que
ResolvePivotconservePlan_ID_TAG - [SPARK-43838] [ SC-137413][sql] Corregir la subconsulta en una sola tabla con cláusula que no se puede optimizar.
- [SPARK-44555] [SC-138820][sql] Use checkError() para comprobar la excepción en el conjunto de comandos y asignar algunos nombres de clase de error
- [SPARK-44280] [SC-138821][sql] Agregar convertJavaTimestampToTimestamp en la API JDBCDialect
-
[SPARK-44602] [SC-138337][sql][CONNECT][ps] Hacer que
WidenSetOperationTypesconservePlan_ID_TAG - [SPARK-42941] [SC-138389][ss][CONNECT] Python StreamingQueryListener
- [SPARK-43838] Revertir “[SC-137413][sql] Corregir subconsulta en un solo ta…
- [SPARK-44538] [SC-138178][connect][SQL] Restablecer Row.jsonValue y amigos
- [SPARK-44421] [ SC-138434][spark-44423][CONNECT] Ejecución repetible en Spark Connect
- [SPARK-43838] [ SC-137413][sql] Corregir la subconsulta en una sola tabla con cláusula que no se puede optimizar.
- [SPARK-44587] [ SC-138315][sql][CONNECT] Aumento del límite de recursividad del serializador protobuf
- [SPARK-44605] [SC-138338][core] Refinar la API de ShuffleWriteProcessor interna
- [SPARK-44394] [SC-138291][connect][WEBUI] Agregar una página de interfaz de usuario de Spark para Spark Connect
- [SPARK-44585] [SC-138286][mllib] Corregir la condición de advertencia en MLLib RankingMetrics ndcgAk
- [SPARK-44198] [SC-138137][core] Compatibilidad con la propagación del nivel de registro a los ejecutores
- [SPARK-44454] [SC-138071][sql][HIVE] HiveShim getTablesByType admite la reserva
- [SPARK-44425] [SC-138135][connect] Validar que el sessionId proporcionado por el usuario sea un UUID
-
[SPARK-43611] [SC-138051][sql][PS][conncect] Haz que
ExtractWindowExpressionsconserve elPLAN_ID_TAG - [SPARK-44560] [SC-138117][python][CONNECT] Mejorar las pruebas y la documentación de la UDF de Arrow Python
- [SPARK-44482] [SC-138067][connect] El servidor Connect debe especificar la dirección de enlace
- [SPARK-44528] [SC-138047][connect] Compatibilidad con el uso adecuado de hasattr() para el dataframe de Connect
- [SPARK-44525] [SC-138043][sql] Mejorar el mensaje de error cuando no se encuentra el método Invoke
- [SPARK-44355] [SC-137878][sql] Traslado de WithCTE a las consultas de comandos
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Consulte Actualizaciones de mantenimiento de Databricks Runtime 14.1.
Entorno del sistema
- Sistema operativo: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| "asttokens" | 2.0.5 | atributos | 22.1.0 | llamada de retorno | 0.2.0 |
| beautifulsoup4 | 4.11.1 | negro | 22.6.0 | blanquear | 4.1.0 |
| intermitente | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
| certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | Haz clic | 8.0.4 | Comm | 0.1.2 |
| contourpy | 1.0.5 | criptografía | 39.0.1 | ciclista | 0.11.0 |
| Cython | 0.29.32 | SDK de Databricks | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | decorador | 5.1.1 | defusedxml | 0.7.1 |
| distlib | 0.3.7 | Conversión de docstring a markdown | 0.11 | puntos de entrada | 0,4 |
| Ejecutar | 0.8.3 | visión general de las facetas | 1.1.1 | fastjsonschema | 2.18.0 |
| bloqueo de archivos | 3.12.3 | fonttools | 4.25.0 | Biblioteca en tiempo de ejecución de GCC | 1.10.0 |
| googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
| ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | jeepney | 0.7.1 |
| Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.17.3 | Cliente Jupyter | 7.3.4 | servidor Jupyter | 1.23.4 |
| jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| llavero | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
| lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
| MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | Mal sintonizado | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
| nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
| nodeenv | 1.8.0 | cuaderno | 6.5.2 | notebook_shim | 0.2.2 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | embalaje | 22,0 |
| Pandas | 1.5.3 | PandocFiltros | 1.5.0 | parso | 0.8.3 |
| pathspec | 0.10.3 | chivo expiatorio | 0.5.3 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Almohada | 9.4.0 | pepita | 22.3.1 |
| platformdirs | 2.5.2 | trazado | 5.9.0 | pluggy | 1.0.0 |
| Cliente-Prometeo | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
| pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
| Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-servidor | 1.7.1 |
| configuración de herramienta Python | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
| solicitudes | 2.28.1 | cuerda | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn | 1.1.1 | biblioteca de visualización de datos de Python llamada seaborn | 0.12.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 65.6.3 | Seis | 1.16.0 |
| sniffio | 1.2.0 | colador para sopa | 2.3.2.post1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels (paquete de Python para análisis estadístico) | 0.13.5 | tenacidad | 8.1.0 |
| terminado | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
| traitlets | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
| actualizaciones desatendidas | 0,1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | codificaciones web | 0.5.1 |
| cliente de websocket | 0.58.0 | ¿Qué es el parche? | 1.0.2 | rueda | 0.38.4 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
| SciPy | 1.10.1 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2023-02-10.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 12.0.1 | askpass | 1.1 | asegúrate de que | 0.2.1 |
| retroportaciones | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
| poco | 4.0.5 | bit 64 | 4.0.5 | mancha | 1.2.4 |
| bota | 1.3-28 | fermentar | 1,0 - 8 | Brio | 1.1.3 |
| escoba | 1.0.5 | bslib | 0.5.0 | cachemir | 1.0.8 |
| callr | 3.7.3 | cursor | 6.0-94 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 |
| Chron | 2.3-61 | clase | 7.3-22 | Cli | 3.6.1 |
| clipr | 0.8.0 | reloj | 0.7.0 | conglomerado | 2.1.4 |
| codetools | 0.2-19 | espacio de colores | 2.1-0 | commonmark | 1.9.0 |
| compilador | 4.3.1 | configuración | 0.3.1 | Confuso | 1.2.0 |
| cpp11 | 0.4.4 | crayón | 1.5.2 | credenciales | 1.3.2 |
| rizo | 5.0.1 | tabla de datos | 1.14.8 | Conjuntos de datos | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Descripción | 1.4.2 |
| devtools | 2.4.5 | diagrama | 1.6.5 | diffobj | 0.3.5 |
| digerir | 0.6.33 | iluminado hacia abajo | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | elipsis | 0.3.2 |
| evaluar | 0,21 | fans | 1.0.4 | colores | 2.1.1 |
| mapa rápido | 1.1.1 | fontawesome | 0.5.1 | convictos | 1.0.0 |
| foreach | 1.5.2 | extranjero | 0.8-82 | fragua | 0.2.0 |
| Fs | 1.6.2 | futuro | 1.33.0 | aplicación futura | 1.11.0 |
| hacer gárgaras | 1.5.1 | genéricos | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | globales | 0.16.2 | pegamento | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| gráficos | 4.3.1 | grDevices | 4.3.1 | rejilla | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
| Casco | 1.3.0 | refugio | 2.5.3 | más alto | 0,10 |
| HMS | 1.1.3 | herramientas de HTML | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Identificadores | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
| isoband | 0.2.7 | Iteradores | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | tejido | 1,43 |
| etiquetado | 0.4.2 | más tarde | 1.3.1 | retícula | 0.21-8 |
| lava | 1.7.2.1 | ciclo de vida | 1.0.3 | listenv | 0.9.0 |
| lubridate | 1.9.2 | magrittr | 2.0.3 | Formato Markdown | 1.7 |
| MASA | 7.3-60 | Matriz | 1.5-4.1 | memorizar | 2.0.1 |
| métodos | 4.3.1 | mgcv | 1.8-42 | mimo | 0.12 |
| miniUI (Interfaz de Usuario) | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.0.6 | paralelo | 4.3.1 |
| Paralelamente | 1.36.0 | pilar | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| plogr | 0.2.0 | plyr | 1.8.8 | elogio | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | progreso | 1.2.2 |
| progressr | 0.13.0 | promesas | 1.2.0.1 | prototipo | 1.0.0 |
| intermediario | 0.4-27 | P.D | 1.7.5 | ronroneo | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| Bosque Aleatorio (randomForest) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| readr | 2.1.4 | readxl | 1.4.3 | recetas | 1.0.6 |
| partido de revancha | 1.0.1 | segunda revancha | 2.1.2 | Telecontroles | 2.4.2 |
| ejemplo reproducible | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
| rmarkdown | 2,23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.6 | balanzas | 1.2.1 |
| selectr | 0.4-2 | información de sesión | 1.2.2 | forma | 1.4.6 |
| brillante | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
| SparkR | 3.5.0 | espacial | 7.3-15 | Tiras | 4.3.1 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Estadísticas | 4.3.1 |
| estadísticas4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
| supervivencia | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| tcltk | 4.3.1 | testthat | 3.1.10 | Formateo de texto | 0.3.6 |
| tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 2.0.0 | cambio de hora | 0.2.0 | fechaHora | 4022.108 |
| tinytex | 0.45 | herramientas | 4.3.1 | tzdb | 0.4.0 |
| verificador de URL | 1.0.1 | usa esto | 2.2.2 | utf8 | 1.2.3 |
| utilidades | 4.3.1 | Identificador Universalmente Único (UUID) | 1.1-0 | vctrs | 0.6.3 |
| viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
| bigotes | 0.4.1 | withr | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.7 | cremallera | 2.3.0 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.12)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | cliente de Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (configuración del SDK de Java de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs (registros del SDK de AWS para Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | SDK de AWS para Java - Soporte | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | flujo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo sombreado | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 nativos |
| com.github.fommil.netlib | netlib-sistema-nativo-linux-x86_64 | 1.1 nativos |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guayaba | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | perfilador | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentes_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | configuración | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 0.25 |
| io.delta | delta-sharing-spark_2.12 | 0.7.5 |
| io.dropwizard.metrics | anotación de métricas | 4.2.19 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | cliente_simple_común | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | coleccionista | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolución | javolución | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | escabeche | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.33 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.9.16 |
| org.apache.arrow | formato de flecha | 12.0.1 |
| org.apache.arrow | núcleo de memoria de flecha | 12.0.1 |
| org.apache.arrow | arrow-memory-netty | 12.0.1 |
| org.apache.arrow | vector de flecha | 12.0.1 |
| org.apache.avro | avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curador-cliente | 2.13.0 |
| org.apache.curator | marco de trabajo para curadores | 2.13.0 |
| org.apache.curator | curador-recetas | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | planificador-de-adaptadores-hive | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | calzos de orco | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-sombreado | 4.23 |
| org.apache.yetus | anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Seguridad de Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Aplicación web de Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | cliente de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | servidor de websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | validador de hibernación | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anotaciones | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Cuñas | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfaz de prueba | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |