Compartir vía


Databricks Runtime 16.0 (EoS)

Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 16.0, con tecnología de Apache Spark 3.5.0.

Databricks publicó esta versión en noviembre de 2024.

Nota:

La compatibilidad con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para conocer todas las versiones de Databricks Runtime compatibles, consulte las notas de lanzamientos y compatibilidad de Databricks Runtime.

Cambios de comportamiento

Cambio importante: JDK 17 es ahora el valor predeterminado

En Databricks Runtime 16.0 y versiones posteriores, la versión predeterminada de JDK se cambia de JDK 8 a JDK 17. Este cambio se realiza debido al desuso planeado y al final de la compatibilidad con JDK 8. Esto afecta a lo siguiente:

  • El código Java que se ejecuta en el proceso de Azure Databricks debe ser compatible con Java 17.
  • El código Scala que se ejecuta en cuadernos o proceso de Azure Databricks debe ser compatible con Java 17.
  • Las bibliotecas de Java y Scala instaladas en el proceso deben ser compatibles con Java 17.
  • Versiones del cliente de metastore de Apache Hive por debajo de la versión 2.x. Establecer la configuración spark.sql.hive.metastore.version de Spark en una versión inferior a la 2.x provocará problemas de compatibilidad con Java 17 y errores de conexión en el metastore de Hive. Databricks recomienda actualizar Hive a una versión anterior a la 2.0.0.

Si necesita revertir a Java 8, agregue lo siguiente a las variables de entorno de Spark al configurar el proceso de Azure Databricks:

JNAME=zulu8-ca-amd64

Si usa instancias de ARM, use lo siguiente:

JNAME=zulu8-ca-arm64

Para más información sobre cómo especificar versiones de JDK con el proceso de Azure Databricks, consulte Creación de un clúster con una versión de JDK específica.

Para obtener ayuda para migrar el código de Java 8, consulte las siguientes guías:

Cambio importante: El RStudio hospedado está al final del ciclo de vida

Con esta versión, RStudio Server hospedado en Databricks es un fin de ciclo de vida y no está disponible en cualquier área de trabajo de Azure Databricks que ejecute Databricks Runtime 16.0 y versiones posteriores. Para obtener más información y ver una lista de alternativas a RStudio, consulte Conexión a un servidor de RStudio hospedado en Databricks.

Cambio importante: eliminación de la compatibilidad con el cambiobyte de tipos , shortint y long a tipos más amplios

En Databricks Runtime 15.4.3 y versiones posteriores, los siguientes cambios de tipo de datos ya no se pueden aplicar a las tablas con la característica de ampliación de tipos habilitada:

  • byte, short, int y long a decimal.
  • byte, shorty int a double.

Este cambio se realiza para garantizar un comportamiento coherente en las tablas Delta y Apache Iceberg. Para obtener más información sobre la ampliación de tipos, consulte Ampliación de tipos.

Corrección del análisis de patrones regex con negación en la agrupación de caracteres anidados

Esta versión incluye un cambio para admitir el análisis correcto de patrones regex con negación en la agrupación de caracteres anidados. Por ejemplo, [^[abc]] se analizará como "cualquier carácter que no sea uno de 'abc'".

Además, el comportamiento de Photon no era coherente con Spark para las clases de caracteres anidadas. Los patrones regex que contienen clases de caracteres anidados ya no usarán Photon y, en su lugar, usarán Spark. Una clase de caracteres anidada es cualquier patrón que contenga corchetes cuadrados dentro de corchetes cuadrados, como [[a-c][1-3]].

Mejora de la detección de coincidencias duplicadas en Delta Lake MERGE

En Databricks Runtime 15.4 LTS y versiones posteriores, MERGE las operaciones producen un error si más de una fila de la tabla de origen coincide con la misma fila de la tabla de destino en función de la MERGE condición especificada en la ON cláusula . En Databricks Runtime 16.0 y versiones posteriores, MERGE también tiene en cuenta las condiciones especificadas en la WHEN MATCHED cláusula . Consulte Upsert en una tabla de Delta Lake mediante combinación.

El método de instalación de la biblioteca de clústeres ya no se puede invalidar

Las configuraciones de Spark , spark.databricks.libraries.enableSparkPyPIy spark.databricks.libraries.enableMavenResolution ahora están predeterminadas spark.databricks.libraries.enableCRANResolutionnowen true y no se pueden invalidar.

Tiempo de espera predeterminado de dos horas para las instalaciones de la biblioteca con ámbito de clúster

En Databricks Runtime 16.0 y versiones posteriores, la instalación de la biblioteca con ámbito de clúster tiene un tiempo de espera predeterminado de dos horas. Se producirá un error en las instalaciones de biblioteca que tardan más de este tiempo de espera y se finalizará la instalación. Al configurar un clúster, puede cambiar el período de tiempo de espera mediante la configuración spark.databricks.driver.clusterLibraryInstallationTimeoutSecde Spark.

La instalación de bibliotecas desde DBFS y la configuración del conf spark.databricks.driver.dbfsLibraryInstallationAllowed de Spark están deshabilitadas

En Databricks Runtime 16.0 y versiones posteriores, la instalación de bibliotecas desde DBFS está totalmente deshabilitada. Este cambio se realiza para mejorar la seguridad de las bibliotecas en un área de trabajo de Databricks. Además, en Databricks Runtime 16.0 y versiones posteriores, ya no puede usar la configuración spark.databricks.driver.dbfsLibraryInstallationAllowedde Spark.

La addArtifact() funcionalidad ahora es coherente en todos los tipos de proceso.

Con esta versión, el archivo se desempaqueta automáticamente cuando se usa addArtifact(archive = True) para agregar una dependencia al proceso compartido o sin servidor de Azure Databricks. Este cambio hace que el addArtifact(archive = True) comportamiento de estos tipos de proceso sea coherente con el proceso dedicado (anteriormente proceso de usuario único), que ya admite el desempaquetado automático de archivos.

Regla de los acentos invertidos aplicada correctamente para identificadores principales con caracteres especiales

Con esta versión, identificadores principales con caracteres especiales en las instrucciones de GRANT, DENY, y REVOKE ahora producirán un error si no están incluidos entre comillas invertidas.

Nuevas características y mejoras

Recarga más confiable de los módulos de Python modificados con mejoras en autoreload

En Databricks Runtime 16.0 y versiones posteriores, las actualizaciones de la autoreload extensión mejoran la seguridad y confiabilidad de la recarga de módulos modificados de Python importados desde los archivos del área de trabajo. Con estos cambios, autoreload, siempre que sea posible, vuelve a cargar solo la parte de un módulo que ha cambiado en lugar de todo el módulo. Además, Azure Databricks ahora sugiere automáticamente el uso de la extensión autoreload si el módulo ha cambiado desde su última importación. Consulte Carga automática de módulos de Python.

Compatibilidad de Avro con el esquema recursivo

Ahora puede usar la opción con la recursiveFieldMaxDepthfrom_avro función y el origen de avro datos. Esta opción establece la profundidad máxima para la recursividad del esquema en el origen de datos Avro. Consulte Lectura y escritura de datos de Avro en streaming.

funciones de to_avro y from_avro

Las funciones to_avro y from_avro permiten la conversión de tipos SQL a datos binarios de Avro y de vuelta.

Compatibilidad ampliada con el Registro de esquemas de Confluent para Avro

Azure Databricks ahora admite la referencia de esquema de Avro con el Registro de esquemas de Confluent. Consulte Autenticación en un registro de esquema de Confluent externo.

Forzar la agrupación en tablas con agrupación en clústeres líquidos

En Databricks Runtime 16.0 y versiones posteriores, puede usar la OPTIMIZE FULL sintaxis para forzar la agrupación en clústeres líquidos de todos los registros de una tabla. Consulta Reagrupación forzada para todos los registros.

Las API delta para Python y Scala ahora admiten columnas de identidad

Ahora puede usar las API delta para Python y Scala para crear tablas con columnas de identidad. Consulte Uso de columnas de identidad en Delta Lake.

El control de acceso granular en cómputo dedicado (antes cómputo para un solo usuario) está generalmente disponible.

En Databricks Runtime 16.0 y versiones posteriores, el control de acceso granular en la computación dedicada está disponible con carácter general. En las áreas de trabajo habilitadas para el proceso sin servidor, si se ejecuta una consulta en un proceso admitido, como el proceso dedicado y la consulta accede a cualquiera de los siguientes objetos, el recurso de proceso pasa la consulta al proceso sin servidor para ejecutar el filtrado de datos:

  • Vistas creadas sobre tablas en las que el usuario no tiene el privilegio SELECT.
  • Vistas dinámicas.
  • Tablas con filtros de fila o máscaras de columna aplicadas.
  • Vistas materializadas y tablas de streaming

Creación de tablas en clúster líquido durante las escrituras de streaming

Ahora puede usar clusterBy para habilitar la agrupación en clústeres líquidos al crear nuevas tablas con escrituras de Structured Streaming. Consulte Habilitación de clústeres líquidos.

Compatibilidad con la cláusula OPTIMIZE FULL

Databricks Runtime 16.0 admite la cláusula OPTIMIZE FULL. Esta cláusula optimiza todos los registros de una tabla que usa la agrupación en clústeres líquidos, incluidos los datos que podrían haberse agrupado previamente.

Compatibilidad con la especificación de opciones WITH en INSERT y en la referencia de tabla

Databricks Runtime 16.0 admite una especificación de opciones para las referencias de tabla y los nombres de tabla de una INSERT instrucción que se pueden usar para controlar el comportamiento de los orígenes de datos.

Nuevas funciones SQL

Las siguientes funciones SQL se agregan en Databricks Runtime 16.0:

  • intentar_descodificar_url

    Esta función es una versión tolerante a errores de url_decode. Esta función devuelve NULL si la entrada no es una cadena codificada con dirección URL válida.

  • zeroifnull

    Si la expresión de entrada de la zeroifnull() función es NULL, la función devuelve 0. De lo contrario, se devuelve el valor de la expresión de entrada.

  • nulo_si_cero

    Devuelve NULL si la entrada es 0 o su entrada si no es 0. Si la expresión de entrada de la nullifzero() función es 0, la función devuelve NULL. Si la expresión de entrada no es 0, se devuelve el valor de la expresión de entrada.

Habilitación de la evolución automática del esquema al combinar datos en una tabla Delta

Esta versión agrega compatibilidad con el withSchemaEvolution() miembro de la DeltaMergeBuilder clase . Use withSchemaEvolution() para habilitar la evolución automática del esquema durante las operaciones de MERGE. Por ejemplo: mergeBuilder.whenMatched(...).withSchemaEvolution().execute()}}.

Otros cambios

SparkR ya está en desuso

En Databricks Runtime 16.0 y versiones posteriores, SparkR en Databricks está en desuso para su desuso en la próxima versión de Spark 4. Consulte el subproceso de Spark En desuso de Apache SparkR.

Databricks recomienda usar en su lugar sparklyr.

Databricks Runtime 16.0 no se admite con PVC

Databricks Runtime 16.0 no es compatible con La nube virtual privada (PVC) de Databricks. Debe usar Databricks Runtime 15.4 o inferior con todas las versiones de PVC.

Corrección de errores

Auto Loader ahora recupera los tipos de registros avro con esquemas vacíos

Al cargar un archivo Avro en una tabla Delta mediante Auto Loader, record los tipos del archivo que tienen un esquema vacío ahora se agregan a la columna de datos rescate. Dado que no puede ingerir tipos de datos complejos vacíos en una tabla Delta, esto resuelve un problema con la carga de algunos archivos avro. Para más información sobre los datos rescates, consulte ¿Qué es la columna de datos rescate?.

Corrección para la escritura de marcas de tiempo de error con zonas horarias que contienen un segundo desplazamiento.

Esta versión corrige un error que afecta a algunas marcas de tiempo con zonas horarias que contienen un segundo desplazamiento. Este error hace que se omitan los segundos al escribir en JSON, XML o CSV, lo que provoca valores de marca de tiempo incorrectos.

Para volver al comportamiento anterior, use la siguiente opción al escribir en uno de los formatos afectados: .option("yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]").

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • azure-core de 1.30.2 a 1.31.0
    • azure-storage-blob de 12.19.1 a 12.23.0
    • azure-storage-file-datalake de 12.14.0 a 12.17.0
    • negro de 23.3.0 a 24.4.2
    • blinker de 1.4 a 1.7.0
    • boto3 de 1.34.39 a 1.34.69
    • botocore de 1.34.39 a 1.34.69
    • certifi de 2023.7.22 a 2024.6.2
    • cffi de 1.15.1 a 1.16.0
    • Haga clic entre 8.0.4 y 8.1.7.
    • comm de 0.1.2 a 0.2.1
    • contourpy de 1.0.5 a 1.2.0
    • criptografía de 41.0.3 a 42.0.5
    • Cython de 0.29.32 a 3.0.11
    • databricks-sdk de 0.20.0 a 0.30.0
    • dbus-python de 1.2.18 a 1.3.2
    • bloqueo de archivos de 3.13.4 a 3.15.4
    • fonttools de 4.25.0 a 4.51.0
    • GitPython de 3.1.43 a 3.1.37
    • google-api-core de 2.18.0 a 2.20.0
    • google-auth de 2.31.0 a 2.35.0
    • google-cloud-storage de 2.17.0 a 2.18.2
    • google-crc32c de 1.5.0 a 1.6.0
    • google-resumable-media de 2.7.1 a 2.7.2
    • googleapis-common-protos de 1.63.2 a 1.65.0
    • httplib2 de 0.20.2 a 0.20.4
    • idna de 3.4 a 3.7
    • ipykernel de 6.25.1 a 6.28.0
    • ipython de 8.15.0 a 8.25.0
    • jedi de 0.18.1 a 0.19.1
    • jmespath de 0.10.0 a 1.0.1
    • joblib de 1.2.0 a 1.4.2
    • jupyter_client de 7.4.9 a 8.6.0
    • jupyter_core de 5.3.0 a 5.7.2
    • launchpadlib de 1.10.16 a 1.11.0
    • lazr.restfulclient de 0.14.4 a 0.14.6
    • matplotlib de 3.7.2 a 3.8.4
    • mlflow-skinny de 2.11.4 a 2.15.1
    • more-itertools de 8.10.0 a 10.3.0
    • mypy-extensions de 0.4.3 a 1.0.0
    • nest-asyncio de 1.5.6 a 1.6.0
    • numpy de 1.23.5 a 1.26.4
    • oauthlib de 3.2.0 a 3.2.2
    • empaquetado de 23.2 a 24.1
    • patsy de 0.5.3 a 0.5.6
    • pip de 23.2.1 a 24.2
    • trazado de 5.9.0 a 5.22.0
    • prompt-toolkit de 3.0.36 a 3.0.43
    • pyarrow de 14.0.1 a 15.0.2
    • pydantic de 1.10.6 a 2.8.2
    • PyGObject de 3.42.1 a 3.48.2
    • PyJWT de 2.3.0 a 2.7.0
    • pyodbc de 4.0.38 a 5.0.1
    • python-dateutil de 2.8.2 a 2.9.0.post0
    • python-lsp-jsonrpc de 1.1.1 a 1.1.2
    • pytz de 2022.7 a 2024.1
    • PyYAML de 6.0 a 6.0.1
    • pyzmq de 23.2.0 a 25.1.2
    • solicitudes de 2.31.0 a 2.32.2
    • scikit-learn de 1.3.0 a 1.4.2
    • scipy de 1.11.1 a 1.13.1
    • seaborn de 0.12.2 a 0.13.2
    • setuptools de 68.0.0 a 74.0.0
    • smmap de 5.0.1 a 5.0.0
    • sqlparse de 0.5.0 a 0.5.1
    • statsmodels de 0.14.0 a 0.14.2
    • tornado de 6.3.2 a 6.4.1
    • traitlets de 5.7.1 a 5.14.3
    • typing_extensions de 4.10.0 a 4.11.0
    • ujson de 5.4.0 a 5.10.0
    • virtualenv de 20.24.2 a 20.26.2
    • rueda de 0.38.4 a 0.43.0
    • zipp de 3.11.0 a 3.17.0
  • Bibliotecas de R actualizadas:
    • flecha de 14.0.0.2 a 16.1.0
    • backports de 1.4.1 a 1.5.0
    • base de 4.3.2 a 4.4.0
    • bitops de 1.0-7 a 1.0-8
    • arranque de 1.3-28 a 1.3-30
    • brio de 1.1.4 a 1.1.5
    • escoba de 1.0.5 a 1.0.6
    • bslib de 0.6.1 a 0.8.0
    • cachem de 1.0.8 a 1.1.0
    • llamador de 3.7.3 a 3.7.6
    • cli de 3.6.2 a 3.6.3
    • reloj de 0.7.0 a 0.7.1
    • clúster de 2.1.4 a 2.1.6
    • codetools de 0.2-19 a 0.2-20
    • espacio de colores de 2.1-0 a 2.1-1
    • compilador de 4.3.2 a 4.4.0
    • crayon de 1.5.2 a 1.5.3
    • curl de 5.2.0 a 5.2.1
    • data.table de 1.15.0 a 1.15.4
    • conjuntos de datos de 4.3.2 a 4.4.0
    • DBI de 1.2.1 a 1.2.3
    • dbplyr de 2.4.0 a 2.5.0
    • digest de 0.6.34 a 0.6.36
    • downlit de 0.4.3 a 0.4.4
    • evaluar de 0.23 a 0.24.0
    • farver de 2.1.1 a 2.1.2
    • fastmap de 1.1.1 a 1.2.0
    • extranjero de 0,8-85 a 0,8-86
    • fs de 1.6.3 a 1.6.4
    • future de 1.33.1 a 1.34.0
    • future.apply de 1.11.1 a 1.11.2
    • gert de 2.0.1 a 2.1.0
    • ggplot2 de 3.4.4 a 3.5.1
    • gh de 1.4.0 a 1.4.1
    • globales de 0.16.2 a 0.16.3
    • gráficos de 4.3.2 a 4.4.0
    • grDevices de 4.3.2 a 4.4.0
    • cuadrícula de 4.3.2 a 4.4.0
    • gt de 0.10.1 a 0.11.0
    • gtable de 0.3.4 a 0.3.5
    • hardhat de 1.3.1 a 1.4.0
    • highr de 0,10 a 0,11
    • htmltools de 0.5.7 a 0.5.8.1
    • httpuv de 1.6.14 a 1.6.15
    • httr2 de 1.0.0 a 1.0.2
    • ipred de 0.9-14 a 0.9-15
    • KernSmooth de 2.23-21 a 2.23-22
    • punto de 1,45 a 1,48
    • lattice de 0,21 a 8 a 0,22-5
    • lava de 1.7.3 a 1.8.0
    • Markdown de 1.12 a 1.13
    • MASS de 7.3-60 a 7.3-60.0.1
    • Matriz de 1.5-4.1 a 1.6-5
    • métodos de 4.3.2 a 4.4.0
    • mgcv de 1,8-42 a 1,9-1
    • mlflow de 2.10.0 a 2.14.1
    • munsell de 0.5.0 a 0.5.1
    • nlme de 3.1-163 a 3.1-165
    • openssl de 2.1.1 a 2.2.0
    • paralelo de 4.3.2 a 4.4.0
    • en paralelo de 1.36.0 a 1.38.0
    • pkgbuild de 1.4.3 a 1.4.4
    • pkgdown de 2.0.7 a 2.1.0
    • pkgload de 1.3.4 a 1.4.0
    • processx de 3.8.3 a 3.8.4
    • prodlim de 2023.08.28 a 2024.06.25
    • promesas de 1.2.1 a 1.3.0
    • ps de 1.7.6 a 1.7.7
    • ragg de 1.2.7 a 1.3.2
    • Rcpp de 1.0.12 a 1.0.13
    • RcppEigen de 0.3.3.9.4 a 0.3.4.0.0
    • reactR de 0.5.0 a 0.6.0
    • recetas de 1.0.9 a 1.1.0
    • remotos de 2.4.2.1 a 2.5.0
    • reprex de 2.1.0 a 2.1.1
    • rlang de 1.1.3 a 1.1.4
    • rmarkdown de 2.25 a 2.27
    • roxygen2 de 7.3.1 a 7.3.2
    • rpart de 4.1.21 a 4.1.23
    • RSQLite de 2.3.5 a 2.3.7
    • rstudioapi de 0.15.0 a 0.16.0
    • rvest de 1.0.3 a 1.0.4
    • sass de 0.4.8 a 0.4.9
    • forma de 1.4.6 a 1.4.6.1
    • brillante de 1.8.0 a 1.9.1
    • sparklyr de 1.8.4 a 1.8.6
    • espacial de 7.3-15 a 7.3-17
    • splines de 4.3.2 a 4.4.0
    • estadísticas de 4.3.2 a 4.4.0
    • estadísticas4 de 4.3.2 a 4.4.0
    • stringi de 1.8.3 a 1.8.4
    • supervivencia de 3,5-5 a 3,6-4
    • swagger de 3.33.1 a 5.17.14.1
    • systemfonts de 1.0.5 a 1.1.0
    • tcltk de 4.3.2 a 4.4.0
    • testthat de la versión 3.2.1 a la 3.2.1.1
    • textshaping de 0.3.7 a 0.4.0
    • tidyselect de 1.2.0 a 1.2.1
    • tinytex de 0,49 a 0,52
    • herramientas de 4.3.2 a 4.4.0
    • usethis de 2.2.2 a 3.0.0
    • utils de 4.3.2 a 4.4.0
    • uuid de 1.2-0 a 1.2-1
    • V8 de 4.4.1 a 4.4.2
    • withr de 3.0.0 a 3.0.1
    • xfun de 0,41 a 0,46
    • xopen de 1.0.0 a 1.0.1
    • yaml de 2.3.8 a 2.3.10
  • Bibliotecas de Java actualizadas:
    • com.amazonaws.aws-java-sdk-autoscaling de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudformation de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudfront de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudhsm de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudsearch de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudtrail de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudwatch de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cloudwatchmetrics de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-codedeploy de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cognitoidentity de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-cognitosync de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-config de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-core de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-datapipeline de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-directconnect de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-directory de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-dynamodb de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ec2 de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ecs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-efs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elasticache de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elasticbeanstalk de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elasticloadbalancing de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-elastictranscoder de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-emr de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-glacier de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-glue de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-iam de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-importexport de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-kinesis de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-kms de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-lambda de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-logs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-machinelearning de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-opsworks de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-rds de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-redshift de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-route53 de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-s3 de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ses de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-simpledb de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-simpleworkflow de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-sns de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-sqs de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-ssm de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-storagegateway de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-sts de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-support de 1.12.610 a 1.12.638
    • com.amazonaws.aws-java-sdk-workspaces de 1.12.610 a 1.12.638
    • com.amazonaws.jmespath-java de 1.12.610 a 1.12.638
    • com.google.protobuf.protobuf-java de 2.6.1 a 3.25.1
    • io.airlift.aircompressor de 0.25 a 0.27
    • io.delta.delta-sharing-client_2.12 de 1.1.3 a 1.2.0
    • io.netty.netty-all de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-buffer de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec-http de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec-http2 de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-codec-socks de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-common de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-handler de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-handler-proxy de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-resolver de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport-classes-epoll de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport-classes-kqueue de 4.1.96.Final a 4.1.108.Final
    • io.netty.netty-transport-native-epoll de 4.1.96.Final-linux-x86_64 a 4.1.108.Final-linux-x86_64
    • io.netty.netty-transport-native-kqueue de 4.1.96.Final-osx-x86_64 a 4.1.108.Final-osx-x86_64
    • io.netty.netty-transport-native-unix-common de 4.1.96.Final a 4.1.108.Final
    • org.apache.ivy.ivy de 2.5.1 a 2.5.2
    • org.apache.zookeeper.zookeeper de 3.6.3 a 3.9.2
    • org.apache.zookeeper.zookeeper-jute de 3.6.3 a 3.9.2
    • org.rocksdb.rocksdbjni de 8.11.4 a 9.2.1
    • org.scalactic.scalactic_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-compatible de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-core_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-diagrams_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-featurespec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-flatspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-freespec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-funspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-funsuite_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-matchers-core_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-mustmatchers_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-propspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-refspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-shouldmatchers_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest-wordspec_2.12 de 3.2.15 a 3.2.16
    • org.scalatest.scalatest_2.12 de 3.2.15 a 3.2.16

Apache Spark

Databricks Runtime 16.0 incluye Apache Spark 3.5.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 15.4 LTS, así como las siguientes correcciones de errores adicionales y mejoras realizadas en Spark:

  • [SPARK-49093] [DBRRM-1371] Revertir "[SC-172958][sql] GROUP BY con MapType nes...
  • [SPARK-49898] [DBRRM-1282][sc-178410] Corrección de la documentación y del valor predeterminado para la opción de registro de acumuladores de métricas de tareas en el log de eventos de SPARK-42204
  • [SPARK-49743] [ ES-1260022][behave-157][SC-177475][sql] OptimizeCsvJsonExpr no debe cambiar los campos de esquema al eliminar GetArrayStructFields
  • [SPARK-49816] [SC-177896][sql] Solo debe actualizar out-going-ref-count para la relación CTE externa a la que se hace referencia.
  • [SPARK-48939] [SC-177022][sc-172766][AVRO] Soporte para la lectura de Avro con esquema de referencia recursiva
  • [SPARK-49688] [ SC-177468][es-1242349][CONNECT] Corregir una carrera de datos entre interrupciones y ejecutar plan
  • [SPARK-49771] [ SC-177466][python] Mejora del error UDF de Iter escalar de Pandas cuando las filas de salida superan las filas de entrada
  • [SPARK-48866] [SC-170772][sql] Corregir indicaciones sobre los conjuntos de caracteres válidos en el mensaje de error de INVALID_PARAMETER_VALUE CHARSET
  • [SPARK-48195] [FIXFORWARD][sc-177267][CORE] Guardar y reutilizar RDD/Broadcast creado por SparkPlan
  • [SPARK-49585] [CONNECT] Reemplazar la asignación de ejecuciones en SessionHolder por operationID set
  • [SPARK-49211] [ SC-174257][sql] V2 Catalog también puede admitir orígenes de datos integrados
  • [SPARK-49684] Minimizar la duración del bloqueo de restauración de sesión
  • [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPARK-48291] Marco de registro estructurado en el lado Java
  • [SPARK-48857] [SC-170661][sql] Restringir los conjuntos de caracteres en CSVOptions
  • [SPARK-49152] [ SC-173690][sql] V2SessionCatalog debe usar V2Command
  • [SPARK-42846] [SC-176588][sql] Quitar condición de error _LEGACY_ERROR_TEMP_2011
  • [SPARK-48195] [ SC-177267][core] Guardar y reutilizar RDD/Broadcast creado por SparkPlan
  • [SPARK-49630] [SC-177379][ss] Agregar opción de aplanamiento para procesar tipos de colección con lector de fuente de datos de estado
  • [SPARK-49699] [ SC-177154][ss] Deshabilitar PruneFilters para cargas de trabajo de streaming
  • [SPARK-48781] [ SC-175282][sql] Agregar API de catálogo para cargar procedimientos almacenados
  • [SPARK-49667] [SC-177068][sql] No permitir intercaladores CS_AI con expresiones que utilizan StringSearch
  • [SPARK-49737] [SC-177207][sql] Deshabilitar el particionamiento en columnas ordenadas en tipos complejos
  • [SPARK-48712] [SC-169794][sql] Mejora de rendimiento para la codificación con valores vacíos o conjunto de caracteres UTF-8
  • [SPARK-49038] [ SC-173933][sql] SQLMetric debe notificar el valor sin procesar en el evento de actualización del acumulador
  • [SPARK-48541] [SC-169066][core] Agregar un nuevo código de salida para ejecutores eliminados por TaskReaper
  • [SPARK-48774] [SC-170138][sql] Usar SparkSession en SQLImplicits
  • [SPARK-49719] [SC-177139][sql] Hacer que UUID y SHUFFLE acepten entero seed
  • [SPARK-49713] [SC-177135][python][CONNECT] Hacer que la función count_min_sketch acepte argumentos numéricos
  • [SPARK-47601] [ SC-162499][graphx] Graphx: Migración de registros con variables al marco de registro estructurado
  • [SPARK-49738] [SC-177219][sql] Corrección de errores de 'endswith'
  • [SPARK-48623] [SC-170822][core] Migraciones de registro estructurado [Parte 3]
  • [SPARK-49677] [ SC-177148][ss] Asegúrese de que los archivos del registro de cambios se escriban al realizar la confirmación y que también se reinicie la marca forceSnapshot.
  • [SPARK-49684] [SC-177040][connect] Eliminar bloqueos globales de los gestores de sesión y ejecución
  • [SPARK-48302] [SC-168814][python] Preservar valores nulos en columnas de mapas en tablas PyArrow
  • [SPARK-48601] [SC-169025][sql] Proporcione un mensaje de error más descriptivo al establecer un valor NULL para la opción JDBC.
  • [SPARK-48635] [SC-169263][sql] Asignar clases para unir errores de tipo y as-of error de combinación
  • [SPARK-49673] [ SC-177032][connect] Aumentar CONNECT_GRPC_ARROW_MAX_BATCH_SIZE a 0,7 * CONNECT_GRPC_MAX_MESSAGE_SIZE
  • [SPARK-49693] [SC-177071][python][CONNECT] Refinar la representación de cadena de timedelta
  • [SPARK-49687] [SC-176901][sql] Retrasar la ordenación en validateAndMaybeEvolveStateSchema
  • [SPARK-49718] [SC-177112][ps] Cambiar la Scatter gráfica a datos muestreados
  • [SPARK-48472] [SC-169044][sql] Habilitar expresiones reflect con cadenas intercaladas
  • [SPARK-48484] [SC-167484][sql] Corrección: V2Write usa el mismo TaskAttemptId para distintos intentos de tarea
  • [SPARK-48341] [SC-166560][connect] Permitir que los complementos usen QueryTest en sus pruebas
  • [SPARK-42252] [SC-168723][core] Agregar spark.shuffle.localDisk.file.output.buffer y dejar de usar spark.shuffle.unsafe.file.output.buffer
  • [SPARK-48314] [SC-166565][ss] No haga doble caché los archivos para FileStreamSource mediante Trigger.AvailableNow
  • [SPARK-49567] [SC-176241][python] Usar classic en lugar de vanilla desde el código base de PySpark
  • [SPARK-48374] [SC-167596][python] Compatibilidad con tipos de columnas de tabla PyArrow adicionales
  • [SPARK-48300] [SC-166481][sql] Compatibilidad con Codegen from_xml
  • [SPARK-49412] [SC-177059][ps] Calcular todas las métricas de trazado de cuadros en un solo trabajo
  • [SPARK-49692] [SC-177031][python][CONNECT] Refinar la representación de cadena de la fecha literal y fecha y hora
  • [SPARK-49392] [ ES-1130351][sc-176705][SQL] Detectar errores al no escribir en el origen de datos externo
  • [SPARK-48306] [SC-166241][sql] Mejorar UDT en el mensaje de error
  • [SPARK-44924] [SC-166379][ss] Agregar configuración para archivos almacenados en caché fileStreamSource
  • [SPARK-48176] [SC-165644][sql] Ajustar el nombre de la condición de error FIELD_ALREADY_EXISTS
  • [SPARK-49691] [SC-176988][python][CONNECT] La función substring debe aceptar nombres de columna.
  • [SPARK-49502] [SC-176077][core] Evitar NPE en SparkEnv.get.shuffleManager.unregisterShuffle
  • [SPARK-49244] [ SC-176703][sql] Mejoras de excepciones adicionales para el analizador o intérprete
  • [SPARK-48355] [SC-176684][sql] Compatibilidad con la instrucción CASE
  • [SPARK-49355] [ SC-175121][sql] levenshtein debe comprobar si los collation valores de todos los tipos de parámetros son los mismos.
  • [SPARK-49640] [ SC-176953][ps] Aplicar muestreo de reservorios en SampledPlotBase
  • [SPARK-49678] [SC-176857][core] Compatibilidad spark.test.master con SparkSubmitArguments
  • [SPARK-49680] [SC-176856][python] Limitar Sphinx el paralelismo de compilación a 4 de forma predeterminada
  • [SPARK-49396] Revert "[SC-176030][sql] Modify nullability check for CaseWhen expression" (Revertir "[SC-176030][sql] Modificar comprobación de nulabilidad para la expresión CaseWhen"
  • [SPARK-48419] [SC-167443][sql] La propagación plegable reemplaza la columna plegable…
  • [SPARK-49556] [SC-176757][sql] Agregar sintaxis de canalización SQL para el SELECT operador
  • [SPARK-49438] [ SC-175237][sql] Corregir el nombre bonito de la FromAvro & ToAvro expresión
  • [SPARK-49659] [ SC-1229924][sql] Agregar un buen error orientado al usuario para subconsultas escalares dentro VALUES de la cláusula
  • [SPARK-49646] [ SC-176778][sql] corregir la decorrelación de subconsultas para operaciones de unión/conjunto cuando parentOuterReferences tiene referencias no cubiertas en collectedChildOuterReferences
  • [SPARK-49354] [ SC-175034][sql] split_part debe comprobar si los collation valores de todos los tipos de parámetros son los mismos.
  • [SPARK-49478] [SC-175914][connect] Control de métricas nulas en ConnectProgressExecutionListener
  • [SPARK-48358] [SC-176374][sql] Compatibilidad con la instrucción REPEAT
  • [SPARK-49183] [SC-173680][sql] El V2SessionCatalog.createTable debe respetar PROP_IS_MANAGED_LOCATION
  • [SPARK-49611] [ SC-176791][sql] Introducir TVF collations() y quitar el SHOW COLLATIONS comando
  • [SPARK-49261] [SC-176589][sql] No reemplaces literales en expresiones agregadas por expresiones de agrupación
  • [SPARK-49099] [ SC-173229][sql] CatalogManager.setCurrentNamespace debe respetar el catálogo de sesiones personalizado
  • [SPARK-49594] [SC-176569][ss] Agregando una comprobación sobre si las familias de columnas se agregaron o se quitaron para escribir el archivo StateSchemaV3
  • [SPARK-49578] [ SC-176385][sql] Eliminar la sugerencia de configuración ANSI en CAST_INVALID_INPUT y CAST_OVERFLOW
  • [SPARK-48882] [SC-174256][ss] Asignar nombres a clases de error relacionadas con el modo de salida de streaming
  • [SPARK-49155] [ SC-176506][sql][SS] Usar el tipo de parámetro más adecuado para construir GenericArrayData
  • [SPARK-49519] [SC-176388][sql] Opciones de combinación de tabla y relación al construir FileScanBuilder
  • [SPARK-49591] [SC-176587][sql] Agregar la columna de tipo lógico al archivo README variant
  • [SPARK-49596] [ SC-176423][sql] Mejorar el rendimiento de FormatString
  • [SPARK-49525] [SC-176044][ss][CONNECT] Mejora menor del log en el ListenerBus del agente de escucha de consultas de streaming del lado del servidor.
  • [SPARK-49583] [SC-176272][sql] Definir la sub-condición SECONDS_FRACTION de error para el patrón de fracción de segundos no válido
  • [SPARK-49536] [SC-176242] Control del error en la captura previa del registro del origen de datos de streaming de Python
  • [SPARK-49443] [SC-176273][sql][PYTHON] Implementar la expresión to_variant_object y hacer que las expresiones schema_of_variant impriman OBJECT específicamente para objetos de tipo Variant.
  • [SPARK-49544] [ SASP-3990][sc-176557][CONNECT] Reemplace el bloqueo grueso en SparkConnectExecutionManager con ConcurrentMap
  • [SPARK-49548] [SASP-3990][sc-176556][CONNECT] Reemplazar el bloqueo grueso en SparkConnectSessionManager con ConcurrentMap
  • [SPARK-49551] [SC-176218][ss] Mejorar el registro de RocksDB para replayChangelog
  • [SPARK-49595] [SC-176396][connect][SQL] Corrección DataFrame.unpivot/melt en el cliente Scala de Spark Connect
  • [SPARK-49006] [SC-176162] Implementación de purga para archivos OperatorStateMetadataV2 y StateSchemaV3
  • [SPARK-49600] [SC-176426][python] Eliminar la lógica relacionada con Python 3.6 and older de try_simplify_traceback
  • [SPARK-49303] [SC-176013][ss] Implementación de TTL para ValueState en transformWithStateInPandas API
  • [SPARK-49191] [SC-176243][ss] Agregar soporte para leer las variables de estado de transformWithState con el lector de origen de datos de estado
  • [SPARK-49593] [SC-176371][ss] Lanzar la excepción de RocksDB al llamador al cerrar la base de datos si se detecta un error
  • [SPARK-49334] [ SC-174803][sql] str_to_map debe comprobar si los collation valores de todos los tipos de parámetros son los mismos.
  • [SPARK-42204] [ SC-176126][core] Agregar opción para deshabilitar el registro redundante de Acumuladores Internos de TaskMetrics en los registros de eventos
  • [SPARK-49575] [ SC-176256][ss] Agregar registro de logs para la liberación del bloqueo solo si acquiredThreadInfo no es nulo
  • [SPARK-49539] [SC-176250][ss] Actualizar el identificador de inicio de las familias de columnas internas a uno diferente
  • [SPARK-49205] [SC-173853][sql] KeyGroupedPartitioning debería heredar de HashPartitioningLike
  • [SPARK-49396] [SC-176030][sql] Modificar la comprobación de nulabilidad para CaseWhen expression
  • [SPARK-49476] [SC-175700][sql] Corrección de la nulabilidad de la función base64
  • [SPARK-47262] [SC-174829][sql] Asignar nombres a condiciones de error para conversiones de parquet
  • [SPARK-47247] [SC-158349][sql] Usar un tamaño de destino menor al consolidar particiones con uniones de explosión
  • [SPARK-49501] [SC-176166][sql] Corrección del escape doble de la ubicación de la tabla
  • [SPARK-49083] [ SC-173214][connect] Permitir que from_xml y from_json funcionen de forma nativa con esquemas JSON
  • [SPARK-49043] [SC-174673][sql] Arreglar la agrupación de rutas de código interpretadas en mapas que contienen cadenas ordenadas.
  • [SPARK-48986] [SC-172265][connect][SQL] Agregar representación intermedia de ColumnNode
  • [SPARK-49326] [ SC-176016][ss] Clasificación de la clase de error para el error de función de usuario receptor Foreach
  • [SPARK-48348] [SC-175950][spark-48376][SQL] Introducir instrucciones LEAVE y ITERATE
  • [SPARK-49523] [SC-175949][connect] Aumentar el tiempo máximo de espera para que el servidor de conexión aparezca para realizar pruebas
  • [SPARK-49000] [BEHAVE-105][es-1194747][SQL] Corregir “select count(distinct 1) from t” donde la tabla t está vacía mediante la ampliación de RewriteDistinctAggregates - versión DBR 16.x
  • [SPARK-49311] [SC-175038][sql] Permitir que los valores grandes de "intervalo de segundos" se conviertan en decimales
  • [SPARK-49200] [SC-173699][sql] Corrección de la excepción de ordenación de tipos null que no son codegen
  • [SPARK-49467] [SC-176051][ss] Agregar compatibilidad con el lector de datos de estado y el estado de listas
  • [SPARK-47307] [SC-170891][sql] Agregar una configuración para fragmentar cadenas base64 opcionalmente
  • [SPARK-49391] [SC-176032][ps] Diagrama de caja selecciona los valores atípicos por distancia de las vallas
  • [SPARK-49445] [SC-175845][ui] Mostrar información sobre herramientas en la barra de progreso de la interfaz
  • [SPARK-49451] [SC-175702] Permitir claves duplicadas en parse_json.
  • [SPARK-49275] [SC-175701][sql] Corregir la nulación del tipo de valor devuelto de la expresión xpath
  • [SPARK-49021] [SC-175578][ss] Incorporar soporte para la lectura de variables de estado de valor de transformWithState utilizando el lector de fuente de datos del estado.
  • [SPARK-49474] [ BEHAVE-143][sc-169253][SC-175933][ss] Clasificar la clase de error para el error de la función de usuario flatMapGroupsWithState
  • [SPARK-49408] [SC-175932][sql] Usar IndexedSeq en ProjectingInternalRow
  • [SPARK-49509] [SC-175853][core] Use Platform.allocateDirectBuffer en lugar de ByteBuffer.allocateDirect
  • [SPARK-49382] [SC-175013][ps] Asegurar que el diagrama de caja represente correctamente los valores atípicos y puntos extremos.
  • [SPARK-49002] [SC-172846][sql] Controlar constantemente ubicaciones no válidas en WAREHOUSE/SCHEMA/TABLE//PARTITIONDIRECTORY
  • [SPARK-49480] [SC-175699][core] Corregir NullPointerException desde SparkThrowableHelper.isInternalError
  • [SPARK-49477] [ SC-175828][python] Mejora del mensaje de error de tipo de valor devuelto no válido de pandas udf
  • [SPARK-48693] [SC-169492][sql] Simplificar y unificar toString of Invoke y StaticInvoke
  • [SPARK-49441] [ SC-175716][ml] StringIndexer ordenar matrices en ejecutores
  • [SPARK-49347] [SC-175004][r] Deprecar SparkR
  • [SPARK-49357] [SC-175227][connect][PYTHON] Truncamiento vertical del mensaje protobuf profundamente anidado
  • [SPARK-41982] [SC-120604][sql] Las particiones de tipo cadena no deben tratarse como tipos numéricos
  • [SPARK-48776] [SC-170452][behave-72] Corrección del formato de marca de tiempo para json, xml y csv
  • [SPARK-49223] [SC-174800][ml] Simplificación de StringIndexer.countByValue con funciones integradas
  • [SPARK-49016] Revertir "[SC-174663][sql] Restaurar el comportamiento que prohíbe las consultas a archivos CSV sin procesar cuando solo se incluye la columna de registros corruptos y asignar un nombre a _LEGACY_ERROR_TEMP_1285"
  • [SPARK-49041] [ SC-172392][python][CONNECT] Genera un error adecuado para dropDuplicates cuando se da un error incorrecto subset .
  • [SPARK-49050] [SC-175235] Habilitación del operador deleteIfExists en TWS con familias de columnas virtuales
  • [SPARK-49216] [SC-173919][core]Corrección para no registrar el contexto del mensaje con LogEntry construido explícitamente cuando el conf de registro estructurado está desactivado
  • [SPARK-49252] [SC-175596][core] HacerTaskSetExcludeList y HeathTracker independientes
  • [SPARK-49352] [SC-174971][sql] Evitar la transformación de matriz redundante para expresiones idénticas
  • [SPARK-42307] [SC-173863][sql] Asignar nombre para el error _LEGACY_ERROR_TEMP_2232
  • [SPARK-49197] [SC-173732][core] Redacte Spark Command la salida en launcher módulo
  • [SPARK-48913] [SC-173934][sql] Implementar IndentingXMLStreamWriter
  • [SPARK-49306] [SC-175363][python][SQL] Crear alias de función SQL para 'zeroifnull' y 'nullifzero'
  • [SPARK-48344] [SQL] Ejecución de scripting de SQL (incluido Spark Connect)
  • [SPARK-49402] [SC-175122][python] Corrección de la integración del enlazador en la documentación de PySpark
  • [SPARK-49017] [ SC-174664][sql] Error en la instrucción Insert cuando se usan varios parámetros
  • [SPARK-49318] [SC-174733][sql] Posponer los errores de baja prioridad en LCA hasta el final del análisis de verificación para mejorar la experiencia de errores.
  • [SPARK-49016] [SC-174663][sql] Restaurar el comportamiento de que las consultas de archivos CSV sin procesar están prohibidas cuando solo se incluye la columna de registro dañada y asignar un nombre a _LEGACY_ERROR_TEMP_1285
  • [SPARK-49387] [SC-175124][python] Corrección del indicador de tipo para accuracy en percentile_approx y approx_percentile
  • [SPARK-49131] [ SC-174666][ss] TransformWithState debe establecer correctamente claves de agrupación implícitas incluso con iteradores diferidos
  • [SPARK-49301] [SC-174795][ss] Datos de Arrow de fragmentos pasados a un trabajador de Python
  • [SPARK-49039] [SC-174651][ui] Restablecer casilla de verificación cuando las métricas del ejecutor se cargan en la pestaña de etapas
  • [SPARK-48428] [SC-169806][sql]: Corrección de IllegalStateException en NestedColumnAliasing
  • [SPARK-49353] [SC-174830][sql] Actualización de documentos relacionados con UTF-32 la codificación o descodificación
  • [SPARK-48613] [SC-170966][sql] SPJ: compatibilidad con el orden aleatorio automático de un lado + menos claves de combinación que las claves de partición
  • [SPARK-47473] [SC-160450][behave-127][SQL] Corrección del problema de conversión de marcas de tiempo INFINITY de Postgres.
  • [SPARK-49142] [SC-173658][connect][PYTHON] Seguimiento para revertir el impacto en el rendimiento al convertir 'proto' a cadena
  • [SPARK-49300] [SC-175008][core] Corregir la pérdida de tokens de delegación de Hadoop cuando no se ha establecido tokenRenewalInterval.
  • [SPARK-49367] [SC-175012][ps] Paralelizar el cálculo de KDE para varias columnas (backend gráfico)
  • [SPARK-49365] [SC-175011][ps] Simplificar la agregación por intervalos en el gráfico de histograma
  • [SPARK-49372] [SC-175003][ss] Asegúrese de que latestSnapshot se establezca en none al cerrar para evitar el uso posterior.
  • [SPARK-49341] [SC-174785] Quitar connector/docker en favor de Apache Spark Operator
  • [SPARK-49344] [SC-174894][ps] Compatibilidad json_normalize con API de Pandas en Spark
  • [SPARK-49306] [SC-174794][sql] Crear nuevas funciones SQL 'zeroifnull' y 'nullifzero'
  • [SPARK-48796] [ SC-174668][ss] Cargar identificador de familia de columnas desde RocksDBCheckpointMetadata para VCF al reiniciar
  • [SPARK-49342] [SC-174899][sql] Convertir el argumento 'jsonFormatSchema' de la función SQL TO_AVRO en opcional
  • [SPARK-48628] [SC-174695][core] Agregar métricas de memoria máxima en/afuera del montón para tareas
  • [SPARK-47407] [SC-159379][behave-126][SQL] Permitir la asignación de java.sql.Types.NULL a NullType
  • [SPARK-48628] [SC-173407][core] Añadir métricas de pico de memoria on/off heap de tareas
  • [SPARK-49166] [SC-173987][sql] Soporte para OFFSET en subconsulta correlacionada
  • [SPARK-49269] [SC-174676][sql] Evaluar con anticipación la lista VALUES() en AstBuilder
  • [SPARK-49281] [SC-174782][sql] Optimze parquet binary getBytes con getBytesUnsafe para evitar el costo de copia
  • [SPARK-49113] [SC-174734] No aserción en errores de traducción: tragar silenciosamente la excepción
  • [SPARK-49098] [ SC-173253][sql] Agregar opciones de escritura para INSERT
  • [SPARK-48638] [SC-174694][follow][CONNECT] Corrección de la documentación de ExecutionInfo
  • [SPARK-49250] [ ES-1222826][sql] Mejorar el mensaje de error para UnresolvedWindowExpression anidado en CheckAnalysis
  • [SPARK-48755] [SC-174258][ss][PYTHON] implementación base de transformWithState en pyspark y soporte para ValueState
  • [SPARK-48966] [ SC-174329][sql] Mejorar el mensaje de error con una referencia de columna no resuelta no válida en la llamada UDTF
  • [SPARK-46590] [SC-154115][sql] Corregir coalescencia fallida con índices de partición inesperados
  • [SPARK-49235] [SC-174159][sql] Refactorizar la regla ResolveInlineTables para que no recorra todo el árbol
  • [SPARK-49060] [SC-173107][connect] Limpiar las reglas de Mima para la verificación de compatibilidad binaria SQL-Connect
  • [SPARK-48762] [SC-172525][sql] Introducción a clusterBy DataFrameWriter API para Python
  • [SPARK-49207] [SC-173852][sql] Corregir el mapeo de casos de uno a varios en SplitPart y StringSplitSQL
  • [SPARK-49204] [SC-173850][sql] Corregir el control de pares suplentes en StringInstr y StringLocate
  • [SPARK-36680] [SC-170640][sql] Admite opciones de tabla dinámica para Spark SQL
  • [SPARK-49204] [SC-173849][sql] Corregir el control de pares suplentes en SubstringIndex
  • [SPARK-49204] [SC-173848][sql] Corregir el control de pares suplentes en StringTrim
  • [SPARK-48967] [SC-173993]Corrección de la prueba de SparkConfigOwnershipSuite para OPTIMIZE_INSERT_INTO_VALUES_PARSER
  • [SPARK-49204] [SC-173851][sql] Corregir el control de pares suplentes en StringReplace
  • [SPARK-48967] [ SC-173993][sql][16.x] Mejorar el rendimiento y la huella de memoria de "INSERT INTO ... declaraciones VALUES"
  • [SPARK-49099] Revertir "[SC-173229][sql] CatalogManager.setCurrent...
  • [SPARK-48347] [SC-173812][sql] Compatibilidad con la instrucción WHILE
  • [SPARK-49128] [SC-173344][core] Compatibilidad con el título personalizado de la interfaz de usuario del servidor de historial
  • [SPARK-49146] [ SC-173825][ss] Mover errores de aserción relacionados con la marca de agua que falta en las consultas de streaming en modo anexado al marco de errores
  • [SPARK-45787] [SC-172197][sql] Soporte para Catalog.listColumns en columnas de agrupamiento
  • [SPARK-49099] [ SC-173229][sql] CatalogManager.setCurrentNamespace debe respetar el catálogo de sesiones personalizado
  • [SPARK-49138] [SC-173483][sql] Fix CollationTypeCasts de varias expresiones
  • [SPARK-49163] [SC-173666][sql] El intento de crear una tabla basada en datos de particiones parquet rotos debe devolver un error visible para el usuario.
  • [SPARK-49201] [SC-173793][ps][PYTHON][connect] Reimplementar trazado con Spark SQL
  • [SPARK-49188] [ SC-173682][sql] Error interno en concat_ws llamado sobre un arreglo de arreglos de cadenas
  • [SPARK-49137] [SC-173677][sql] Cuando la condición booleana en if statement es inválida, se debe lanzar una excepción.
  • [SPARK-49193] [SC-173672][sql] Mejorar el rendimiento de RowSetUtils.toColumnBasedSet
  • [SPARK-49078] [SC-173078][sql] Compatibilidad con mostrar la sintaxis de columnas en la tabla v2
  • [SPARK-49141] [SC-173388][sql] Marcar la variante como tipo de datos incompatible con Hive
  • [SPARK-49059] [ Cherry-Pick][15.x][SC-172528][connect] Mover SessionHolder.forTesting(...) al paquete de prueba
  • [SPARK-49111] [SC-173661][sql] Mover withProjectAndFilter al objeto complementario de DataSourceV2Strategy
  • [SPARK-49185] [ SC-173688][ps][PYTHON][connect] Reimplementar visualización con Spark SQL
  • [SPARK-49178] [ SC-173673][sql] Optimizar el rendimiento de Row#getSeq para que coincida con el rendimiento al usar Spark 3.5 con Scala 2.12
  • [SPARK-49093] [SC-172958][sql] GROUP BY con MapType anidado dentro de un tipo complejo
  • [SPARK-49142] [ SC-173469][connect][PYTHON] Nivel de registro de cliente de Spark Connect inferior para depurar
  • [SPARK-48761] [SC-172048][sql] Introducir la API clusterBy DataFrameWriter para Scala
  • [SPARK-48346] [SC-173083][sql] Compatibilidad con instrucciones IF ELSE en scripts SQL
  • [SPARK-48338] [SC-173112][sql] Mejorar las excepciones producidas por el analizador/intérprete
  • [SPARK-48658] [ SC-169474][sql] Las funciones Codificar/Descodificar informan de errores de codificación en lugar de mojibake para caracteres que no se pueden mapear
  • [SPARK-49071] [SC-172954][sql] Quitar el rasgo ArraySortLike
  • [SPARK-49107] Revertir “Revertir “[SC-173103][sql] ROUTINE_ALREADY_EXISTS admite RoutineType””
  • [SPARK-49070] [SC-172907][ss][SQL] TransformWithStateExec.initialState se reescribe incorrectamente para generar un plan de consulta no válido
  • [SPARK-49114] [SC-173217] La subconsulta no puede cargar errores de almacén de estado
  • [SPARK-49107] Revertir “[SC-173103][sql] ROUTINE_ALREADY_EXISTS soporta RoutineType”
  • [SPARK-49048] [ SC-173223][ss] Agregar compatibilidad para leer metadatos de operador pertinentes en un identificador de lote determinado
  • [SPARK-49094] [SC-173049][sql] Corregir el mal funcionamiento de ignoreCorruptFiles en la implementación de hive orc con mergeSchema desactivado.
  • [SPARK-49108] [SC-173102][ejemplo] Ejemplo de adición submit_pi.sh de la API REST
  • [SPARK-49107] [SC-173103][sql] ROUTINE_ALREADY_EXISTS admite RoutineType
  • [SPARK-48997] [SC-172484][ss] Implementación de procesos individuales para fallos de subprocesos del grupo de mantenimiento.
  • [SPARK-49063] [SC-173094][sql] Corrección entre con ScalarSubqueries
  • [SPARK-45891] [SC-172305][sql][PYTHON][variant] Agregar compatibilidad con los tipos de intervalo en la especificación variant
  • [SPARK-49074] [BEHAVE-110][sc-172815][SQL] Corrección de variante con df.cache()
  • [SPARK-49003] [SC-172613][sql] Corregir el algoritmo de hash del camino de código interpretado teniendo en cuenta la intercalación.
  • [SPARK-48740] [ SC-172430][sql] Error de especificación de ventana que falta al principio
  • [SPARK-48999] [SC-172245][ss] Dividir PythonStreamingDataSourceSimpleSuite
  • [SPARK-49031] [SC-172602] Implementación de la validación para el operador TransformWithStateExec mediante OperatorStateMetadataV2
  • [SPARK-49053] [SC-172494][python][ML] Hacer que las funciones auxiliares de guardar/cargar el modelo acepten la sesión de spark
  • [SPARK-49032] [Backport][15.x][SS] Agregar ruta de acceso de esquema en la entrada de la tabla de metadatos, comprobar la versión esperada y agregar la prueba relacionada con los metadatos del operador para el formato de metadatos del operador v2
  • [SPARK-49034] [SC-172306][core] Soporte para el reemplazo del lado del servidor en la API de envío de REST
  • [SPARK-48931] [ SC-171895][ss] Reducción del costo de la API de lista de almacenes en la nube para la tarea de mantenimiento del almacén de estado
  • [SPARK-48849] [ SC-172068][ss]Create OperatorStateMetadataV2 para el operador TransformWithStateExec
  • [SPARK-49013] [SC-172322] Cambio de clave en intercalacionesMap para tipos de mapa y matriz en scala
  • [SPARK-48414] [SC-171884][python] Corrección del cambio importante en python fromJson
  • [SPARK-48910] [SC-171001][sql] Usar HashSet/HashMap para evitar búsquedas lineales en PreprocessTableCreation
  • [SPARK-49007] [SC-172204][core] Mejorar MasterPage para admitir el título personalizado
  • [SPARK-49009] [SC-172263][sql][PYTHON] Hacer que las API de columna y las funciones acepten enumeraciones
  • [SPARK-49033] [SC-172303][core] Compatibilidad con el reemplazo en el lado del servidor en la API de envío de REST
  • [SPARK-48363] [SC-166470][sql] Limpiar algunos códigos redundantes en from_xml
  • [SPARK-46743] [ SC-170867][sql][BEHAVE-84] Error de recuento después de que ScalarSubqery esté plegado si tiene una relación vacía
  • [SPARK-49040] [SC-172351][sql] Corrección del documento sql-ref-syntax-aux-exec-imm.md
  • [SPARK-48998] [SC-172212][ml] Algoritmos meta guardan/cargan modelo con SparkSession
  • [SPARK-48959] [SC-171708][sql] Ampliar NoSuchNamespaceExceptionNoSuchDatabaseException para restaurar el control de excepciones
  • [SPARK-48996] [ SC-172130][sql][PYTHON] Permitir literales simples para "y" y "o" de Column
  • [SPARK-48990] [SC-171936] Seguimiento de #101759: corrección de pruebas
  • [SPARK-48338] [SC-171912][sql] Comprobar declaraciones de variables
  • [SPARK-48990] [SC-171936][sql] Palabras clave de sintaxis SQL relacionadas con variables unificadas
  • [SPARK-48988] [ SC-171915][ml] Realizar DefaultParamsReader/Writer el control de metadatos con la sesión de Spark
  • [SPARK-48974] [ SC-171978][sql][SS][ml][MLLIB] Use SparkSession.implicits en lugar de SQLContext.implicits
  • [SPARK-48760] [SC-170870][sql] Corregir el CatalogV2Util.applyClusterByChanges
  • [SPARK-48928] [SC-171956] Advertencia de registro para llamar a .unpersist() en RDD de punto de control local
  • [SPARK-48760] [SC-170139][sql] Introducir ALTER TABLE ... CLUSTER BY sintaxis SQL para cambiar columnas de agrupamiento
  • [SPARK-48844] Revertir "[SC-170669][sql] USAR INVALID_EMPTY_LOCATION en lugar de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY cuando la ruta esté vacía"
  • [SPARK-48833] [SC-171914][sql][VARIANT] Variante de compatibilidad en InMemoryTableScan
  • [SPARK-48975] [ SC-171894][protobuf] Quitar la definición innecesaria ScalaReflectionLock de protobuf
  • [SPARK-48970] [SC-171800][python][ML] Evite usar SparkSession.getActiveSession en el lector y escritor de Spark ML.
  • [SPARK-48844] [SC-170669][sql] USE INVALID_EMPTY_LOCATION en lugar de UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY cuando la ruta esté vacía
  • [SPARK-48714] [SC-170136] Corrección de pruebas df.mergeInto con errores en PySpark y UC
  • [SPARK-48957] [SC-171797][ss] Devuelve una clase de error sub-clasificada al cargar el almacén de estado para el proveedor hdfs y rocksdb.
  • [SPARK-48891] [Backport][15x][SC-171677][ss] Refactorizar StateSchemaCompatibilityChecker para unificar todos los formatos de esquema de estado
  • [SPARK-48972] [SC-171795][python] Unificar el control de cadenas literales en las funciones
  • [SPARK-48388] [SC-171337][sql] Corregir SET el comportamiento de la instrucción para scripts SQL
  • [SPARK-48743] [ SC-170552][sql][SS] CombinarSessionIterator debe controlar mejor cuando getStruct devuelve null
  • [SPARK-48623] [15.x][sc-171322][CORE] Migración de registros de FileAppender al registro estructurado
  • [SPARK-36680] [DBRRM-1123] Revertir "[SC-170640][sql] Admite opciones de tabla dinámica para Spark SQL".
  • [SPARK-48841] [SC-170868][behave-83][SQL] Incluir collationName a sql() de Collate
  • [SPARK-48941] [SC-171703][python][ML] Reemplace la invocación de la API de lectura y escritura de RDD por la de lectura/escritura de DataFrame.
  • [SPARK-48938] [SC-171577][python] Mejorar los mensajes de error al registrar las UDTF de Python
  • [SPARK-48350] [SC-171040][sql] Introducción de excepciones personalizadas para scripting SQL
  • [SPARK-48907] [SC-171158][sql] Corregir el valor explicitTypes en COLLATION_MISMATCH.EXPLICIT
  • [SPARK-48945] [ SC-171658][python] Simplificar las funciones regex con lit
  • [SPARK-48944] [ SC-171576][connect] Unificar el control de esquemas de formato JSON en Connect Server
  • [SPARK-48836] [SC-171569] Integración del esquema SQL con el esquema o metadatos de estado
  • [SPARK-48946] [SC-171504][sql] NPE en el método redact cuando sesión es null
  • [SPARK-48921] [SC-171412][sql] Los codificadores ScalaUDF en subconsulta deben ser resueltos en MergeInto
  • [SPARK-45155] [SC-171048][connect] Agregar documentos de API para el cliente JVM/Scala de Spark Connect
  • [SPARK-48900] [SC-171319] Agregar reason campo para cancelJobGroup y cancelJobsWithTag
  • [SPARK-48865] [SC-171154][sql] Agregar try_url_decode función
  • [SPARK-48851] [SC-170767][sql] Cambiar el valor de SCHEMA_NOT_FOUND de a namespacecatalog.namespace
  • [SPARK-48510] [SC-170893][2/2] Compatibilidad con la API de UDAF toColumn en Spark Connect
  • [SPARK-45190] [SC-171055][spark-48897][PYTHON][connect] Hacer que from_xml admita un esquema de StructType
  • [SPARK-48930] [ SC-171304][core] Redactar awsAccessKeyId incluyendo el patrón accesskey
  • [SPARK-48909] [ SC-171080][ml][MLLIB] Usa SparkSession sobre SparkContext al escribir metadatos
  • [SPARK-48883] [SC-171133][ml][R] Reemplazar la invocación de la API de lectura y escritura de RDD por la API de lectura y escritura de DataFrame
  • [SPARK-48924] [SC-171313][ps] Agregar una función auxiliar parecida a make_interval pandas
  • [SPARK-48884] [SC-171051][python] Quitar la función auxiliar sin usar PythonSQLUtils.makeInterval
  • [SPARK-48817] [SC-170636][sql] Ejecutar inmediatamente comandos múltiples de unión
  • [SPARK-48896] [ SC-171079][ml][MLLIB] Evitar la redistribución al guardar los metadatos
  • [SPARK-48892] [SC-171127][ml] Evitar la lectura de parámetros por fila en Tokenizer
  • [SPARK-48927] [SC-171227][core] Mostrar el número de RDD almacenados en caché en StoragePage
  • [SPARK-48886] [15.x][backport][SC-171039][ss] Agregar información de versión a changelog v2 para permitir una evolución más sencilla
  • [SPARK-48903] [SC-171136][ss] Establecer correctamente la última versión de la instantánea de RocksDB en la carga remota
  • [SPARK-48742] [ SC-170538][ss] Familia de columnas virtuales para RocksDB
  • [SPARK-48726] [15.x][sc-170753][SS] Crear el formato de archivo StateSchemaV3 y escribirlo para el operador TransformWithStateExec
  • [SPARK-48794] [ SC-170882][connect][15.x] compatibilidad con df.mergeInto para Spark Connect (Scala y Python)
  • [SPARK-48714] [ SC-170136][python] Implementar DataFrame.mergeInto en PySpark
  • [SPARK-48772] [SC-170642][ss][SQL] Modo lector de fuente de cambios de origen de datos de estado
  • [SPARK-48666] [SC-170887][sql] No aplique el filtro si contiene PythonUDFs
  • [SPARK-48845] [SC-170889][sql] GenericUDF captura excepciones de los hijos
  • [SPARK-48880] [SC-170974][core] Evite lanzar NullPointerException si el controlador no logra inicializarse.
  • [SPARK-48888] [Backport][15x][SC-170973][ss] Eliminar la creación de instantáneas basada en el tamaño de las operaciones de registro de cambios
  • [SPARK-48871] [SC-170876] Corrección INVALID_NON_DETERMINISTIC_EXPRESSIONS validación en...
  • [SPARK-48883] [SC-170894][ml][R] Reemplace la invocación de la API de lectura/escritura de RDD con la API de lectura/escritura de Dataframe
  • [SPARK-36680] [SC-170640][sql] Admite opciones de tabla dinámica para Spark SQL
  • [SPARK-48804] [SC-170558][sql] Agregar verificar classIsLoadable y OutputCommitter.isAssignableFrom para las configuraciones de la clase de salida del commit.
  • [SPARK-46738] [SC-170791][python] Volver a habilitar un grupo de doctests
  • [SPARK-48858] [ SC-170756][python] Quitar la llamada de método en desuso setDaemon de Thread en log_communication.py
  • [SPARK-48639] [SC-169801][connect][PYTHON] Agregar origen a RelationCommon
  • [SPARK-48863] [SC-170770][es-1133940][SQL] Corregir ClassCastException al analizar JSON con "spark.sql.json.enablePartialResults" habilitado
  • [SPARK-48343] [SC-170450][sql] Introducción al intérprete de scripting de SQL
  • [SPARK-48529] [SC-170755][sql] Introducción a las etiquetas en scripting de SQL
  • [SPARK-45292] Reversión de "[SC-151609][sql][HIVE] Eliminación de Guava de las clases compartidas de IsolatedClientLoader"
  • [SPARK-48037] [ SC-165330][core][3.5] Solucionar el problema de SortShuffleWriter, que carece de métricas relacionadas con la escritura en modo aleatorio, lo que podría resultar en datos inexactos.
  • [SPARK-48720] [SC-170551][sql] Alinear el comando ALTER TABLE ... UNSET TBLPROPERTIES ... en v1 y v2
  • [SPARK-48485] [ SC-167825][connect][SS] Admite interruptTag e interruptAll en consultas de streaming
  • [SPARK-45292] [SC-151609][sql][HIVE] Eliminar Guava de las clases compartidas de IsolatedClientLoader
  • [SPARK-48668] [SC-169815][sql] Compatibilidad con ALTER NAMESPACE ... PROPIEDADES UNSET en v2
  • [SPARK-47914] [SC-165313][sql] No mostrar el parámetro splits en Range
  • [SPARK-48807] [SC-170643][sql] Compatibilidad binaria con el origen de datos CSV
  • [SPARK-48220] [SC-167592][python][15.X] Permitir pasar la tabla PyArrow para crearDataFrame()
  • [SPARK-48545] [SC-169543][sql] Crear to_avro y from_avro funciones SQL para que coincidan con los equivalentes de DataFrame
  • [SPARK-47577] [ SC-168875][spark-47579] Corrección del uso engañoso de la clave de registro TASK_ID

Compatibilidad con el controlador ODBC/JDBC de Databricks

Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).

Entorno del sistema

  • sistema operativo: Ubuntu 24.04.1 LTS
  • Java: Zulu17.50+19-CA
  • Scala: 2.12.15
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.2.1

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
tipos anotados 0.7.0 asttokens 2.0.5 astunparse 1.6.3
comando automático 2.2.2 azure-core 1.31.0 azure-storage-blob 12.23.0
Servicio de Azure Storage File Data Lake 12.17.0 backports.tarfile 1.2.0 negro 24.4.2
blinker 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools 5.3.3 certifi 2024.6.2 cffi 1.16.0
chardet 4.0.0 charset-normalizer 2.0.4 Haz clic 8.1.7
cloudpickle 2.2.1 comm 0.2.1 contourpy 1.2.0
criptografía 42.0.5 ciclista 0.11.0 Cython 3.0.11
SDK de Databricks 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
decorador 5.1.1 Obsoleto 1.2.14 distlib 0.3.8
Conversión de docstring a markdown 0.11 puntos de entrada 0,4 executing 0.8.3
visión general de las facetas 1.1.1 bloqueo de archivos 3.15.4 fonttools 4.51.0
gitdb 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
autenticación de Google 2.35.0 google-cloud-core 2.4.1 Google Cloud Storage (almacenamiento en la nube de Google) 2.18.2
google-crc32c 1.6.0 google-resumable-media (medios reanudables de Google) 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 grpcio-status 1.60.0 httplib2 0.20.4
idna 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
inflect 7.3.1 ipyflow-core 0.0.198 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 matplotlib-inline 0.1.6
mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 convenciones-semánticas-de-opentelemetry 0.48b0
embalaje 24.1 Pandas 1.5.3 parso 0.8.3
pathspec 0.10.3 patsy 0.5.6 pexpect 4.8.0
almohada 10.3.0 pip 24,2 platformdirs 3.10.0
plotly 5.22.0 pluggy 1.0.0 prompt-toolkit 3.0.43
proto-plus 1.24.0 protobuf 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.52 pycparser 2.21 pydantic 2.8.2
pydantic_core 2.20.1 pyflakes 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing 3.0.9 pyright 1.1.294 Python-dateutil 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-servidor 1.10.0 configuración de herramienta Python 1.2.6
pytz 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
solicitudes 2.32.2 cuerda 1.12.0 rsa 4,9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy 1.13.1
biblioteca de visualización de datos de Python llamada seaborn 0.13.2 setuptools 74.0.0 six 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id 5.11
stack-data 0.2.0 statsmodels (paquete de Python para análisis estadístico) 0.14.2 tenacidad 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.4.1 traitlets 5.14.3 typeguard 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 tipos-de-solicitudes 2.31.0.0 types-setuptools 68.0.0.0
seis tipos 1.16.0 types-urllib3 1.26.25.14 typing_extensions 4.11.0
ujson 5.10.0 actualizaciones automáticas sin supervisión 0,1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 wcwidth 0.2.5
¿Qué es el parche? 1.0.2 wheel 0.43.0 wrapt 1.14.1
yapf 0.33.0 zipp 3.17.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
flecha 16.1.0 askpass 1.2.0 asegúrate de que 0.2.1
backports 1.5.0 base 4.4.0 base64enc 0.1-3
bigD 0.2.0 poco 4.0.5 bit 64 4.0.5
bitops 1,0 - 8 mancha 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 escoba 1.0.6
bslib 0.8.0 cachemir 1.1.0 callr 3.7.6
caret 6.0-94 cellranger (herramienta de análisis de datos celulares) 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.3 clipr 0.8.0
reloj 0.7.1 conglomerado 2.1.6 codetools 0.2-20
espacio de colores 2.1-1 commonmark 1.9.1 compilador 4.4.0
configuración 0.3.2 Confuso 1.2.0 cpp11 0.4.7
crayón 1.5.3 credenciales 2.0.1 curl 5.2.1
data.table 1.15.4 Conjuntos de datos 4.4.0 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 digerir 0.6.36
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 puntos suspensivos 0.3.2 evaluate 0.24.0
fans 1.0.6 colores 2.1.2 fastmap 1.2.0
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
extranjero 0,8-86 forge 0.2.0 fs 1.6.4
futuro 1.34.0 aplicación futura 1.11.2 gargle 1.5.2
genéricos 0.1.3 gert 2.1.0 ggplot2 3.5.1
gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.3 pegamento 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
gráficos 4.4.0 grDevices 4.4.0 grid 4.4.0
gridExtra 2.3 gsubfn 0,7 GT 0.11.0
gtable 0.3.5 Casco de obra 1.4.0 refugio 2.5.4
highr 0.11 hms 1.1.3 herramientas de HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1.48 etiquetado 0.4.3
later 1.3.2 retícula 0.22-5 lava 1.8.0
ciclo de vida 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Formato Markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 métodos 4.4.0
mgcv 1.9-1 mime 0.12 miniUI (Interfaz de Usuario) 0.1.1.1
mlflow 2.14.1 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 nnet 7.3-19
numDeriv 2016.8-1.1 openssl (software de cifrado) 2.2.0 parallel 4.4.0
parallelly 1.38.0 pilar 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 elogio 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 progreso 1.2.3
progressr 0.14.0 promesas 1.3.0 proto 1.0.0
intermediario 0.4-27 ps 1.7.7 purrr 1.0.2
R6 2.5.1 ragg 1.3.2 Bosque Aleatorio (randomForest) 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 r-reactable 0.4.4
reactR 0.6.0 readr 2.1.5 readxl 1.4.3
recetas 1.1.0 partido de revancha 2.0.0 segunda revancha 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.4 rmarkdown 2,27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
balanzas 1.3.0 selectr 0.4-2 información de sesión 1.2.2
forma 1.4.6.1 brillante 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 SparkR 3.5.0 spatial 7.3-17
splines 4.4.0 sqldf 0.4-1 SQUAREM 2021.1
Estadísticas 4.4.0 estadísticas4 4.4.0 stringi 1.8.4
stringr 1.5.1 supervivencia 3.6-4 swagger 5.17.14.1
sys 3.4.2 systemfonts 1.1.0 tcltk 4.4.0
testthat 3.2.1.1 Formateo de texto 0.4.0 tibble 3.2.1
tidyr 1.3.1 tidyselect 1.2.1 tidyverse 2.0.0
cambio de hora 0.3.0 timeDate 4032.109 tinytex 0,52
herramientas 4.4.0 tzdb 0.4.0 verificador de URL 1.0.1
usa esto 3.0.0 utf8 1.2.4 utils 4.4.0
Identificador Único Universal (UUID) 1.2-1 V8 4.4.2 vctrs 0.6.5
viridisLite 0.4.2 vroom 1.6.5 Waldo 0.5.2
whisker 0.4.1 withr 3.0.1 xfun 0.46
xml2 1.3.6 xopen 1.0.1 xtable 1.8-4
yaml 2.3.10 zeallot 0.1.0 zip 2.3.1

Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.12)

Identificador de grupo Id. de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws SDK de AWS para Java - Soporte 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine cafeína 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone anotaciones_propensas_a_errores 2.10.0
com.google.flatbuffers flatbuffers-java 23/05/26
com.google.guava guayaba 15,0
com.google.protobuf protobuf-java 3.25.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuración 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 0.27
io.delta delta-sharing-client_2.12 1.2.0
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics métricas y verificaciones de salud 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.108.Final
io.netty netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-socks 4.1.108.Final
io.netty netty-common 4.1.108.Final
io.netty netty-handler 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty netty-resolver 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus cliente_simple_común 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx coleccionista 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr plantilla de cadenas 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant lanzador de aplicaciones Ant 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow núcleo de memoria de flecha 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator marco de trabajo para curadores 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de almacenamiento de hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc calzos de orco 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus Anotaciones de audiencia 0.13.0
org.apache.zookeeper guardián de zoológico 3.9.2
org.apache.zookeeper Zookeeper-Jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections colecciones de eclipse 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty servidor Jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Aplicación web de Jetty 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket-API 9.4.52.v20230823
org.eclipse.jetty.websocket cliente de websocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket servidor de websocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de contenedor de Jersey 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator validador de hibernación 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotaciones 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatible con ScalaTest 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
Stax stax-api 1.0.1