Compartir a través de


Databricks Runtime 11.0 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.

Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 11.0, con tecnología de Apache Spark 3.3.0. Databricks publicó esta versión en junio de 2022.

Nuevas características y mejoras

Nueva versión de Apache Spark

Databricks Runtime 11.0 y Databricks Runtime 11.0 Photon incluyen Apache Spark 3.3.0. Para más información, consulte Apache Spark.

Los cuadernos de Python ahora usan el kernel de IPython

En Databricks Runtime 11.0 y versiones posteriores, los cuadernos de Python usan el kernel de IPython para ejecutar código de Python. Consulte Kernel de IPython.

Compatibilidad con ipywidgets

Ahora puede usar ipywidgets para que los cuadernos de Python de Databricks sean interactivos. Consulte ipywidgets.

El conector de Synapse ahora escribe datos de Parquet en modo no heredado

El conector de Azure Synapse ahora escribe datos de Parquet en modo no heredado. Conserva el formato de marca de tiempo INT96 al usar PolyBase y comandos COPY para cargas de trabajo por lotes y de streaming.

Ahora se exige el esquema HTTPS cuando el cliente ABFS usa el token de SAS

Cuando el cliente de Azure Blob File System (ABFS) usa un token de firma de acceso compartido (SAS), ahora se aplica el esquema HTTPS.

SQL: DESC ahora es un alias de DESCRIBE

Ahora puede usar DESC como alias de DESCRIBE cuando describa ubicaciones externas o credenciales de almacenamiento. Por ejemplo:

-- Describe an external location.
DESC EXTERNAL LOCATION location_name;

-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;

SQL: la versión nueva función current_version muestra los detalles de la versión

La nueva función current_version muestra la versión actual de Databricks Runtime si está disponible, la versión actual de Databricks SQL si está disponible y otros detalles relacionados con la versión. Use esta nueva función para consultar información relacionada con la versión. Consulte current_version (función).

La anulación de una restricción de tabla de Delta que falta ahora genera un error

Si ahora intenta anular una restricción de tabla de Delta por nombre y esa restricción no existe, recibirá un error. Para obtener el comportamiento anterior, que no produce un error si la restricción no existe, ahora tiene que usar la instrucción IF EXISTS. Consulte ALTER TABLE.

SQL: la nueva cláusula EXCEPT de la instrucción SELECT excluye las columnas de la selección

Las instrucciones SELECT ahora admiten la cláusula EXCEPT para excluir columnas de la selección. Por ejemplo, SELECT * EXCEPT (x) FROM table devuelve todas las columnas de table, excepto x. También se permiten columnas anidadas. Por ejemplo, SELECT * EXCEPT (x.a) FROM table devuelve todas las columnas de table, pero omite el campo a de la estructura x.

Compatibilidad con la anulación de columnas en tablas de Delta (versión preliminar pública)

Puede usar ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name> o ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *) anular una columna o una lista de columnas, respectivamente, de una tabla de Delta como operación de solo metadatos. Las columnas se "eliminan temporalmente", ya que todavía están en los archivos de Parquet subyacentes, pero ya no son visibles para la tabla de Delta.

Puede usar REORG TABLE <table-name> APPLY (PURGE) para desencadenar una reescritura de archivo en los archivos que contienen datos eliminados temporalmente, como columnas anuladas.

Puede usar VACUUM para quitar los archivos eliminados del almacenamiento físico, incluidos los archivos antiguos que contienen columnas anuladas y que se han reescrito mediante REORG TABLE.

Mejoras de COPY INTO

Ahora puede crear tablas Delta con marcador de posición vacío para que el esquema se infiera más adelante durante un comando COPY INTO:

CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');

La instrucción SQL anterior es idempotente y se puede programar para que se ejecute para ingerir datos exactamente una vez en una tabla Delta.

Nota:

La tabla Delta vacía no se puede usar fuera de COPY INTO. No pueden usar INSERT INTO y MERGE INTO para escribir datos en tablas Delta sin esquema. Una vez insertados los datos en la tabla con COPY INTO, se puede consultar la tabla.

Si los datos que ingiere no se pueden leer debido a algún problema de daños, puede omitir los archivos dañados; para ello, establezca ignoreCorruptFiles en true en FORMAT_OPTIONS:

COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')

El comando COPY INTO devuelve el número de archivos que se omitieron debido a daños en la columna num_skipped_corrupt_files. Esta métrica también aparece en la columna operationMetrics, en numSkippedCorruptFiles después de ejecutar DESCRIBE HISTORY en la tabla Delta.

COPY INTO no realiza un seguimiento de los archivos dañados, por lo que se pueden volver a cargar en una ejecución posterior si se corrigen los daños. Para ver qué archivos están dañados, ejecute COPY INTO en modo VALIDATE.

Ahora se admite CONVERT TO DELTA en entornos habilitados para el catálogo de Unity (versión preliminar pública)

En entornos habilitados para el uso de Unity Catalog, puede usar CONVERT TO DELTA para lo siguiente:

  • Convertir archivos Parquet de ubicaciones externas en Delta Lake.
  • Convertir tablas Parquet externas en tablas Delta.

Cambios de comportamiento

SQL: las funciones lpad y rpad ahora admiten secuencias de bytes

Las funciones lpad y rpad se han actualizado para agregar compatibilidad con secuencias de bytes además de con cadenas.

El formato de cadena en format_string y printf ya no permite %0$

La especificación del formato %0$ en las funciones format_string y printf ahora produce un error de manera predeterminada. Este cambio consiste en conservar el comportamiento esperado con versiones anteriores de Databricks Runtime y bases de datos comunes de terceros. El primer argumento siempre debe hacer referencia a %1$ al usar un índice de argumentos para indicar la posición del argumento en la lista de argumentos.

Los valores NULL de los archivos CSV ahora se escriben como cadenas vacías sin comillas de manera predeterminada

Los valores NULL de los archivos CSV se escribían previamente como cadenas vacías entre comillas. Con esta versión, los valores NULL de los archivos CSV ahora se escriben como cadenas vacías sin comillas de manera predeterminada. Para volver al comportamiento anterior, establezca la opción nullValue en "" para las operaciones de escritura.

La propiedad de tabla external ahora está reservada

La propiedad external es ahora una propiedad de tabla reservada de manera predeterminada. Ahora se producen excepciones cuando se usa la propiedad external con las cláusulas CREATE TABLE ... TBLPROPERTIES y ALTER TABLE ... SET TBLPROPERTIES.

Log4j se actualizó de Log4j 1 a Log4j 2

Log4j 1 se está actualizando a Log4j 2. Se están quitando las dependencias de Log4j 1 heredadas.

Si usa las clases de Log4j 1 que se antes estaban incluidas en Databricks Runtime, esas clases ya no existen. Tiene que actualizar las dependencias a Log4j 2.

Si tiene complementos personalizados o archivos de configuración que se basan en Log4j 2, es posible que ya no funcionen con la versión de Log4j 2 en esta versión. Para obtener ayuda, póngase en contacto con el equipo de la cuenta de Azure Databricks.

Las bibliotecas instaladas desde Maven ahora se resuelven en el plano de proceso de forma predeterminada

Las bibliotecas de Maven ahora se resuelven en el plano de proceso de forma predeterminada al instalar bibliotecas en un clúster. El clúster debe tener acceso a Maven Central. Como alternativa, puede establecer la propiedad de configuración de Spark para revertir el comportamiento al anterior:

spark.databricks.libraries.enableMavenResolution false

Corrección de errores

  • Se ha corregido la compatibilidad binaria de LeafNode, UnaryNode y BinaryNode entre Apache Spark y Databricks Runtime, y las clases ahora son compatibles con Apache Spark 3.3.0 y versiones posteriores. Si encuentra el siguiente mensaje o similar al usar un paquete de terceros con Databricks Runtime, vuelva a generar el paquete con Apache Spark 3.3.0 o posterior: Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • platformdirs de 2.5.1 a 2.5.2
    • protobuf de 3.20.0 a 3.20.1
  • Bibliotecas de R actualizadas:
    • blob de 1.2.2 a 1.2.3
    • broom de 0.7.12 a 0.8.0
    • caret de 6.0-91 a 6.0-92
    • cli de 3.2.0 a 3.3.0
    • dplyr de 1.0.8 a 1.0.9
    • future de 1.24.0 a 1.25.0
    • future.apply de 1.8.1 a 1.9.0
    • gert de 1.5.0 a 1.6.0
    • ggplot2 de 3.3.5 a 3.3.6
    • glmnet de 4.1-3 a 4.1-4
    • haven de 2.4.3 a 2.5.0
    • httr de 1.4.2 a 1.4.3
    • knitr de 1.38 a 1.39
    • magrittr de 2.0.2 a 2.0.3
    • parallelly de 1.30.0 a 1.31.1
    • ps de 1.6.0 a 1.7.0
    • RColorBrewer de 1.1-2 a 1.1-3
    • RcppEigen de 0.3.3.9.1 a 0.3.3.9.2
    • readxl de 1.3.1 a 1.4.0
    • rmarkdown de 2.13 a 2.14
    • rprojroot de 2.0.2 a 2.0.3
    • RSQLite de 2.2.11 a 2.2.13
    • scales de 1.1.1 a 1.2.0
    • testthat de 3.1.2 a 3.1.4
    • tibble de 3.1.6 a 3.1.7
    • tinytex de 0.37 a 0.38
    • tzdb de 0.2.0 a 0.3.0
    • uuid de 1.0-4 a 1.1-0
    • vctrs de 0.3.8 a 0.4.1
  • Bibliotecas de Java actualizadas:
    • com.fasterxml.jackson.core.jackson-annotations de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-core de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.core.jackson-databind de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.0 a 2.13.3
    • com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.0 a 2.13.3
    • com.google.crypto.tink.tink de 1.6.0 a 1.6.1
    • com.ning.compress-lzf de 1.0.3 a 1.1
    • dev.ludovic.netlib.arpack de 2.2.0 a 2.2.1
    • dev.ludovic.netlib.blas de 2.2.0 a 2.2.1
    • dev.ludovic.netlib.lapack de 2.2.0 a 2.2.1
    • io.netty.netty-all de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-buffer de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-codec de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-common de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-handler de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-resolver de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-tcnative-classes de 2.0.46.Final a 2.0.48.Final
    • io.netty.netty-transport de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-epoll de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-classes-kqueue de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-aarch_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-epoll-linux-x86_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-aarch_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-kqueue-osx-x86_64 de 4.1.73.Final a 4.1.74.Final
    • io.netty.netty-transport-native-unix-common de 4.1.73.Final a 4.1.74.Final
    • joda-time.joda-time de 2.10.12 a 2.10.13
    • org.apache.commons.commons-math3 de 3.4.1 a 3.6.1
    • org.apache.httpcomponents.httpcore de 4.4.12 a 4.4.14
    • org.apache.orc.orc-core de 1.7.3 a 1.7.4
    • org.apache.orc.orc-mapreduce de 1.7.3 a 1.7.4
    • org.apache.orc.orc-shims de 1.7.3 a 1.7.4
    • org.eclipse.jetty.jetty-client de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-continuation de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-http de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-io de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-jndi de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-plus de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-proxy de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-security de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-server de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-servlets de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-util-ajax de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-webapp de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.jetty-xml de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-api de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-client de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-common de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-server de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.eclipse.jetty.websocket.websocket-servlet de 9.4.43.v20210629 a 9.4.46.v20220331
    • org.mariadb.jdbc.mariadb-java-client de 2.2.5 a 2.7.4
    • org.postgresql.postgresql de 42.2.19 a 42.3.3
    • org.roaringbitmap.RoaringBitmap de 0.9.23 a 0.9.25
    • org.roaringbitmap.shims de 0.9.23 a 0.9.25
    • org.rocksdb.rocksdbjni de 6.20.3 a 6.24.2
    • org.slf4j.jcl-over-slf4j de 1.7.32 a 1.7.36
    • org.slf4j.jul-to-slf4j de 1.7.32 a 1.7.36
    • org.slf4j.slf4j-api de 1.7.30 a 1.7.36

Apache Spark

Databricks Runtime 11.0 incluye Apache Spark 3.3.0.

En esta sección:

Spark SQL y Core

Modo ANSI

  • Nuevas reglas de sintaxis de conversión explícitas en modo ANSI (SPARK-33354)
  • Elt() debe devolver NULL si index es NULL en el modo ANSI (SPARK-38304)
  • Opcionalmente, se devuelve un resultado NULL si el elemento no existe en la matriz o el mapa (SPARK-37750)
  • Se permite la conversión entre tipo numérico y tipo de marca de tiempo (SPARK-37714)
  • Deshabilitación de palabras clave reservadas ANSI de manera predeterminada (SPARK-37724)
  • Uso de reglas de asignación de almacén para resolver la invocación de funciones (SPARK-37438)
  • Adición de una configuración para permitir la conversión entre Datetime y Numeric (SPARK-37179)
  • Adición de una configuración para aplicar opcionalmente palabras clave reservadas ANSI (SPARK-37133)
  • No permitir operaciones binarias entre el Interval y String literal (SPARK-36508)

Mejoras de las características

  • Compatibilidad con los tipos ANSI SQL INTERVAL (SPARK-27790)
  • Mejoras en los mensajes de error (SPARK-38781)
  • Compatibilidad con metadatos de archivo ocultos para Spark SQL (SPARK-37273)
  • Compatibilidad con literales de cadena sin formato (SPARK-36371)
  • Clase auxiliar para batch Dataset.observe() (SPARK-34806)
  • Compatibilidad con la especificación del número de partición inicial para el reequilibrio (SPARK-38410)
  • Compatibilidad con el modo en cascada para la API dropNamespace (SPARK-37929)
  • Permitir la asignación de almacén y la conversión implícita entre tipos datetime (SPARK-37707)
  • Recopilar, primero y último deben ser funciones de agregado deterministas (SPARK-32940)
  • Adición de ExpressionBuilder para funciones con sobrecargas complejas (SPARK-37164)
  • Adición de compatibilidad con matrices a unionByName (SPARK-36546)
  • Adición de df.withMetadata, una sugerencia de sintaxis para actualizar los metadatos de un dataframe (SPARK-36642)
  • Compatibilidad con literales de cadena sin formato (SPARK-36371)
  • Uso de CAST en el análisis de fechas y marcas de tiempo con el patrón predeterminado (SPARK-36418)
  • Compatibilidad con la clase de valor en el esquema anidado para Dataset (SPARK-20384)
  • Adición de compatibilidad con la sintaxis AS OF (SPARK-37219)
  • Adición de REPEATABLE en TABLESAMPLE para especificar la inicialización (SPARK-37165)
  • Adición de la sintaxis ANSI set catalog xxx para cambiar el catálogo actual (SPARK-36841)
  • Compatibilidad con ILIKE (ALL | ANY | SOME): LIKE sin distinción entre mayúsculas y minúsculas (SPARK-36674, SPARK-36736, SPARK-36778)
  • La fase de consulta de soporte muestra estadísticas en tiempo de ejecución en modo de explicación con formato (SPARK-38322)
  • Adición de métricas de tamaño de volcado para sort merge join (SPARK-37726)
  • Actualización de la sintaxis SQL de SHOW FUNCTIONS (SPARK-37777)
  • Compatibilidad con la sintaxis DROP COLUMN [IF EXISTS] (SPARK-38939)
  • Nuevas funciones integradas y sus extensiones (SPARK-38783)
    • Datetime
    • Funciones de AES (SPARK-12567)
      • Adición de las funciones integradas aes_encrypt y aes_decrypt (SPARK-12567)
      • Compatibilidad con el modo GCM mediante aes\_encrypt()/aes\_decrypt() (SPARK-37591)
      • Establecimiento de GCM como modo predeterminado en aes\_encrypt()/aes\_decrypt() (SPARK-37666)
      • Adición de los argumentos mode y padding a aes\_encrypt()/aes\_decrypt() (SPARK-37586)
    • Función de agregación de ANSI (SPARK-37671)
      • Compatibilidad con la función de agregado de ANSI: regr_count (SPARK-37613)
      • Compatibilidad con la función de agregado de ANSI: regr_avgx y regr_avgy (SPARK-37614)
      • Compatibilidad con la función de agregación de ANSI: percentile_cont (SPARK-37676, SPARK-38219)
      • Compatibilidad con la función de agregación de ANSI: percentile_disc (SPARK-37691)
      • Compatibilidad con la función de agregado de ANSI: regr_count (SPARK-37613)
      • Compatibilidad con la función de agregado de ANSI: array_agg (SPARK-27974)
      • Compatibilidad con la función de agregado de ANSI: regr_r2 (SPARK-37641)
      • Nueva función de SQL: try_avg (SPARK-38589)
    • Colecciones
    • Formato
    • Cadena/binario
      • Adición de la función de cadena CONTAINS() (SPARK-37508)
      • Adición de las funciones de cadena startswith() y endswith() (SPARK-37520)
      • Adición de las funciones lpad y rpad para cadenas binarias (SPARK-37047)
      • Compatibilidad con la función split_part (SPARK-38063)
    • Adición del parámetro de escala a las funciones floor y ceil (SPARK-37475)
    • Nuevas funciones de SQL: try_subtract y try_multiply (SPARK-38164)
    • Implementación de la función de agregación histogram_numeric, que admite la agregación parcial (SPARK-16280)
    • Adición de max_by/min_by a sql.functions (SPARK-36963)
    • Adición de nuevas funciones de SQL integradas: SEC y CSC (SPARK-36683)
    • array_intersect controla duplicados Double.NaN y Float.NaN (SPARK-36754)
    • Adición de cotangente como funciones de Scala y Python (SPARK-36660)

Mejoras de rendimiento

  • Generación de código whole stage
    • Adición de code-gen para sort aggregate sin agrupar las claves (SPARK-37564)
    • Adición de code-gen para la combinación de fusión de ordenación externa completa (SPARK-35352)
    • Adición de code-gen para la combinación hash aleatoria externa completa (SPARK-32567)
    • Adición de code-gen para existence sort merge join (SPARK-37316)
  • Delegación (filtros)
    • Delegación de filtros mediante RebalancePartitions (SPARK-37828)
    • Delegación del filtro de columna booleana (SPARK-36644)
    • Delegación del límite 1 para el lado derecho de la semi/anti combinación izquierda si la condición de combinación está vacía (SPARK-37917)
    • Traducción de más funciones de agregado estándar para la delegación (SPARK-37527)
    • Compatibilidad con la propagación de relaciones vacías a través de agregado/combinación (SPARK-35442)
    • Filtrado en tiempo de ejecución de nivel de fila (SPARK-32268)
    • Compatibilidad con la combinación semi izquierda en filtros de tiempo de ejecución de nivel de fila (SPARK-38565)
    • Compatibilidad con la delegación de predicado y aplicación de predicado y eliminación de columnas para CTE desduplicados (SPARK-37670)
  • Vectorización
    • Implementación de ConstantColumnVector y mejora del rendimiento de los metadatos de archivos ocultos (SPARK-37896)
    • Habilitación de la lectura vectorizada para VectorizedPlainValuesReader.readBooleans (SPARK-35867)
  • Combinación, eliminación o reemplazo de nodos
    • Combinación de uniones si hay un proyecto entre ellas (SPARK-37915)
    • Combinación en una conversión si es posible convertir de forma segura dos conversiones (SPARK-37922)
    • Eliminación de la ordenación si es el elemento secundario de RepartitionByExpression (SPARK-36703)
    • Quita la combinación externa si solo tiene DISTINCT en el lado transmitido con alias (SPARK-37292)
    • Reemplazo del valor hash por el agregado de ordenación si el elemento secundario ya está ordenado (SPARK-37455)
    • Contraer los proyectos solo si no se duplican expresiones que consuman muchos recursos (SPARK-36718)
    • Eliminación de alias redundantes después de RewritePredicateSubquery (SPARK-36280)
    • Combinación de subconsultas escalares no correlacionadas (SPARK-34079)
  • Creación de particiones
    • No se agrega la eliminación de particiones dinámicas si existe la eliminación de particiones estáticas (SPARK-38148)
    • Mejora de RebalancePartitions en las reglas del optimizador (SPARK-37904)
    • Adición de un factor de partición pequeño para volver a equilibrar las particiones (SPARK-37357)
  • Join
    • Se ha ajustado la lógica para disminuir la combinación hash de difusión en DynamicJoinSelection (SPARK-37753)
    • Omitir las claves de combinación duplicadas al crear una relación para la combinación hash aleatoria SEMI/ANTI (SPARK-36794)
    • Compatibilidad con la optimización de la combinación sesgada incluso si introduce una ordenación aleatoria adicional (SPARK-33832)
  • AQE
    • Compatibilidad con la eliminación de límites en el optimizador de AQE (SPARK-36424)
    • Optimización de un plan de fila en el optimizador normal y AQE (SPARK-38162)
  • Aggregate.groupOnly admite expresiones plegables (SPARK-38489)
  • ByteArrayMethods arrayEquals debe omitir rápidamente la comprobación de alineación con la plataforma no alineada (SPARK-37796)
  • Adición de la eliminación del patrón de árbol a la regla CTESubstitution (SPARK-37379)
  • Adición de más simplificaciones del operador Not (SPARK-36665)
  • Compatibilidad con BooleanType en UnwrapCastInBinaryComparison (SPARK-36607)
  • Fusión quita todas las expresiones después de la primera expresión que no acepta valores NULL (SPARK-36359)
  • Adición de un visitante de plan lógico para propagar los atributos distintos (SPARK-36194)

Mejoras del conector integrado

  • General
    • Serialización Lenient de datetime desde el origen de datos (SPARK-38437)
    • Tratamiento de la ubicación de la tabla como absoluta cuando la primera letra de su ruta de acceso está en la barra diagonal de create/alter table (SPARK-38236)
    • Eliminación de ceros iniciales de la partición de tipo de número estático vacía (SPARK-35561)
    • Compatibilidad con ignoreCorruptFiles y ignoreMissingFiles en las opciones del origen de datos (SPARK-38767)
    • Adición del comando SHOW CATALOGS (SPARK-35973)
  • Parquet
    • Habilitación de los nombres de columna de esquema coincidentes por identificadores de campo (SPARK-38094)
    • Eliminación del nombre del campo de comprobación al leer o escribir datos en Parquet (SPARK-27442)
    • Compatibilidad con valores booleanos de lectura vectorizados que usan la codificación RLE con Parquet DataPage V2 (SPARK-37864)
    • Compatibilidad con la codificación de páginas de datos de Parquet v2 (DELTA_BINARY_PACKED) para la ruta de acceso vectorizada (SPARK-36879)
    • Fusión mediante cambio de base de marcas de tiempo en la zona horaria de sesión guardada en los metadatos de Parquet/Avro (SPARK-37705)
    • Delegación agrupada por columna de partición para la agregación (SPARK-36646)
    • Delegación de agregado (mínimo/máximo/recuento) para Parquet (SPARK-36645)
    • Parquet: habilitación de las columnas de esquema coincidentes por identificador de campo (SPARK-38094)
    • Reducción del tamaño de página predeterminado por LONG_ARRAY_OFFSET si se usan G1GC y ON_HEAP (SPARK-37593)
    • Implementación de codificaciones vectorizadas DELTA_BYTE_ARRAY y DELTA_LENGTH_BYTE_ARRAY para compatibilidad con Parquet V2 (SPARK-37974)
    • Compatibilidad con tipos complejos para lector vectorizado de Parquet (SPARK-34863)
  • ORC
    • Eliminación del nombre del campo de comprobación al leer o escribir datos existentes en Orc (SPARK-37965)
    • Delegación de agregado para ORC (SPARK-34960)
    • Compatibilidad con la lectura y escritura de intervalos ANSI en orígenes de datos ORC (SPARK-36931)
    • Compatibilidad con nombres de columna solo numéricos en orígenes de datos ORC (SPARK-36663)
  • JSON
    • Respetar allowNonNumericNumbers al analizar valores NaN e Infinity entre comillas en el lector JSON (SPARK-38060)
    • Uso de CAST para datetime en CSV/JSON de forma predeterminada (SPARK-36536)
    • Alineación del mensaje de error para los tipos de clave no admitidos en MapType en el lector JSON (SPARK-35320)
  • CSV
    • Corrección que hace referencia a la columna de registro dañada de CSV (SPARK-38534)
    • Los valores NULL se deben guardar como nada en lugar de cadenas vacías entrecomilladas ("") de manera predeterminada (SPARK-37575)
  • JDBC
    • Adición de la instrucción IMMEDIATE a la implementación de truncamiento del dialecto DB2 (SPARK-30062)
  • Hive
    • Compatibilidad con la escritura de tablas en cubo de Hive (formatos de archivo de Hive con hash de Hive) (SPARK-32712)
    • Uso de expresiones para filtrar particiones de Hive en el lado cliente (SPARK-35437)
    • Compatibilidad con la eliminación de particiones dinámicas para HiveTableScanExec (SPARK-36876)
    • InsertIntoHiveDir debe usar el origen de datos si es convertible (SPARK-38215)
    • Compatibilidad con la escritura de tablas en cubo de Hive (formato de Parquet/ORC con hash de Hive) (SPARK-32709)

Retirada de nodos

  • FallbackStorage no debe intentar resolver el nombre de host "remote" arbitrario (SPARK-38062)
  • ExecutorMonitor.onExecutorRemoved debe controlar ExecutorDecommission como finalizado (SPARK-38023)

Otros cambios importantes

  • Adición de bloqueo específico a BlockInfoManager (SPARK-37356)
  • Compatibilidad con la asignación de tipos de recursos de gpu/fpga de Spark a un tipo de recurso de YARN personalizado (SPARK-37208)
  • Informe del tamaño preciso del bloque de orden aleatorio si está sesgado (SPARK-36967)
  • Compatibilidad con el registro de Netty en la capa de red (SPARK-36719)

Structured Streaming

Características principales

  • Presentación de Trigger.AvailableNow para ejecutar consultas de streaming como Trigger.Once en varios lotes (SPARK-36533)

Otros cambios importantes

  • Se utiliza StatefulOpClusteredDistribution para los operadores con estado respetando la compatibilidad con versiones anteriores (SPARK-38204)
  • Se ha corregido el tiempo de espera de flatMapGroupsWithState del lote con datos para la clave (SPARK-38320)
  • Se ha solucionado el problema de corrección en la combinación externa de flujo a flujo con el proveedor del almacén de estado de RocksDB (SPARK-38684)
  • Compatibilidad con Trigger.AvailableNow en el origen de datos de Kafka (SPARK-36649)
  • Optimización de la ruta de acceso de escritura en el proveedor del almacén de estado RocksDB (SPARK-37224)
  • Presentación de un nuevo origen de datos para proporcionar un conjunto coherente de filas por microlote (SPARK-37062)
  • Uso de StatefulOpClusteredDistribution para los operadores con estado y respetando la compatibilidad con versiones anteriores (SPARK-38204)

PySpark

Pandas API en Spark

Mejoras principales
  • Optimización del índice "distributed-sequence" con el valor predeterminado (SPARK-36559, SPARK-36338)
    • Compatibilidad para especificar el tipo de índice y el nombre en API de Pandas en Spark (SPARK-36709)
    • Visualización del tipo de índice predeterminado en planes de SQL para API de Pandas en Spark (SPARK-38654)
Características principales
  • Implementación de ps.merge_asof nativo de SparkSQL (SPARK-36813)
  • Compatibilidad con TimedeltaIndex en API de Pandas en Spark (SPARK-37525)
  • Compatibilidad con timedelta de Python (SPARK-37275, SPARK-37510)
  • Implementación de funciones en CategoricalAccessor/CategoricalIndex (SPARK-36185)
  • Usos del formateador de cadena estándar de Python para API de SQL en API de Pandas en Spark (SPARK-37436)
  • Compatibilidad con operaciones básicas de Series/Index de timedelta (SPARK-37510)
  • Compatibilidad con MultiIndex.dtypes (SPARK-36930)
  • Implementación de Index.map (SPARK-36469)
  • Implementación de Series.xor y Series.rxor (SPARK-36653)
  • Implementación del operador unario invert de ps.Series/Index integral (SPARK-36003)
  • Implementación de DataFrame.cov (SPARK-36396)
  • Compatibilidad con cadena y marca de tiempo para (Series|DataFrame).describe() (SPARK-37657)
  • Compatibilidad con el parámetro lambda column de DataFrame.rename(SPARK-38763)

Otros cambios importantes

Últimos cambios
  • Anulación de la compatibilidad de referencias a Python 3.6 en documentos y python/docs (SPARK-36977)
  • Eliminación del hack namedtuple al reemplazar el pickle integrado por cloudpickle (SPARK-32079)
  • La versión mínima de Pandas ha aumentado a 1.0.5 (SPARK-37465)
  • Mejoras principales
    • Proporcionar un generador de perfiles para UDF de Python/Pandas (SPARK-37443)
    • Usos del formateador de cadena estándar de Python para API de SQL en PySpark (SPARK-37516)
    • Exposición de estado y clase de error de SQL en excepciones de PySpark (SPARK-36953)
    • Intento de capturar faulthanlder cuando se bloquea un trabajo de Python (SPARK-36062)
Características principales
  • Implementación de DataFrame.mapInArrow en Python (SPARK-37228)
  • Usos del formateador de cadena estándar de Python para API de SQL en PySpark (SPARK-37516)
  • Adición de la API df.withMetadata de pyspark (SPARK-36642)
  • Compatibilidad con timedelta de Python (SPARK-37275)
  • Exposición de tableExists en pyspark.sql.catalog (SPARK-36176)
  • Exposición de databaseExists en pyspark.sql.catalog (SPARK-36207)
  • Exposición de functionExists en pyspark.sql.catalog (SPARK-36258)
  • Adición de Dataframe.observation a PySpark (SPARK-36263)
  • Adición de la API max_by o min_by a PySpark (SPARK-36972)
  • Compatibilidad para deducir el dict anidado como estructura al crear un dataframe (SPARK-35929)
  • Adición de las API bit/octet_length a Scala, Python y R (SPARK-36751)
  • Compatibilidad con la API ILIKE en Python (SPARK-36882)
  • Adición del método isEmpty para la API DataFrame de Python (SPARK-37207)
  • Adición de varias columnas que agregan compatibilidad (SPARK-35173)
  • Adición de SparkContext.addArchive en PySpark (SPARK-38278)
  • Hacer que los representantes de tipos de SQL puedan evaluarse (SPARK-18621)
  • Sugerencias de tipo insertadas para fpm.py en python/pyspark/mllib (SPARK-37396)
  • Implementación del parámetro dropna de SeriesGroupBy.value_counts (SPARK-38837)

MLlib

Características principales

  • Adición del parámetro distanceMeasure a trainKMeansModel (SPARK-37118)
  • Exposición de LogisticRegression.setInitialModel, como KMeans et al do (SPARK-36481)
  • Compatibilidad con CrossValidatorModel para obtener la desviación estándar de las métricas para cada paramMap (SPARK-36425)

Mejoras principales

  • Optimización de algunos treeAggregates en MLlib al retrasar las asignaciones (SPARK-35848)
  • Reescritura de _shared_params_code_gen.py en sugerencias de tipo insertadas para ml/param/shared.py (SPARK-37419)

Otros cambios importantes

SparkR

  • Migración de documentos de SparkR a pkgdown (SPARK-37474)
  • Exposición de make_date expresión en R (SPARK-37108)
  • Incorporación de la API max_by o min_by a SparkR (SPARK-36976)
  • Compatibilidad con la API ILIKE en R (SPARK-36899)
  • Adición de secante y cosecante como funciones de R (SPARK-36824)
  • Adición de las API bit/octet_length a Scala, Python y R (SPARK-36751)
  • Adición de cotangente como función de R (SPARK-36688)

UI

  • Resumen de métricas de especulación a nivel de fase (SPARK-36038)
  • Tiempo de bloqueo de lectura aleatorio unificado para ordenar aleatoriamente el tiempo de espera de captura de lectura en StagePage (SPARK-37469)
  • Adición de configuraciones modificadas para la ejecución de SQL en la UI (SPARK-34735)
  • Hacer que ThriftServer reconozca spark.sql.redaction.string.regex (SPARK-36400)
  • Asociación e inicio del controlador después de iniciar la aplicación en la UI (SPARK-36237)
  • Agregar duración de confirmación al nodo de grafo de la pestaña de SQL (SPARK-34399)
  • Compatibilidad con el back-end de RocksDB en el servidor de historial de Spark (SPARK-37680)
  • Visualización de opciones para API de Pandas en Spark en la UI (SPARK-38656)
  • Cambio de nombre de "SQL" a "SQL / DataFrame" en la página de la UI de SQL (SPARK-38657)

Build

Actualizaciones de mantenimiento

Consulte Databricks Runtime 11.0 (EoS).

Entorno del sistema

  • Sistema operativo: Ubuntu 20.04.4 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.1.3
  • Delta Lake: 1.2.1

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
Antergos Linux 2015.10 (ISO-Rolling) argon2-cffi 20.1.0 async-generator 1.10
attrs 21.2.0 backcall 0.2.0 backports.entry-points-selectable 1.1.1
bleach 4.0.0 boto3 1.21.18 botocore 1.24.18
certifi 2021.10.8 cffi 1.14.6 chardet 4.0.0
charset-normalizer 2.0.4 cycler 0.10.0 Cython 0.29.24
dbus-python 1.2.16 debugpy 1.4.1 decorator 5.1.0
defusedxml 0.7.1 distlib 0.3.4 distro-info 0.23ubuntu1
entrypoints 0,3 facets-overview 1.0.0 filelock 3.6.0
idna 3.2 ipykernel 6.12.1 ipython 7.32.0
ipython-genutils 0.2.0 ipywidgets 7.7.0 jedi 0.18.0
Jinja2 2.11.3 jmespath 0.10.0 joblib 1.0.1
jsonschema 3.2.0 jupyter-client 6.1.12 jupyter-core 4.8.1
jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0 kiwisolver 1.3.1
MarkupSafe 2.0.1 matplotlib 3.4.3 matplotlib-inline 0.1.2
mistune 0.8.4 nbclient 0.5.3 nbconvert 6.1.0
nbformat 5.1.3 nest-asyncio 1.5.1 notebook 6.4.5
numpy 1.20.3 empaquetado 21.0 pandas 1.3.4
pandocfilters 1.4.3 parso 0.8.2 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Pillow 8.4.0
pip 21.2.4 platformdirs 2.5.2 plotly 5.6.0
prometheus-client 0.11.0 prompt-toolkit 3.0.20 protobuf 3.20.1
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pyarrow 7.0.0 pycparser 2,20 Pygments 2.10.0
PyGObject 3.36.0 pyodbc 4.0.31 pyparsing 3.0.4
pyrsistent 0.18.0 python-apt 2.0.0+ubuntu0.20.4.7 Python-dateutil 2.8.2
pytz 2021.3 pyzmq 22.2.1 Solicitudes 2.26.0
requests-unixsocket 0.2.0 s3transfer 0.5.2 scikit-learn 0.24.2
scipy 1.7.1 seaborn 0.11.2 Send2Trash 1.8.0
setuptools 58.0.4 six (seis) 1.16.0 ssh-import-id 5.10
statsmodels 0.12.2 tenacity 8.0.1 terminado 0.9.4
testpath 0.5.0 threadpoolctl 2.2.0 tornado 6.1
traitlets 5.1.0 unattended-upgrades 0,1 urllib3 1.26.7
virtualenv 20.8.0 wcwidth 0.2.5 webencodings 0.5.1
wheel 0.37.0 widgetsnbextension 3.6.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 06-05-2022.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
askpass 1.1 assertthat 0.2.1 backports 1.4.1
base 4.1.3 base64enc 0.1-3 bit 4.0.4
bit64 4.0.5 blob 1.2.3 boot 1.3-28
brew 1.0-7 brio 1.1.3 broom 0.8.0
bslib 0.3.1 cachem 1.0.6 callr 3.7.0
caret 6.0-92 cellranger 1.1.0 chron 2.3-56
clase 7.3-20 cli 3.3.0 clipr 0.8.0
cluster 2.1.3 codetools 0.2-18 colorspace 2.0-3
commonmark 1.8.0 compiler 4.1.3 config 0.3.1
cpp11 0.4.2 crayon 1.5.1 credentials 1.3.2
curl 4.3.2 data.table 1.14.2 conjuntos de datos 4.1.3
DBI 1.1.2 dbplyr 2.1.1 desc 1.4.1
devtools 2.4.3 diffobj 0.3.5 digest 0.6.29
dplyr 1.0.9 dtplyr 1.2.1 e1071 1.7-9
ellipsis 0.3.2 evaluate 0,15 fansi 1.0.3
farver 2.1.0 fastmap 1.1.0 fontawesome 0.2.2
forcats 0.5.1 foreach 1.5.2 foreign 0.8-82
forge 0.2.0 fs 1.5.2 future 1.25.0
future.apply 1.9.0 gargle 1.2.0 generics 0.1.2
gert 1.6.0 ggplot2 3.3.6 gh 1.3.0
gitcreds 0.1.1 glmnet 4.1-4 globals 0.14.0
glue 1.6.2 googledrive 2.0.0 googlesheets4 1.0.0
gower 1.0.0 elementos gráficos 4.1.3 grDevices 4.1.3
grid 4.1.3 gridExtra 2.3 gsubfn 0.7
gtable 0.3.0 hardhat 0.2.0 haven 2.5.0
highr 0.9 hms 1.1.1 htmltools 0.5.2
htmlwidgets 1.5.4 httpuv 1.6.5 httr 1.4.3
ids 1.0.1 ini 0.3.1 ipred 0.9-12
isoband 0.2.5 iterators 1.0.14 jquerylib 0.1.4
jsonlite 1.8.0 KernSmooth 2.23-20 knitr 1.39
labeling 0.4.2 later 1.3.0 lattice 0.20-45
lava 1.6.10 ciclo de vida 1.0.1 listenv 0.8.0
lubridate 1.8.0 magrittr 2.0.3 markdown 1.1
MASS 7.3-56 Matriz 1.4-1 memoise 2.0.1
methods 4.1.3 mgcv 1.8-40 mime 0,12
ModelMetrics 1.2.2.2 modelr 0.1.8 munsell 0.5.0
nlme 3.1-157 nnet 7.3-17 numDeriv 2016.8-1.1
openssl 2.0.0 parallel 4.1.3 parallelly 1.31.1
pillar 1.7.0 pkgbuild 1.3.1 pkgconfig 2.0.3
pkgload 1.2.4 plogr 0.2.0 plyr 1.8.7
praise 1.0.0 prettyunits 1.1.1 pROC 1.18.0
processx 3.5.3 prodlim 2019.11.13 progreso 1.2.2
progressr 0.10.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-26 ps 1.7.0 purrr 0.3.4
r2d3 0.2.6 R6 2.5.1 randomForest 4.7-1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.8.3 RcppEigen 0.3.3.9.2 readr 2.1.2
readxl 1.4.0 recipes 0.2.0 rematch 1.0.1
rematch2 2.1.2 remotes 2.4.2 reprex 2.0.1
reshape2 1.4.4 rlang 1.0.2 rmarkdown 2.14
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1.16
rprojroot 2.0.3 Rserve 1.8-10 RSQLite 2.2.13
rstudioapi 0,13 rversions 2.1.1 rvest 1.0.2
sass 0.4.1 scales 1.2.0 selectr 0.4-2
sessioninfo 1.2.2 shape 1.4.6 shiny 1.7.1
sourcetools 0.1.7 sparklyr 1.7.5 SparkR 3.3.0
spatial 7.3-11 splines 4.1.3 sqldf 0.4-11
SQUAREM 2021.1 stats 4.1.3 stats4 4.1.3
stringi 1.7.6 stringr 1.4.0 survival 3.2-13
sys 3.4 tcltk 4.1.3 testthat 3.1.4
tibble 3.1.7 tidyr 1.2.0 tidyselect 1.1.2
tidyverse 1.3.1 timeDate 3043.102 tinytex 0,38
tools 4.1.3 tzdb 0.3.0 usethis 2.1.5
utf8 1.2.2 utils 4.1.3 uuid 1.1-0
vctrs 0.4.1 viridisLite 0.4.0 vroom 1.5.7
waldo 0.4.0 whisker 0,4 withr 2.5.0
xfun 0,30 xml2 1.3.3 xopen 1.0.0
xtable 1.8-4 yaml 2.3.5 zip 2.2.0

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.3
com.fasterxml.jackson.core jackson-core 2.13.3
com.fasterxml.jackson.core jackson-databind 2.13.3
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.3
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.3
com.fasterxml.jackson.module jackson-module-paranamer 2.13.3
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.3
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
hive-2.3__hadoop-3.2 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,21
io.delta delta-sharing-spark_2.12 0.4.0
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
maven-trees hive-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.14
net.snowflake spark-snowflake_2.12 2.10.0-spark_3.1
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.9
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.2-databricks
org.apache.hadoop hadoop-client-runtime 3.3.2
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.17.2
org.apache.logging.log4j log4j-api 2.17.2
org.apache.logging.log4j log4j-core 2.17.2
org.apache.logging.log4j log4j-slf4j-impl 2.17.2
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.4
org.apache.orc orc-mapreduce 1.7.4
org.apache.orc orc-shims 1.7.4
org.apache.parquet parquet-column 1.12.0-databricks-0004
org.apache.parquet parquet-common 1.12.0-databricks-0004
org.apache.parquet parquet-encoding 1.12.0-databricks-0004
org.apache.parquet parquet-format-structures 1.12.0-databricks-0004
org.apache.parquet parquet-hadoop 1.12.0-databricks-0004
org.apache.parquet parquet-jackson 1.12.0-databricks-0004
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus audience-annotations 0.5.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,34
org.glassfish.jersey.containers jersey-container-servlet-core 2,34
org.glassfish.jersey.core jersey-client 2,34
org.glassfish.jersey.core jersey-common 2,34
org.glassfish.jersey.core jersey-server 2,34
org.glassfish.jersey.inject jersey-hk2 2,34
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark unused 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1