Comparteix via


Databricks Runtime 10.0 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.

Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 10.0 y Databricks Runtime 10.0 Photon, con tecnología de Apache Spark 3.2.0. Databricks publicó esta versión en octubre de 2021. Photon se encuentra en versión preliminar pública.

Nuevas características y mejoras

Nueva versión de Apache Spark

Databricks Runtime 10.0 y Databricks Runtime 10.0 Photon incluyen Apache Spark 3.2.0. Para más información, consulte Apache Spark.

SELECT ahora admite la cláusula QUALIFY para filtrar los resultados de la función de ventana.

La instrucción SELECT ahora admite la cláusula QUALIFY. QUALIFY se puede usar para filtrar los resultados de las funciones de ventana. Debe haber una o varias funciones de ventana en la lista SELECT o en la condición QUALIFY. Por ejemplo:

SELECT * FROM t QUALIFY SUM(c2) OVER (PARTITION BY c1) > 0;

Compatibilidad del clúster con JDK 11 (versión preliminar pública)

Databricks ahora proporciona compatibilidad en los clústeres para Java Development Kit (JDK) 11.

Al crear un clúster puede especificar que el clúster use JDK 11 (tanto para el controlador como para el ejecutor). Para ello, agregue la siguiente variable de entorno a Opciones avanzadas > Spark > Variables del entorno:

JNAME=zulu11-ca-amd64

Auto Loader ahora trata los esquemas como que admiten valores NULL.

Auto Loader ahora trata todos los esquemas deducidos y proporcionados por el usuario como que admiten valores NULL de forma predeterminada. Esto es para evitar daños en los datos en los casos en los que contengan campos NULL para columnas que no aceptan valores NULL. Se ha introducido una nueva configuración para realizar un seguimiento de este comportamiento, spark.databricks.cloudFiles.schema.forceNullable. De forma predeterminada, esta configuración contiene el valor de spark.sql.streaming.fileSource.schema.forceNullable, que usa fileStreamSource en Apache Spark y que se establece en true de forma predeterminada.

Últimos cambios

Cambios importantes para todos los usuarios de Spark SQL.

  • Nueva configuración de spark.databricks.behaviorChange.SC78546CorrelatedPredicate.enabled: cuando se establece en true, permite un subconjunto de predicados de igualdad correlacionados al agregarlo a una subconsulta. El valor predeterminado es true.
  • Nueva configuración de spark.databricks.behaviorChange.SC82201BlockAutoAlias.enabled: cuando se establece en true, bloquea la generación automática de alias cuando durante la creación de vistas. El valor predeterminado es true.
  • Nueva configuración de spark.databricks.behaviorChange.SC81078CTASWithLocation.enabled: cuando se establece en true, no permite CREATE TABLE AS SELECT con una ubicación que no esté vacía. El valor predeterminado es true. Tenga en cuenta que cuando spark.sql.legacy.allowNonEmptyLocationInCTAS también se establece en true, esta configuración no tiene efecto y CREATE TABLE AS SELECT siempre se permite con una ubicación que no esté vacía.

Cambios importantes para los usuarios de Spark SQL que habilitan el modo ANSI

Para obtener información sobre el modo ANSI, consulte Cumplimiento de ANSI en Databricks Runtime.

  • Nueva configuración de spark.databricks.behaviorChange.SC83587NextDayDOW.enabled: cuando se establece en true, un argumento dayOfWeek no válido para la función next_day produce un IllegalArgumentException en modo ANSI; de lo contrario, devuelve null. El valor predeterminado es true.

  • Nueva configuración de spark.databricks.behaviorChange.SC83796CanCast.enabled: cuando se establece en true, habilita nuevas reglas de sintaxis de conversión explícitas en modo ANSI. El valor predeterminado es true.

  • Nueva configuración de spark.databricks.behaviorChange.SC79099CastStringToBoolean.enabled: cuando se establece en true, se produce una excepción de error de análisis al convertir una cadena en un valor booleano; de lo contrario, devuelve null. El valor predeterminado es true.

  • Nueva configuración de spark.databricks.behaviorChange.SC79064AbsOutsideRange.enabled: cuando se establece en true, la función abs produce una excepción si la entrada está fuera del intervalo. El valor predeterminado es true.

Cambios importantes para todos los usuarios de Python

  • La API de Python delta.tables.DeltaTable.convertToDelta ahora devuelve el objeto de Python DeltaTable correcto que se puede usar para ejecutar comandos de Delta Lake. Anteriormente, devolvía un objeto interno al que no se podía llamar directamente.

Actualizaciones de bibliotecas

Apache Hadoop 3

  • Databricks Runtime 10.0 actualiza la dependencia de Hadoop de Hadoop 2.7.4 a Hadoop 3.3.1.

Cambios de comportamiento

  • Hadoop 3 usa las bibliotecas hadoop-client-api y hadoop-client-runtime en lugar de hadoop-common, que oculta determinadas dependencias de terceros que podrían usarse en extensiones o API públicas de Hadoop.
  • Las opciones de configuración de Hadoop 3 han cambiado desde Hadoop 2. Para ver las opciones de Hadoop 3.3.1, consulte core-default.xml.
  • Databricks ha actualizado algunas de las configuraciones predeterminadas para Hadoop 3 para que sean coherentes con Hadoop 2 u así garantizar que los conectores de almacenamiento tienen la misma configuración de autenticación predeterminada y niveles de rendimiento:
    • fs.azure.authorization.caching.enable = false
    • fs.s3a.attempts.maximum = 10
    • fs.s3a.block.size = 67108864
    • fs.s3a.connection.timeout = 50000
    • fs.s3a.max.total.tasks = 1000
    • fs.s3a.retry.limit = 20
    • fs.s3a.retry.throttle.interval = 500ms
    • fs.s3a.assumed.role.credentials.provider = com.amazonaws.auth.InstanceProfileCredentialsProvider
    • fs.s3a.aws.credentials.provider = BasicAWSCredentialsProvider, DatabricksInstanceProfileCredentialsProvider, EnvironmentVariableCredentialsProvider, AnonymousAWSCredentialsProvider
  • El conector de Google Cloud Storage (GCS) se ha actualizado de la versión 2.1.6 a la 2.2.2.
  • El conector de Amazon Redshift usa ahora el esquema s3a://. El esquema s3n:// está en desuso.
  • Controla los nombres de clase del software de código abierto para MetadataStore API de Amazon S3 además de las clases ocultas. Esto permite procesar configuraciones del software de código abierto sin necesidad de los nombres de clase ocultos.
    • Por ejemplo, puede especificar la clase org.apache.hadoop.fs.s3a.s3guard.NullMetadataStore en la configuración de Hadoop.
  • Hace que new Configuration() y sparkContext.hadoopConfiguration sean coherentes.
    • Ahora, cada vez que se cree una nueva configuración de Hadoop, será coherente con la configuración predefinida de Hadoop en sparkContext.hadoopConfiguration en Databricks Runtime, incluidos los esquemas del sistema de archivos y su configuración predeterminada.
  • Aunque los conectores de almacenamiento de Hadoop incluidos en Databricks Runtime son totalmente compatibles con Hadoop 3.3.1, no se garantiza que estén sincronizados con los conectores de Hadoop 3.3.1 del software de código abierto y podrían tener un comportamiento diferente.
    • El conector de Amazon S3 todavía permite (aunque con una advertencia) la autenticación usuario:secreto en las direcciones URL de S3, a diferencia de HADOOP-14833, que la quita.
  • globStatus ahora siempre devuelve resultados ordenados (HADOOP-10798).
  • Se ha agregado fs.s3a.endpoint si no se ha establecido y la región fs.s3a.endpoint es NULL (SPARK-35878).
    • Es posible que la resolución automática de la región de Amazon S3 proporcionada por Databricks no se desencadene en algunos casos debido a la configuración del punto de conexión global. Esto no es un problema, ya que el SDK de AWS resolverá la región correctamente.
  • Agregue fs.s3a.downgrade.syncable.exceptions si no está establecido (SPARK-35868).
  • Los códecs LZ4 y Snappy no se basan en la biblioteca nativa de Hadoop (HADOOP-17125).

Problemas conocidos

  • SPARK-36681 El uso de SnappyCodec para escribir el archivo de secuencia producirá un error con UnsatisfiedLinkError por un problema conocido en Hadoop 3.3.1 (HADOOP-17891).

Apache Spark

Databricks Runtime 10.0 incluye Apache Spark 3.2.0.

En esta sección:

Aspectos destacados

  • Compatibilidad con la capa de API de Pandas en PySpark (SPARK-34849)
  • Sesión basada en EventTime (ventana de sesión) (SPARK-10816)
  • Compatibilidad con los tipos ANSI SQL INTERVAL (SPARK-27790)
  • Disponibilidad general del modo ANSI (SPARK-35030)
  • Estandarización de mensajes de excepción en Spark (SPARK-33539)

Core y Spark SQL

Mejoras de compatibilidad de SQL en ANSI

  • Compatibilidad con los tipos ANSI SQL INTERVAL (SPARK-27790)
  • Nuevas reglas de sintaxis de coerción de tipos en modo ANSI (SPARK-34246)

Mejoras de rendimiento

  • Optimización de las consultas
    • Eliminación de los agregados redundantes en el optimizador (SPARK-33122)
    • Reducción del límite mediante proyectos con JOIN (SPARK-34622)
    • Estimación de cardinalidad del operador union, sort y range (SPARK-33411)
    • UnwrapCastInBinaryComparison admite el predicado In/InSet (SPARK-35316)
    • Mantenimiento de las estadísticas necesarias después de la limpieza de particiones (SPARK-34119)
  • Ejecución de la consulta
    • Habilitación del grupo de búferes Zstandard de forma predeterminada (SPARK-34340, SPARK-34390)
    • Incorporación de code-gen para todos los tipos de combinación de sort, merge, join (SPARK-34705)
    • Mejora de la combinación en bucle anidado de difusión (SPARK-34706)
    • Compatibilidad con dos niveles de asignaciones hash para la agregación hash final (SPARK-35141)
    • Permiso para que escritores simultáneos escriban particiones dinámicas y una tabla de cubos (SPARK-26164)
    • Mejora del rendimiento del procesamiento FETCH_PRIOR en Thriftserver (SPARK-33655)

Mejoras del conector

  • Parquet
    • Actualización de Parquet a la versión 1.12.1 (SPARK-36726)
    • Lectura de tipos sin signo de Parquet almacenados como tipo físico int32 en Parquet (SPARK-34817)
    • Lectura del tipo lógico Int64 sin signo de Parquet que se almacena como tipo físico int64 con signo en decimales (20, 0) (SPARK-34786)
    • Mejora de la delegación de In filter en Parquet (SPARK-32792)
  • ORCO
    • Actualización de ORC a la versión 1.6.11 (SPARK-36482)
    • Compatibilidad con la evolución posicional forzada de ORC (SPARK-32864)
    • Compatibilidad con la columna anidada en el lector vectorizado de ORC (SPARK-34862)
    • Compatibilidad con la compresión ZSTD y LZ4 en el origen de datos ORC (SPARK-33978, SPARK-35612)
  • Avro
    • Actualización de Avro a la versión 1.10.2 (SPARK-34778)
    • Compatibilidad con la evolución del esquema de Avro para las tablas de Hive con particiones con "avro.schema.literal" (SPARK-26836)
    • Incorporación de nuevas opciones de origen de datos de Avro para controlar el rebase de fecha y hora en la lectura (SPARK-34404)
    • Incorporación de compatibilidad con la dirección URL de esquema proporcionada por el usuario en Avro (SPARK-34416)
    • Incorporación de compatibilidad para la coincidencia de esquemas posicionales Catalyst-to-Avro (SPARK-34365)
  • JSON (JavaScript Object Notation)
    • Actualización de Jackson a la versión 2.12.3 (SPARK-35550)
    • Permiso para que los orígenes de datos JSON escriban caracteres no ascii como puntos de código (SPARK-35047)
  • JDBC
    • Cálculo de un avance de partición más preciso en JDBCRelation (SPARK-34843)
  • Filtro de compatibilidad de metastore de Hive por no incluidos (SPARK-34538)

Mejoras de las características

  • Subconsulta
    • Mejora de las subconsultas correlacionadas (SPARK-35553)
  • Nuevas funciones integradas
  • Uso de Apache Hadoop 3.3.1 de forma predeterminada (SPARK-29250)
  • Incorporación de la suma de comprobación para los bloques aleatorios (SPARK-35275)
  • Habilitación de spark.storage.replication.proactive de forma predeterminada (SPARK-33870)
  • Compatibilidad con la limpieza del almacenamiento de reserva durante la detención de SparkContext (SPARK-34142)
  • Compatibilidad con las enumeraciones de Java desde Scala Dataset API (SPARK-23862)
  • ADD JAR con coordenadas ivy debe ser compatible con el comportamiento transitivo de Hive (SPARK-34506)
  • Soporte para el comando ADD ARCHIVE y LIST ARCHIVES (SPARK-34603)
  • Compatibilidad con múltiples rutas de acceso para comandos ADD FILE/JAR/ARCHIVE(SPARK-35105)
  • Compatibilidad con archivos como recursos para la sintaxis USING CREATE FUNCTION(SPARK-35236)
  • Carga de SparkSessionExtensions desde ServiceLoader (SPARK-35380)
  • Incorporación de la función sentences a functions.{scala,py} (SPARK-35418)
  • Aplicación de spark.sql.hive.metastorePartitionPruning para tablas que no son de Hive que usan el metastore de Hive para la administración de las particiones (SPARK-36128)
  • Propagación del motivo de la pérdida de ejecución a la interfaz de usuario web (SPARK-34764)
  • Se evita la inlineación de With-CTEs no determinista (SPARK-36447)
  • Compatibilidad con el análisis de todas las tablas de una base de datos específica (SPARK-33687)
  • Estandarización de mensajes de excepción en Spark (SPARK-33539)
  • Compatibilidad con (IGNORE | RESPECT) los valores NULL para LEAD/LAG/NTH_VALUE/FIRST_VALUE/LAST_VALUE (SPARK-30789)

Otros cambios importantes

  • Supervisión
    • Nuevas métricas para ExternalShuffleService (SPARK-35258)
    • Incorporación de nuevos parámetros y API REST de nivel de fase (SPARK-26399)
    • Compatibilidad con las distribuciones de métricas de las tareas y los ejecutores en la API REST (SPARK-34488)
    • Incorporación de métricas de reserva para agregado hash (SPARK-35529)
  • Incorporación de count_distinct como opción a Dataset#summary (SPARK-34165)
  • Implementación de ScriptTransform en sql/core (SPARK-31936)
  • Posibilidad de configurar el tiempo de espera de latido del controlador BlockManagerMaster (SPARK-34278)
  • Posibilidad de configurar el nombre del servicio aleatorio en el lado cliente y de permitir la invalidación de la configuración basada en rutas de clase en el lado servidor (SPARK-34828)
  • ExecutorMetricsPoller debe mantener la entrada de fase en stageTCMP hasta que se produzca un latido (SPARK-34779)
  • Se reemplaza if por la cláusula filter en RewriteDistinctAggregates(SPARK-34882)
  • Corrección del error al aplicar CostBasedJoinReorder en la autocombinación (SPARK-34354)
  • CREATE TABLE LIKE debe respetar las propiedades reservadas de la tabla(SPARK-34935)
  • Envío del archivo ivySettings al controlador en el modo de clúster de YARN (SPARK-34472)
  • Resolución de columnas comunes duplicadas de USING/NATURAL JOIN(SPARK-34527)
  • Ocultación de las propiedades de vista interna para el comando de descripción de la tabla (SPARK-35318)
  • Compatibilidad con la resolución de los atributos que faltan para distribute/cluster by/repartition hint (SPARK-35331)
  • Omisión del error al comprobar la ruta de acceso en FileStreamSink.hasMetadata (SPARK-34526)
  • Mejora de la compatibilidad del confirmador de s3a magic mediante la inferencia de las configuraciones que faltan (SPARK-35383)
  • Permiso para omitir : en la cadena de tipo STRUCT (SPARK-35706)
  • Incorporación de un nuevo operador para distinguir si AQE puede optimizarse de forma segura (SPARK-35786)
  • Anexado de nuevos campos de estructura anidados en lugar de ordenar para unionByName con relleno nulo (SPARK-35290)
  • ArraysZip debe conservar los nombres de campo para evitar que el analizador o el optimizador rescriban (SPARK-35876)
  • Uso de Void como nombre de tipo nullType (SPARK-36224)
  • Introducción de la nueva API en FileCommitProtocol para permitir los nombres de archivos flexibles (SPARK-33298)

Cambios de comportamiento

Consulte las guías de migración de cada componente: Spark Core.

Transmisión Estructurada

Características principales

  • Sesión basada en EventTime (ventana de sesión) (SPARK-10816)
  • Actualización del cliente de Kafka a la versión 2.8.0 (SPARK-33913)
  • Trigger.AvailableNow para ejecutar consultas de streaming como Trigger.Once en varios lotes en Scala (SPARK-36533)

Otros cambios importantes

  • Introducción de una nueva opción en el origen de Kafka para especificar un mínimo de registros para leer por desencadenador (SPARK-35312)
  • Incorporación de los desplazamientos más recientes al progreso del origen (SPARK-33955)

PySpark

Project Zen

  • Pandas API en Spark (SPARK-34849)
  • Compatibilidad de faulthanlder para los nodos de trabajo de Python bloqueados (SPARK-36062)
  • Uso de la regla de nomenclatura Snake en las API de función (SPARK-34306)
  • Habilitación de spark.sql.execution.pyspark.udf.simplifiedTraceback.enabled de manera predeterminada (SPARK-35419)
  • Compatibilidad para deducir el dict anidado como estructura al crear un dataframe (SPARK-35929)

Otros cambios importantes

  • Habilitación del modo de subproceso anclado de forma predeterminada (SPARK-35303)
  • Incorporación de compatibilidad con NullType para las ejecuciones de Arrow (SPARK-33489)
  • Incorporación de compatibilidad de self_destruct de Arrow con Pandas (SPARK-32953)
  • Incorporación de la API de contenedor de destino de subprocesos para el modo de subproceso de anclaje de pyspark (SPARK-35498)

Cambios de comportamiento

Consulte las guías de migración.

MLlib

Mejoras en el rendimiento

  • Optimización de la transformación de BucketedRandomProjectionLSH (SPARK-34220)
  • Optimización de w2v findSynonyms (SPARK-34189)
  • Optimización de sparse GEMM mediante la omisión de la comprobación enlazada (SPARK-35707)
  • Mejora del rendimiento de recommendForAll de ML ALS de GEMV (SPARK-33518)

Mejoras en el entrenamiento de modelos

  • Agregador logístico de refactorización: compatibilidad con el centrado virtual (SPARK-34797)
  • Regresión logística binaria con centrado del soporte de interceptación (SPARK-34858, SPARK-34448)
  • Regresión logística multinómica con centrado del soporte de interceptación (SPARK-34860)

Mejoras de BLAS

  • Total reemplazo de com.github.fommil.netlib por dev.zos.netlib:2.0 (SPARK-35295)
  • Incorporación de una implementación de BLAS vectorizada (SPARK-33882)
  • Aceleración de la reserva de BLAS con dev.zos.netlib (SPARK-35150)

Otros cambios importantes

  • Solución de posibles conflictos de columna en la transformación de OVR (SPARK-34356)

Desusos y eliminaciones

  • Desaprobar spark.launcher.childConnectionTimeout(SPARK-33717)
  • desaprobado GROUP BY … AGRUPAR CONJUNTOS (...) y promover GROUP BY CONJUNTOS DE AGRUPACIÓN (...)(SPARK-34932)
  • Desuso de ps.broadcast API (SPARK-35810)
  • Desuso del argumento num_files (SPARK-35807)
  • Desuso de DataFrame.to_spark_io (SPARK-35811)

Actualizaciones de mantenimiento

Consulte Actualizaciones de mantenimiento de Databricks Runtime 10.0

Entorno del sistema

  • Sistema operativo: Ubuntu 20.04.3 LTS
  • Java: Zulu 8.56.0.21-CA-linux64
  • Scala: 2.12.14
  • Python: 3.8.10
  • R: 4.1.1
  • Delta Lake: 1.0.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
Antergos Linux 2015.10 (ISO-Rolling) directorios de aplicaciones 1.4.4 llamada de retorno 0.2.0
boto3 1.16.7 botocore 1.19.7 certifi 2020.12.5
chardet 4.0.0 ciclista 0.10.0 Cython 0.29.23
dbus-python 1.2.16 decorador 5.0.6 distlib 0.3.3
distro-info 0.23ubuntu1 visión general de las facetas 1.0.0 bloqueo de archivos 3.0.12
idna 2.10 ipykernel 5.3.4 ipython 7.22.0
ipython-genutils 0.2.0 Jedi 0.17.2 jmespath 0.10.0
joblib 1.0.1 Cliente Jupyter 6.1.12 jupyter-core 4.7.1
kiwisolver 1.3.1 Koalas 1.8.1 matplotlib 3.4.2
numpy 1.19.2 Pandas 1.2.4 parso 0.7.0
chivo expiatorio 0.5.1 pexpect 4.8.0 pickleshare 0.7.5
Almohada 8.2.0 pepita 21.0.1 trazado 5.1.0
prompt-toolkit 3.0.17 protobuf 3.17.2 psycopg2 2.8.5
ptyprocess 0.7.0 pyarrow 4.0.0 Pygments 2.8.1
PyGObject 3.36.0 pyparsing 2.4.7 python-apt 2.0.0+ubuntu0.20.4.6
Python-dateutil 2.8.1 pytz 2020.5 pyzmq 20.0.0
Solicitudes 2.25.1 requests-unixsocket 0.2.0 s3transfer 0.3.7
scikit-learn 0.24.1 scipy 1.6.2 biblioteca de visualización de datos de Python llamada seaborn 0.11.1
setuptools 52.0.0 six (seis) 1.15.0 ssh-import-id 5.10
statsmodels (paquete de Python para análisis estadístico) 0.12.2 tenacidad 8.0.1 threadpoolctl 2.1.0
tornado 6.1 traitlets 5.0.5 actualizaciones desatendidas 0,1
urllib3 1.25.11 virtualenv 20.4.1 wcwidth 0.2.5
rueda 0.36.2

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN el 21-09-2021.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
askpass 1.1 asegúrate de que 0.2.1 retroportaciones 1.2.1
base 4.1.1 base64enc 0.1-3 poco 4.0.4
bit 64 4.0.5 mancha 1.2.2 bota 1.3-28
fermentar 1.0-6 Brio 1.1.2 escoba 0.7.9
bslib 0.3.0 cachemir 1.0.6 callr 3.7.0
cursor 6.0-88 cellranger (herramienta de análisis de datos celulares) 1.1.0 Chron 2.3-56
clase 7.3-19 Cli 3.0.1 clipr 0.7.1
conglomerado 2.1.2 codetools 0.2-18 espacio de colores 2.0-2
commonmark 1.7 compilador 4.1.1 configuración 0.3.1
cpp11 0.3.1 crayón 1.4.1 credenciales 1.3.1
rizo 4.3.2 tabla de datos 1.14.0 conjuntos de datos 4.1.1
DBI 1.1.1 dbplyr 2.1.1 Descripción 1.3.0
devtools 2.4.2 diffobj 0.3.4 digerir 0.6.27
dplyr 1.0.7 dtplyr 1.1.0 elipsis 0.3.2
evaluar 0.14 fans 0.5.0 colores 2.1.0
mapa rápido 1.1.0 convictos 0.5.1 foreach 1.5.1
extranjero 0.8-81 fragua 0.2.0 Fs 1.5.0
futuro 1.22.1 aplicación futura 1.8.1 hacer gárgaras 1.2.0
genéricos 0.1.0 Gert 1.4.1 ggplot2 3.3.5
Gh 1.3.0 gitcreds 0.1.1 glmnet 4.1-2
globales 0.14.0 pegamento 1.4.2 googledrive 2.0.0
googlesheets4 1.0.0 Gower 0.2.2 elementos gráficos 4.1.1
grDevices 4.1.1 rejilla 4.1.1 gridExtra 2.3
gsubfn 0,7 gtable 0.3.0 refugio 2.4.3
más alto 0.9 HMS 1.1.0 herramientas de HTML 0.5.2
htmlwidgets 1.5.4 httpuv 1.6.3 httr 1.4.2
hwriter 1.3.2 hwriterPlus 1.0-3 Identificadores 1.0.1
ini 0.3.1 ipred 0.9-12 isoband 0.2.5
Iteradores 1.0.13 jquerylib 0.1.4 jsonlite 1.7.2
KernSmooth 2.23-20 tejido 1,34 etiquetado 0.4.2
más tarde 1.3.0 retícula 0.20-44 lava 1.6.10
ciclo de vida 1.0.0 listenv 0.8.0 lubridate 1.7.10
magrittr 2.0.1 Formato Markdown 1.1 MASA 7.3-54
Matriz 1.3-4 memorizar 2.0.0 métodos 4.1.1
mgcv 1.8-37 mimo 0,11 ModelMetrics 1.2.2.2
modelr 0.1.8 munsell 0.5.0 nlme 3.1-152
nnet 7.3-16 numDeriv 2016.8-1.1 openssl (software de cifrado) 1.4.5
paralelo 4.1.1 Paralelamente 1.28.1 pilar 1.6.2
pkgbuild 1.2.0 pkgconfig 2.0.3 pkgload 1.2.2
plogr 0.2.0 plyr 1.8.6 elogio 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.5.2
prodlim 2019.11.13 progreso 1.2.2 progressr 0.8.0
promesas 1.2.0.1 prototipo 1.0.0 P.D 1.6.0
ronroneo 0.3.4 r2d3 0.2.5 R6 2.5.1
Bosque Aleatorio (randomForest) 4.6-14 rappdirs 0.3.3 rcmdcheck 1.3.3
RColorBrewer 1.1-2 Rcpp 1.0.7 readr 2.0.1
readxl 1.3.1 recetas 0.1.16 partido de revancha 1.0.1
segunda revancha 2.1.2 Telecontroles 2.4.0 ejemplo reproducible 2.0.1
reshape2 1.4.4 rlang 0.4.11 rmarkdown 2,11
RODBC 1.3-19 roxygen2 7.1.2 rpart 4.1-15
rprojroot 2.0.2 Rserve 1.8-8 RSQLite 2.2.8
rstudioapi 0,13 rversions 2.1.1 rvest 1.0.1
Sass 0.4.0 balanzas 1.1.1 selectr 0.4-2
información de sesión 1.1.1 forma 1.4.6 brillante 1.6.0
sourcetools 0.1.7 sparklyr 1.7.2 SparkR 3.2.0
espacial 7.3-11 Tiras 4.1.1 sqldf 0.4-11
SQUAREM 2021.1 Estadísticas 4.1.1 estadísticas4 4.1.1
stringi 1.7.4 stringr 1.4.0 supervivencia 3.2-13
sys 3.4 tcltk 4.1.1 TeachingDemos 2.10
testthat 3.0.4 tibble 3.1.4 tidyr 1.1.3
tidyselect 1.1.1 tidyverse 1.3.1 fechaHora 3043.102
tinytex 0,33 herramientas 4.1.1 tzdb 0.1.2
usa esto 2.0.1 utf8 1.2.2 utilidades 4.1.1
Identificador Único Universal (UUID) 0.1-4 vctrs 0.3.8 viridisLite 0.4.0
Vroom 1.5.5 Waldo 0.3.1 bigotes 0,4
withr 2.4.2 xfun 0,26 xml2 1.3.2
xopen 1.0.0 xtable 1.8-4 yaml 2.2.1
cremallera 2.2.0

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.11.655
com.amazonaws aws-java-sdk-cloudformation 1.11.655
com.amazonaws aws-java-sdk-cloudfront 1.11.655
com.amazonaws aws-java-sdk-cloudhsm 1.11.655
com.amazonaws aws-java-sdk-cloudsearch 1.11.655
com.amazonaws aws-java-sdk-cloudtrail 1.11.655
com.amazonaws aws-java-sdk-cloudwatch 1.11.655
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.655
com.amazonaws aws-java-sdk-codedeploy 1.11.655
com.amazonaws aws-java-sdk-cognitoidentity 1.11.655
com.amazonaws aws-java-sdk-cognitosync 1.11.655
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.11.655
com.amazonaws aws-java-sdk-core 1.11.655
com.amazonaws aws-java-sdk-datapipeline 1.11.655
com.amazonaws aws-java-sdk-directconnect 1.11.655
com.amazonaws aws-java-sdk-directory 1.11.655
com.amazonaws aws-java-sdk-dynamodb 1.11.655
com.amazonaws aws-java-sdk-ec2 1.11.655
com.amazonaws aws-java-sdk-ecs 1.11.655
com.amazonaws aws-java-sdk-efs 1.11.655
com.amazonaws aws-java-sdk-elasticache 1.11.655
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.655
com.amazonaws aws-java-sdk-elasticloadbalancing (paquete de software para la gestión de balanceo de carga elástica) 1.11.655
com.amazonaws aws-java-sdk-elastictranscoder 1.11.655
com.amazonaws aws-java-sdk-emr 1.11.655
com.amazonaws aws-java-sdk-glacier 1.11.655
com.amazonaws aws-java-sdk-glue 1.11.655
com.amazonaws aws-java-sdk-iam 1.11.655
com.amazonaws aws-java-sdk-importexport 1.11.655
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.11.655
com.amazonaws aws-java-sdk-kms 1.11.655
com.amazonaws aws-java-sdk-lambda 1.11.655
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.11.655
com.amazonaws aws-java-sdk-machinelearning 1.11.655
com.amazonaws aws-java-sdk-opsworks 1.11.655
com.amazonaws aws-java-sdk-rds 1.11.655
com.amazonaws aws-java-sdk-redshift 1.11.655
com.amazonaws aws-java-sdk-route53 1.11.655
com.amazonaws aws-java-sdk-s3 1.11.655
com.amazonaws aws-java-sdk-ses 1.11.655
com.amazonaws aws-java-sdk-simpledb 1.11.655
com.amazonaws aws-java-sdk-simpleworkflow 1.11.655
com.amazonaws aws-java-sdk-sns 1.11.655
com.amazonaws aws-java-sdk-sqs 1.11.655
com.amazonaws aws-java-sdk-ssm 1.11.655
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.11.655
com.amazonaws aws-java-sdk-sts 1.11.655
com.amazonaws SDK de AWS para Java - Soporte 1.11.655
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.655
com.amazonaws jmespath-java 1.11.655
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo sombreado 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.12.2
com.fasterxml.jackson.core jackson-core 2.12.2
com.fasterxml.jackson.core jackson-databind 2.12.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.12.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.12.2
com.fasterxml.jackson.module jackson-module-paranamer 2.12.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.12.2
com.github.ben-manes.cafeína cafeína 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib núcleo 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java-nativos 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.0-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.8.6
com.google.crypto.tink Tink 1.6.0
com.google.flatbuffers flatbuffers-java 1.9.0
com.google.guava guayaba 15,0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 1.4.195
com.helger perfilador 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.sqlserver mssql-jdbc 9.2.1.jre8
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.9
com.ning compress-lzf 1.0.3
com.sun.istack istack-commons-runtime 3.0.8
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentes_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuración 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.univocity analizadores de univocidad 2.9.1
com.zaxxer HikariCP 3.1.0
commons-cli commons-cli 1.2
commons-codec commons-codec 1,15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.8.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 1.3.2
dev.ludovic.netlib Blas 1.3.2
dev.ludovic.netlib lapack 1.3.2
hive-2.3__hadoop-3.2 jets3t-0.7 liball_deps_2.12
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 0,19
io.delta delta-sharing-spark_2.12 0.1.0
io.dropwizard.metrics núcleo de métricas 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics métricas y verificaciones de salud 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.63.Final
io.prometheus simpleclient 0.7.0
io.prometheus cliente_simple_común 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activación 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolución javolución 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.5
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
maven-trees hive-2.3__hadoop-3.2 liball_deps_2.12
net.java.dev.jna jna 5.8.0
net.razorvine pyrolita 4,30
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.3
net.snowflake spark-snowflake_2.12 2.9.0-spark_3.1
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr plantilla de cadenas 3.2.1
org.apache.ant hormiga 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant lanzador de aplicaciones Ant 1.9.2
org.apache.arrow formato de flecha 2.0.0
org.apache.arrow núcleo de memoria de flecha 2.0.0
org.apache.arrow arrow-memory-netty 2.0.0
org.apache.arrow vector de flecha 2.0.0
org.apache.avro avro 1.10.2
org.apache.avro avro-ipc 1.10.2
org.apache.avro avro-mapred 1.10.2
org.apache.commons commons-compress 1.20
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.4.1
org.apache.commons commons-text 1.6
org.apache.curator curador-cliente 2.13.0
org.apache.curator marco de trabajo para curadores 2.13.0
org.apache.curator curador-recetas 2.13.0
org.apache.derby derbi 10.14.2.0
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.3.1
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive Hive-shims 2.3.9
org.apache.hive API de almacenamiento de hive 2.7.2
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims planificador-de-adaptadores-hive 2.3.9
org.apache.htrace htrace-core4 4.1.0-incubación
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.12
org.apache.ivy hiedra 2.5.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.6.10
org.apache.orc orc-mapreduce 1.6.10
org.apache.orc calzos de orco 1.6.10
org.apache.parquet parquet-columna 1.12.0-databricks-0003
org.apache.parquet parquet-common 1.12.0-databricks-0003
org.apache.parquet codificación de parquet 1.12.0-databricks-0003
org.apache.parquet estructuras-de-formato-parquet 1.12.0-databricks-0003
org.apache.parquet parquet-hadoop 1.12.0-databricks-0003
org.apache.parquet parquet-jackson 1.12.0-databricks-0003
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-sombreado 4.20
org.apache.yetus anotaciones de audiencia 0.5.0
org.apache.zookeeper guardián de zoológico 3.6.2
org.apache.zookeeper Zookeeper-Jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.40.v20210413
org.eclipse.jetty jetty-continuation 9.4.40.v20210413
org.eclipse.jetty jetty-http 9.4.40.v20210413
org.eclipse.jetty jetty-io 9.4.40.v20210413
org.eclipse.jetty jetty-jndi 9.4.40.v20210413
org.eclipse.jetty jetty-plus 9.4.40.v20210413
org.eclipse.jetty jetty-proxy 9.4.40.v20210413
org.eclipse.jetty Seguridad de Jetty 9.4.40.v20210413
org.eclipse.jetty servidor Jetty 9.4.40.v20210413
org.eclipse.jetty jetty-servlet 9.4.40.v20210413
org.eclipse.jetty jetty-servlets 9.4.40.v20210413
org.eclipse.jetty jetty-util 9.4.40.v20210413
org.eclipse.jetty jetty-util-ajax 9.4.40.v20210413
org.eclipse.jetty Aplicación web de Jetty 9.4.40.v20210413
org.eclipse.jetty jetty-xml 9.4.40.v20210413
org.eclipse.jetty.websocket WebSocket-API 9.4.40.v20210413
org.eclipse.jetty.websocket cliente de websocket 9.4.40.v20210413
org.eclipse.jetty.websocket websocket-common 9.4.40.v20210413
org.eclipse.jetty.websocket servidor de websocket 9.4.40.v20210413
org.eclipse.jetty.websocket websocket-servlet 9.4.40.v20210413
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jaxb jaxb-runtime 2.3.2
org.glassfish.jersey.containers servlet de contenedor de Jersey 2,34
org.glassfish.jersey.containers jersey-container-servlet-core 2,34
org.glassfish.jersey.core jersey-client 2,34
org.glassfish.jersey.core jersey-common 2,34
org.glassfish.jersey.core jersey-server 2,34
org.glassfish.jersey.inject jersey-hk2 2,34
org.hibernate.validator validador de hibernación 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotaciones 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.7.1
org.mariadb.jdbc mariadb-java-client 2.2.5
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.2.19
org.roaringbitmap RoaringBitmap 0.9.14
org.roaringbitmap Cuñas 0.9.14
org.rocksdb rocksdbjni 6.20.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1,0
org.scalanlp breeze_2.12 1,0
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.30
org.slf4j jul-to-slf4j 1.7.30
org.slf4j slf4j-api 1.7.30
org.slf4j slf4j-log4j12 1.7.30
org.spark-project.spark no utilizado 1.0.0
org.springframework spring-core 4.1.4.LANZAMIENTO
org.springframework Prueba de primavera 4.1.4.LANZAMIENTO
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.8
org.typelevel algebra_2.12 2.0.0-M2
org.typelevel cats-kernel_2.12 2.0.0-M4
org.typelevel maquinista_2.12 0.6.8
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0-M1
org.typelevel spire-platform_2.12 0.17.0-M1
org.typelevel spire-util_2.12 0.17.0-M1
org.typelevel spire_2.12 0.17.0-M1
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1