Partage via


Databricks Runtime 5.0 (EoL)

Remarque

Cette version databricks Runtime a atteint la fin de vie et n’est plus disponible. Pour connaître les dates de fin de vie, consultez l’historique de fin de support et de fin de vie. Pour plus d’informations sur la stratégie et le calendrier de prise en charge de Databricks Runtime, consultez les cycles de vie de la prise en charge de Databricks.

Databricks a publié cette version en novembre 2018.

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 5.0 avec Apache Spark.

Nouvelles fonctionnalités

  • Delta Lake
    • Les sous-requêtes sont maintenant prises en charge dans la clause WHERE pour la prise en charge des commandes DELETE et UPDATE.
    • Nouvelle implémentation évolutive pour les commandes MERGE.
      • Le nombre d’insertions et de mises à jour n’est pas limité.
      • Peut être utilisé pour les requêtes SCD de type 1 et de type 2.
      • Peut effectuer des opérations d'insertion-mise à jour (upserts) à partir de requêtes diffusées en continu en mode « mise à jour » (par exemple, écrire le résultat de l’agrégation de diffusion en continu dans une table Delta). Consultez le notebook d'exemple Écrire des agrégats diffusés en continu dans Databricks Delta en utilisant MERGE et foreachBatch.
  • Diffusion en continu structurée
    • Source de streaming basée sur les notifications de fichiers de Azure Blob Storage. Cela peut réduire considérablement les coûts de listage lors de l’exécution d’une requête de flux structuré sur des fichiers dans le stockage Azure Blob. Au lieu d’utiliser les listes pour rechercher de nouveaux fichiers à traiter, cette source de streaming peut lire directement les notifications d’événements de fichier pour rechercher de nouveaux fichiers. Consultez Azure Blob Storage file source avec Azure Queue Storage (legacy).
  • Ajout de la prise en charge de TensorBoard pour la surveillance des travaux de Deep Learning. Consultez Tensorboard.

Améliorations

  • Delta Lake
    • OPTIMIZE Stabilité et performances.
      • La commande OPTIMIZE valide les lots dès que possible, plutôt qu’à la fin.
      • Réduction du nombre par défaut de threads OPTIMIZE exécutés en parallèle. Il s’agit d’une augmentation stricte des performances pour les tables volumineuses.
      • Accélération des écritures OPTIMIZE en évitant de trier inutilement les données lors de l’écriture dans une table partitionnée.
      • Accélération de OPTIMIZE ZORDER BY en le rendant incrémentiel. Cela signifie que la commande évite à présent de réécrire des fichiers de données qui étaient déjà Z-classés par la ou les même(s) colonne(s). Consultez le saut de données.
    • Isolement d’instantané lors de l’interrogation des tables delta. Toute requête comportant plusieurs références à une table Delta (par exemple, jointure réflexive) utilise le même instantané de la table, même s’il existe des mises à jour simultanées de la table.
    • Latence de requête améliorée lors de la lecture de tables Delta de petite taille (< 2000 fichiers) en mettant en cache les métadonnées sur le pilote.
  • Amélioration des performances de régression logistique MLlib.
  • Amélioration des performances de l’algorithme d’arborescence MLlib.
  • Mise à niveau de plusieurs bibliothèques Java et Scala. Consultez Bibliothèques Java et Scala installées (version de cluster Scala 2.11).
  • Mise à niveau de certaines bibliothèques Python installées :
    • pip : 10.0.1 à 18.0
    • setuptools : 39.2.0 à 40.4.1
    • tornado : de 5.0.2 à 5.1.1
  • Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.

Correctifs de bogues

  • Delta Lake
    • Les configurations définies dans SQL conf s’appliquent désormais correctement aux opérations Delta Lake qui ont été chargées pour la première fois dans un autre notebook.
    • Correction d’un bogue dans la commande DELETE qui supprimait incorrectement les lignes où la condition a la valeur Null.
    • Les flux qui prennent plus de deux jours pour traiter le lot initial (autrement dit, les données qui se trouvaient dans la table au moment du démarrage du flux) n’échouent plus avec FileNotFoundException lors de la tentative de récupération à partir d’un point de contrôle.
    • Évite une condition de compétition qui mène à NoClassDefError lorsqu'on charge une nouvelle table.
    • Correction de VACUUM où l'opération peut échouer avec un AssertionError indiquant : « Ne doit pas avoir de chemins absolus pour la suppression ici ».
    • Correction de la commande SHOW CREATE TABLE pour ne pas inclure les propriétés de stockage générées par Hive.
  • Les exécuteurs qui génèrent de nombreuses erreurs NoClassDefFoundError pour les classes Spark internes sont maintenant redémarrés automatiquement pour résoudre le problème.

Problèmes connus

  • Les noms de colonne spécifiés dans l’option replaceWhere pour le mode overwrite dans Delta Lake sont sensibles à la casse, même si l’insensibilité à la casse est activée (valeur par défaut).
  • Le connecteur Snowflake pour Databricks Runtime 5.0 est en version préliminaire.
  • Une fois que vous avez annulé une cellule de streaming en cours d’exécution dans un notebook attaché à un cluster Databricks Runtime 5.0, vous ne pouvez pas exécuter les commandes suivantes dans le notebook, sauf si vous effacez l’état du notebook ou redémarrez le cluster. Pour obtenir une solution de contournement, consultez la base de connaissances.

Apache Spark

Databricks Runtime 5.0 comprend Apache Spark 2.4.0.

Core et Spark SQL

Remarque

Cet article contient des références au terme esclave, un terme qu’Azure Databricks n’utilise pas. Lorsque le terme sera supprimé du logiciel, nous le supprimerons de cet article.

Fonctionnalités majeures

  • Mode d’exécution de barrière : [SPARK-24374] prendre en charge le mode d'exécution de barrière dans le planificateur, pour mieux s'intégrer aux infrastructures de deep learning.
  • Prise en charge de Scala 2.12 : [SPARK-14220] ajout de la prise en charge expérimentale de Scala 2.12. Vous pouvez maintenant générer Spark avec Scala 2.12 et écrire des applications Spark dans Scala 2.12.
  • Fonctions d’ordre supérieur : [SPARK-23899] ajouter de nombreuses fonctions intégrées, notamment des fonctions élevées, pour faciliter l’utilisation des types de données complexes. Consultez Fonctions intégrées Apache Spark.
  • Source de données Avro intégrée : [SPARK-24768] intégration du package Spark-Avro avec prise en charge des types logiques, performances améliorées et facilité d’utilisation.

API

  • [SPARK-24035] syntaxe SQL pour le tableau croisé dynamique
  • [SPARK-24940] Indicateur de regroupement et de redistribution pour les requêtes SQL
  • [SPARK-19602] Prise en charge de la résolution de colonne par nom de colonne entièrement qualifié
  • [SPARK-21274] Implémenter EXCEPT ALL et INTERSECT ALL

Performances et stabilité

  • [SPARK-16406] La résolution de référence pour un grand nombre de colonnes doit être plus rapide
  • [SPARK-23486]Mettre en cache le nom de la fonction à partir du catalogue externe pour lookupFunctions
  • [SPARK-23803] Nettoyage des compartiments de support
  • [SPARK-24802] Exclusion de la règle d’optimisation
  • [SPARK-4502] Nettoyage de schéma imbriqué pour les tables parquet
  • [SPARK-24296] Prendre en charge la réplication des blocs supérieurs à 2 Go
  • [SPARK-24307] Prendre en charge l’envoi de messages de plus de 2 Go depuis la mémoire
  • [SPARK-23243] Un shuffle et une répartition sur un RDD peuvent entraîner des réponses incorrectes
  • [SPARK-25181] Limite de la taille des pools de threads maîtres et subordonnés BlockManager, ce qui réduit la surcharge de mémoire quand la mise en réseau est lente

Connecteurs

  • [SPARK-23972] Mettre à jour le Parquet de 1.8.2 vers 1.10.0
  • [SPARK-25419] Amélioration de la réduction des prédicats Parquet
  • [SPARK-23456] Le lecteur ORC natif est activé par défaut
  • [SPARK-22279] Utiliser le lecteur ORC natif pour lire les tables Hive serde par défaut
  • [SPARK-21783] Activer par défaut le filtre pushdown de ORC
  • [SPARK-24959] Accélérer le nombre () pour JSON et CSV
  • [SPARK-24244] Analyse des colonnes requises uniquement pour l’analyseur CSV
  • [SPARK-23786] Validation de schéma CSV- les noms de colonnes ne sont pas vérifiés
  • [SPARK-24423] Requête d’option pour spécifier la requête à lire à partir de JDBC
  • [SPARK-22814] Prise en charge des données de type Date/Heure dans la colonne de partition JDBC
  • [SPARK-24771] Mettre à jour Avro de 1.7.7 vers 1.8

PySpark

  • [SPARK-24215] Implémenter une évaluation hâtive pour les API DataFrame
  • [SPARK-22274] - [SPARK-22239] Fonctions d’agrégation définies par l’utilisateur avec pandas UDF
  • [SPARK-24396] Ajouter des flux structurés ForeachWriter structurés pour Python
  • [SPARK-23874]Mise à niveau d’Apache Arrow vers 0.10.0
  • [SPARK-25004] Ajouter la limite Spark.executor.pyspark.memory
  • [SPARK-23030] Utilisez le format de flux Arrow pour créer et collecter des DataFrames pandas
  • [SPARK-24624] Prise en charge du mélange des fonctions Python UDF et Scalar pandas UDF

Autres changements notables

Diffusion Structurée

Fonctionnalités majeures

  • [SPARK-24565] Exposition des lignes de sortie de chaque microlot en tant que DataFrame à l’aide de foreachBatch (Python, Scala et Java)
  • [SPARK-24396] Ajout de l’API Python pour foreach et ForeachWriter
  • [SPARK-25005] Prendre en charge « kafka.isolation.level » pour lire uniquement les enregistrements validés dans les rubriques Kafka qui sont écrites à l’aide d’un producteur transactionnel.

Autres changements notables

  • [SPARK-24662] Prise en charge de l’opérateur LIMIT pour les flux en mode Append ou en mode Complete
  • [SPARK-24763] Supprimer les données de clé redondantes de la valeur dans l’agrégation en streaming
  • [SPARK-24156] Génération plus rapide de résultats de sortie et/ou nettoyage d’état à l’aide d’opérations avec état (mapGroupsWithState, jointure flux-flux, agrégation en diffusion continue, suppression des doublons en diffusion continue) lorsqu’il n’y a aucune donnée dans le flux d’entrée.
  • [SPARK-24730] Prise en charge du choix du filigrane min ou Max lorsqu’il y a plusieurs flux d’entrée dans une requête
  • [SPARK-25399] Correction d’un bogue où la réutilisation des threads d’exécution à partir du traitement continu pour la diffusion en continu de microlot peut entraîner un problème d’exactitude
  • [SPARK-18057] Version du client Kafka mise à niveau de 0.10.0.1 vers 2.0.0

MLlib

Fonctionnalités majeures

  • [SPARK-22666] Source de données Spark pour le format d’image

Autres changements notables

SparkR

  • [SPARK-25393] Ajout de la nouvelle fonction from_csv()
  • [SPARK-21291] Ajouter l’API R partitionBy dans DataFrame
  • [SPARK-25007] Ajouter array_intersect/array_except/array_union/shuffle à SparkR
  • [SPARK-25234] Éviter le dépassement sur les entiers dans la parallélisation
  • [SPARK-25117] Ajouter la prise en charge de EXCEPT ALL et INTERSECT ALL dans R
  • [SPARK-24537] Ajouter array_remove/array_zip/map_from_arrays/array_distinct
  • [SPARK-24187] Ajouter la fonction array_join à SparkR
  • [SPARK-24331]Ajout d’arrays_overlap, array_repeat, map_entries à SparkR
  • [SPARK-24198] Ajout d’une fonction de tranche à SparkR
  • [SPARK-24197] Ajout d’une fonction array_sort à SparkR
  • [SPARK-24185] Ajouter la fonction flatten à SparkR
  • [SPARK-24069] Ajouter des fonctions de array_min/array_max
  • [SPARK-24054] Ajouter des fonctions array_position et element_at
  • [SPARK-23770] Ajouter l’API repartitionByRange dans SparkR

GraphX

  • [SPARK-25268] exécuter Parallel Personalized PageRank lève une exception de sérialisation

Dépréciations

Changements de comportement

  • [SPARK-23549] Conversion en timestamp lors de la comparaison d'un timestamp avec une date
  • [SPARK-24324] Les fonctions de carte groupée pandas doivent attribuer les colonnes de résultats par leur nom
  • [SPARK-25088] Mises à jour par défaut et de la documentation du serveur Rest
  • [SPARK-23425] Les données de chargement pour le chemin d’accès du fichier HDFS avec l’utilisation de caractères génériques ne fonctionnent pas correctement
  • [SPARK-23173] from_json peut produire des valeurs null pour les champs marqués comme non nuls
  • [Spark-24966] Implémenter des règles de précédence pour les opérations d’ensemble
  • [SPARK-25708]HAVING sans GROUP BY doit être un agrégat global
  • [SPARK-24341] Gérer correctement plusieurs valeurs dans une sous-requête
  • [SPARK-19724] Créer une table managée avec un emplacement par défaut existant doit lever une exception

Problèmes connus

  • [SPARK-25793] Chargement du bogue de modèle dans BisectingKMeans
  • [SPARK-25271] CTAS avec les tables Hive Parquet doit tirer parti de la source Parquet native
  • [SPARK-24935] Problème lié à l’exécution des UDAF de Hive à partir de Spark 2.2

Mises à jour de maintenance

Consultez Mises à jour de maintenance de Databricks Runtime 5.0.

Environnement du système

  • Système d’exploitation : Ubuntu 16.04.5 LTS
  • Java : 1.8.0_162
  • Scala : 2.11.8
  • Python : 2.7.12 pour les clusters Python 2 et 3.5.2 pour les clusters Python 3.
  • R : R version 3.4.4 (2018-03-15)
  • Clusters GPU : Les bibliothèques GPU NVIDIA suivantes sont installées :
    • Pilote Tesla 375.66
    • CUDA 9.0
    • cuDNN 7.0

Remarque

Bien que Scala 2.12 soit pris en charge dans Apache Spark 2.4, il ne l’est pas dans Databricks Runtime 5.0.

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
ansi2html 1.1.1 argparse 1.2.1 backports-abc 0,5
boto 2.42.0 boto3 1.4.1 botocore 1.4.70
brewer2mpl 1.4.1 certifi 2016.2.28 cffi 1.7.0
chardet 2.3.0 colorama 0.3.7 configobj 5.0.6
chiffrement 1,5 cycliste 0.10.0 Cython 0.24.1
décorateur 4.0.10 docutils 0.14 enum34 1.1.6
et-xmlfile 1.0.1 freetype-py 1.0.2 funcsigs 1.0.2
fusepy 2.0.4 contrats à terme 3.2.0 ggplot 0.6.8
html5lib 0.999 idna 2.1 adresse IP 1.0.16
ipython 2.2.0 ipython-genutils 0.1.0 jdcal 1,2
Jinja2 2.8 jmespath 0.9.0 llvmlite 0.13.0
lxml 3.6.4 MarkupSafe 0.23 matplotlib 1.5.3
mpld3 0.2 msgpack-python 0.4.7 ndg-httpsclient 0.3.3
numba 0.28.1 numpy 1.11.1 openpyxl 2.3.2
Pandas 0.19.2 pathlib2 2.1.0 dupe 0.4.1
pexpect 4.0.1 pickleshare 0.7.4 Oreiller 3.3.1
pépin 18,0 Plis 3.9 prompt-toolkit 1.0.7
psycopg2 2.6.2 ptyprocess 0.5.1 py4j 0.10.3
pyarrow 0.8.0 pyasn1 0.1.9 pycparser 2.14
Pygments 2.1.3 PyGObject 3.20.0 pyOpenSSL 16.0.0
pyparsing 2.2.0 pypng 0.0.18 Python 2.7.12
python-dateutil 2.5.3 Python-geohash 0.8.5 pytz 1.6.2016
requêtes 2.11.1 s3transfer 0.1.9 scikit-learn 0.18.1
scipy (bibliothèque Python pour le calcul scientifique) 0.18.1 récurer 0.32 seaborn 0.7.1
setuptools 40.4.1 simplejson 3.8.2 simples3 1,0
répartition unique 3.4.0.3 Six 1.10.0 statsmodels, une bibliothèque Python pour la modélisation statistique 0.6.1
tornade 5.1.1 Traitlets 4.3.0 urllib3 1.19.1
virtualenv 15.0.1 wcwidth 0.1.7 roue 0.31.1
wsgiref 0.1.2

Bibliothèques R installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
abind 1.4-5 assertthat 0.2.0 rétroportage 1.1.2
base 3.4.4 base64enc 0.1-3 BH 1.66.0-1
bindr 0.1.1 bindrcpp 0.2.2 morceau 1.1-14
bit 64 0.9-7 bitops 1.0-6 objet BLOB 1.1.1
botte 1,3-20 brasser 1.0-6 balai 0.5.0
appelant 3.0.0 voiture 3.0-2 données de voiture 3.0-1
caret 6.0-80 cellranger 1.1.0 Chron 2.3-52
classe 7.3-14 Cli 1.0.0 Grappe 2.0.7-1
codetools 0.2-15 espace colorimétrique 1.3-2 commonmark 1,5
compilateur 3.4.4 crayon 1.3.4 friser 3.2
Thrombose Veineuse du Sinus Cérébral (CVST) 0.2-2 data.table 1.11.4 jeux de données 3.4.4
DBI 1.0.0 ddalpha 1.3.4 DEoptimR 1,0-8
Desc 1.2.0 devtools 1.13.6 digérer 0.6.16
dimRed 0.1.0 doMC 1.3.5 dplyr 0.7.6
Réduction des Risques de Catastrophe (DRR) 0.0.3 fans 0.3.0 condamnés 0.3.0
foreach 1.4.4 étranger 0.8-70 Gbm 2.1.3
géométrie 0.3-6 ggplot2 3.0.0 git2r 0.23.0
glmnet 2.0-16 colle 1.3.0 Gower 0.1.2
graphisme 3.4.4 grDevices 3.4.4 grille 3.4.4
gsubfn 0,7 tableau 0.2.0 H₂O 3.20.0.2
havre 1.1.2 Hms 0.4.2 httr 1.3.1
hwriter 1.3.2 hwriterPlus 1.0-3 ipred 0.9-7
itérateurs 1.0.10 jsonlite 1,5 kernlab 0.9-27
KernSmooth 2.23-15 étiquetage 0,3 treillis 0.20-35
lave 1.6.3 lazyeval 0.2.1 plus petit 0.3.4
lme4 1.1-18-1 lubridate 1.7.4 magie 1.5-8
magrittr 1,5 mapproj 1.2.6 cartes 3.3.0
maptools 0.9-3 MASSE 7.3-50 Matrice 1.2-14
MatrixModels 0.4-1 mémorisation 1.1.0 méthodes 3.4.4
mgcv 1.8-24 mime 0,5 minqa 1.2.4
ModelMetrics 1.2.0 munsell 0.5.0 mvtnorm 1,0-8
nlme 3.1-137 nloptr 1.0.4 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.0.2 openxlsx 4.1.0
parallèle 3.4.4 pbkrtest 0.4-7 pilier 1.3.0
pkgbuild 1.0.0 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.0 plogr 0.2.0 Pls 2.7-0
plyr (un package logiciel pour le traitement de données) 1.8.4 éloge 1.0.0 joliesunits 1.0.2
pROC 1.12.1 processx 3.2.0 prodlim 2018.04.18
prototype 1.0.0 p.s. 1.1.0 purrr 0.2.5
quantreg 5.36 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.7.0 R6 2.2.2 randomForest (algorithme d'apprentissage automatique) 4.6-14
RColorBrewer 1.1-2 Rcpp 0.12.18 RcppEigen 0.3.3.4.0
RcppRoll 0.3.0 RCurl 1.95-4.11 readr 1.1.1
readxl 1.1.0 recettes 0.1.3 match retour 1.0.1
reshape2 1.4.3 rivière 0.5.10 rlang 0.2.2
robustebase 0.93-2 RODBC 1.3-15 roxygen2 6.1.0
rpart 4.1-13 rprojroot 1.3-2 Rserve 1.7-3
RSQLite 2.1.1 rstudioapi 0,7 écailles 1.0.0
sfsmisc 1.1-2 SP 1.3-1 SparkR 2.4.0
SparseM 1.77 spatial 7.3-11 Cannelures 3.4.4
sqldf 0.4-11 SQUAREM 2017.10-1 statmod 1.4.30
Statistiques 3.4.4 statistiques4 3.4.4 chaine 1.2.4
stringr 1.3.1 survie 2.42-6 tcltk 3.4.4
Démos Pédagogiques 2,10 testthat 2.0.0 tibble 1.4.2
tidyr 0.8.1 tidyselect 0.2.4 date-heure 3043.102
outils 3.4.4 utf8 1.1.4 utilitaires 3.4.4
viridisLite 0.3.0 vibrisse 0,3-2 flétrir 2.1.2
xml2 1.2.0 fermeture éclair 1.0.0

Bibliothèques Java et Scala installées (version de cluster Scala 2.11)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.8.10
com.amazonaws aws-java-sdk-autoscaling 1.11.313
com.amazonaws aws-java-sdk-cloudformation 1.11.313
com.amazonaws aws-java-sdk-cloudfront 1.11.313
com.amazonaws aws-java-sdk-cloudhsm 1.11.313
com.amazonaws aws-java-sdk-cloudsearch 1.11.313
com.amazonaws aws-java-sdk-cloudtrail 1.11.313
com.amazonaws aws-java-sdk-cloudwatch 1.11.313
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.313
com.amazonaws aws-java-sdk-codedeploy 1.11.313
com.amazonaws aws-java-sdk-cognitoidentity 1.11.313
com.amazonaws aws-java-sdk-cognitosync 1.11.313
com.amazonaws aws-java-sdk-config 1.11.313
com.amazonaws aws-java-sdk-core 1.11.313
com.amazonaws aws-java-sdk-datapipeline 1.11.313
com.amazonaws aws-java-sdk-directconnect 1.11.313
com.amazonaws aws-java-sdk-directory 1.11.313
com.amazonaws aws-java-sdk-dynamodb 1.11.313
com.amazonaws aws-java-sdk-ec2 1.11.313
com.amazonaws aws-java-sdk-ecs 1.11.313
com.amazonaws aws-java-sdk-efs 1.11.313
com.amazonaws aws-java-sdk-elasticache 1.11.313
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.11.313
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.313
com.amazonaws aws-java-sdk-elastictranscoder 1.11.313
com.amazonaws aws-java-sdk-emr 1.11.313
com.amazonaws aws-java-sdk-glacier 1.11.313
com.amazonaws aws-java-sdk-iam 1.11.313
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.11.313
com.amazonaws aws-java-sdk-kinesis 1.11.313
com.amazonaws aws-java-sdk-kms 1.11.313
com.amazonaws aws-java-sdk-lambda 1.11.313
com.amazonaws aws-java-sdk-logs 1.11.313
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.11.313
com.amazonaws aws-java-sdk-opsworks 1.11.313
com.amazonaws aws-java-sdk-rds 1.11.313
com.amazonaws aws-java-sdk-redshift 1.11.313
com.amazonaws aws-java-sdk-route53 1.11.313
com.amazonaws aws-java-sdk-s3 1.11.313
com.amazonaws aws-java-sdk-ses 1.11.313
com.amazonaws aws-java-sdk-simpledb 1.11.313
com.amazonaws aws-java-sdk-simpleworkflow 1.11.313
com.amazonaws aws-java-sdk-sns 1.11.313
com.amazonaws aws-java-sdk-sqs 1.11.313
com.amazonaws aws-java-sdk-ssm 1.11.313
com.amazonaws aws-java-sdk-storagegateway 1.11.313
com.amazonaws aws-java-sdk-sts 1.11.313
com.amazonaws Outil de support aws-java-sdk 1.11.313
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.313
com.amazonaws jmespath-java 1.11.313
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics flux 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db7-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db7-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware ombragé cryogénique 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.0.0
com.fasterxml.jackson.core jackson-annotations 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib cœur 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-autochtones 1.1
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_native-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava goyave 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.mchange c3p0 0.9.5.1
com.mchange mchange-commons-java 0.2.10
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.2.8
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf (compression utilisant l'algorithme LZF) 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lentilles_2.11 0,3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity univocity-analyseurs 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.7.0
commons-beanutils commons-beanutils-core 1.8.0
commons-cli commons-cli 1,2
commons-codec commons-codec 1,10
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
Commons-Digester Commons-Digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift compresseur d'air 0.10
io.dropwizard.metrics métriques de base 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics métriques-vérifications de santé 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics servlets de métriques 3.1.5
io.netty Netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
io.prometheus simpleclient 0.0.16
io.prometheus simpleclient_common 0.0.16
io.prometheus simpleclient_dropwizard 0.0.16
io.prometheus simpleclient_servlet 0.0.16
io.prometheus.jmx collecteur 0,7
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1,2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2,11
joda-time joda-time 2.9.3
log4j apache-log4j-suppléments 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-propriétés 1.1.5
net.razorvine pyrolite (roche pyrolitique) 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-jdbc 3.6.3
net.snowflake spark-snowflake_2.11 2.4.1
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4,7
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow format de flèche 0.10.0
org.apache.arrow mémoire-flèche 0.10.0
org.apache.arrow vecteur-flèche 0.10.0
org.apache.avro Avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0-incubating
org.apache.calcite noyau de calcite 1.2.0-incubating
org.apache.calcite calcite-linq4j 1.2.0-incubating
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3,5
org.apache.commons commons-math3 3.4.1
org.apache.curator curateur-client 2.7.1
org.apache.curator curateur-framework 2.7.1
org.apache.curator curateur-recettes 2.7.1
org.apache.derby derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core 3.1.0-incubant
org.apache.httpcomponents httpclient 4.5.4
org.apache.httpcomponents httpcore 4.4.8
org.apache.ivy lierre 2.4.0
org.apache.orc orc-core-nohive 1.5.2
org.apache.orc orc-mapreduce-nohive 1.5.2
org.apache.orc orc-shims 1.5.2
org.apache.parquet colonne de parquet 1.10.1-databricks2
org.apache.parquet parquet-common 1.10.1-databricks2
org.apache.parquet encodage parquet 1.10.1-databricks2
org.apache.parquet parquet-format 2.4.0
org.apache.parquet parquet-hadoop 1.10.1-databricks2
org.apache.parquet parquet-jackson 1.10.1-databricks2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-shaded 4.8
org.apache.zookeeper gardien de zoo 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino compilateur commun 3.0.9
org.codehaus.janino janino 3.0.9
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.20.v20170531
org.eclipse.jetty jetty-continuation 9.3.20.v20170531
org.eclipse.jetty jetty-http 9.3.20.v20170531
org.eclipse.jetty jetty-io 9.3.20.v20170531
org.eclipse.jetty jetty-jndi 9.3.20.v20170531
org.eclipse.jetty jetty-plus 9.3.20.v20170531
org.eclipse.jetty jetty-proxy 9.3.20.v20170531
org.eclipse.jetty jetty-security (sécurité de quai) 9.3.20.v20170531
org.eclipse.jetty serveur jetty 9.3.20.v20170531
org.eclipse.jetty jetty-servlet 9.3.20.v20170531
org.eclipse.jetty jetty-servlets 9.3.20.v20170531
org.eclipse.jetty jetty-util 9.3.20.v20170531
org.eclipse.jetty jetty-webapp 9.3.20.v20170531
org.eclipse.jetty jetty-xml 9.3.20.v20170531
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-goyva 2.22.2
org.glassfish.jersey.containers servlet de conteneur jersey 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core jersey-commun 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy Snappy 0.2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-all 1.9.5
org.objenesis objenèse 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.5.11
org.rocksdb rocksdbjni 5.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.8
org.scala-lang scala-library_2.11 2.11.8
org.scala-lang scala-reflect_2.11 2.11.8
org.scala-lang.modules scala-parser-combinators_2.11 1.0.2
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline (outil de ligne de commande d'Apache Hive) 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-exec 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark inutilisé 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework test de printemps 4.1.4.RELEASE
org.tukaani xz 1,5
org.typelevel machiniste_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.1
org.yaml snakeyaml 1.16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0.52