Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de changer d’annuaire.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de changer d’annuaire.
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Databricks a publié cette version en juillet 2018.
Important
Cette version a été rendue obsolète le 5 mars 2019. Pour plus d’informations sur la politique de dépréciation de Databricks Runtime et sur la planification, consultez Cycles de vie du support Databricks.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 4.2, avec Apache Spark.
Delta Lake
Databricks Runtime 4.2 ajoute des fonctionnalités et des améliorations de qualité majeures à Delta Lake. Databricks recommande fortement que tous les clients Delta Lake soient mis à niveau vers le nouveau runtime. Cette version est conservée en préversion privée, mais elle représente une version candidate en prévision de la prochaine version de disponibilité générale (GA).
Nouvelles fonctionnalités
- Les flux peuvent maintenant être directement écrits dans une table Delta enregistrée dans le metastore Hive à l’aide de
df.writeStream.table(...).
Améliorations
Toutes les commandes et requêtes Delta Lake permettent désormais de référencer une table à l’aide de son chemin d’accès en tant qu’identificateur.
delta.`<path-to-table>`Auparavant
OPTIMIZEetVACUUMnécessitaient une utilisation non standard de littéraux de chaîne (autrement dit,'<path-to-table>').DESCRIBE HISTORYcomprend désormais l’ID de validation et est classé du plus récent au plus ancien par défaut.
Résolution des bogues
- Le filtrage basé sur les prédicats de partition fonctionne désormais correctement même lorsque la casse des prédicats diffère de celle de la table.
- Correction d’une colonne
AnalysisExceptionmanquante lors de vérifications d’égalité sur des colonnes booléennes dans des tables Delta (autrement ditbooleanValue = true). -
CREATE TABLEne modifie plus le journal des transactions lors de la création d’un pointeur vers une table existante. Cela évite les conflits inutiles avec les flux simultanés et autorise la création d’un pointeur de la table de métadonnées vers des tables où l’utilisateur dispose uniquement d’un accès en lecture aux données. - L’appel de
display()sur un flux contenant de grandes quantités de données n’entraîne plus une erreur de mémoire insuffisante dans le pilote. -
AnalysisExceptionest désormais levée lorsqu’un chemin d’accès sous-jacent de Delta Lake est supprimé, au lieu de retourner des résultats vides. - Les configurations Delta Lake qui nécessitent une version de protocole spécifique (par exemple,
appendOnly) ne peuvent être appliquées qu’à des tables d’une version appropriée. - Lors de la mise à jour de l’état d’une table Delta, les lignages longs sont désormais automatiquement tronqués pour éviter un
StackOverFlowError.
Diffusion Structurée
Nouvelles fonctionnalités
- Delta Lake et Kafka prennent désormais entièrement en charge Trigger.Once. Précédemment, les limites de taux (par exemple
maxOffsetsPerTriggeroumaxFilesPerTrigger) spécifiées en tant qu’options sources ou valeurs par défaut peuvent entraîner uniquement une exécution partielle des données disponibles. Ces options sont désormais ignorées lorsqueTrigger.Onceest utilisé, ce qui permet de traiter toutes les données actuellement disponibles.
- Ajout d'un nouveau streaming
foreachBatch()dans Scala, permettant de définir une fonction pour traiter la sortie de chaque microlot à l'aide d'opérations DataFrame. Cela active les éléments suivants :- Utiliser des sources de données en lots existantes pour écrire des sorties microbatch sur des systèmes qui n’ont pas encore de source de données de diffusion continue (par exemple, utiliser le rédacteur de lot Cassandra sur chaque sortie microbatch).
- Écriture de la sortie de micro-lot dans plusieurs emplacements.
- Appliquer des opérations de DataFrame et de table sur les sorties de microbatch qui ne sont pas encore prises en charge dans les DataFrames de flux continu (par exemple, effectuer une mise à jour ou insertion de la sortie de microbatch dans une table Delta).
- Ajout de fonctions
from_avro/to_avropour lire et écrire des données Avro dans DataFrame au lieu de fichiers uniquement, commefrom_json/to_json. Pour plus d’informations, consultez Lire et écrire des données Avro n’importe où. - Ajout de la prise en charge de la diffusion en continu
foreach()dans Python (déjà disponible dans Scala). Pour plus d’informations, consultez la documentation foreach et foreachBatch.
Améliorations
- Génération plus rapide de résultats de sortie et/ou nettoyage d’état à l’aide d’opérations avec état (
mapGroupsWithState, jointure entre flux, agrégation en continu, suppression des doublons en continu) lorsqu’il n’y a aucune donnée dans le flux d’entrée.
Résolution des bogues
- Correction du bogue de précision Spark-24588 dans la jointure flux-à-flux où la jointure a rapporté moins de résultats lorsqu’il existe une répartition explicite avant celle-ci (par exemple,
df1.repartition("a", "b").join(df, "a")).
Autres changements et améliorations
- Ajout de la prise en charge de la commande SQL Deny pour les clusters prenant en charge le contrôle d’accès aux tables. Les utilisateurs peuvent désormais refuser des autorisations spécifiques de la même manière qu’auparavant. Une autorisation refusée remplace celle qui a été accordée. Les administrateurs et les propriétaires d’un objet particulier sont toujours autorisés à effectuer des actions.
- Nouvelle source de données Azure Data Lake Storage qui utilise le pilote ABFS. Voir Connexion à Azure Data Lake Storage et Blob Storage
- Mise à niveau de certaines bibliothèques Python installées :
- pip : de 10.0.0b2 à 10.0.1
- setuptools : de 39.0.1 à 39.2.0
- tornado : de 5.0.1 à 5.0.2
- wheel : 0.31.0 à 0.31.1
- Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.
- Prise en charge améliorée de Parquet
- Mise à niveau d’Apache ORC de 1.4.1 vers 1.4.3
Apache Spark
Databricks Runtime 4.2 comprend Apache Spark 2.3.1. Cette version contient tous les améliorations et correctifs inclus dans Databricks Runtime 4.1 (EoS), ainsi que les améliorations et correctifs de bogues supplémentaires suivants apportés à Spark :
- [SPARK-24588][SS] La jointure en continu devrait exiger le HashClusteredPartitioning des enfants
-
[SPARK-23931][SQL] Créer
arrays_zipdans function.scala@scala.annotation.varargs. - [SPARK-24633][SQL] Corriger codegen lorsque le fractionnement est requis pour arrays_zip
- [SPARK-24578][CORE] Limiter la taille de la sous-région du tampon nio retourné
- [SPARK-24613][SQL] Le cache avec UDF n’a pas pu être mis en correspondance avec les caches dépendants suivants
- [SPARK-24583][SQL] Type de schéma incorrect dans InsertIntoDataSourceCommand
- [SPARK-24565][SS] Ajouter une API pour dans un flux structuré pour l’exposition de lignes de sortie de chaque microlot en tant que DataFrame
- [SPARK-24396][SS][PYSPARK] Ajouter le ForeachWriter de streaming structuré pour Python
- [SPARK-24216][SQL] Spark TypedAggregateExpression utilise getSimpleName, qui n’est pas sécurisé dans Scala
- [SPARK-24452][SQL][CORE] Évite tout dépassement possible dans int add ou multiple
- [SPARK-24187][R][SQL] Ajouter la fonction array_join à SparkR
- [SPARK-24525][SS] Fournir une option permettant de limiter le nombre de lignes dans un MemorySink
- [SPARK-24331][SPARKR][SQL] Ajout d’arrays_overlap, array_repeat, map_entries à SparkR
- [SPARK-23931][SQL] Ajouter la fonction arrays_zip à Spark SQL
- [SPARK-24186][R][SQL] Classer inverse et concat en tant que fonctions de collection dans R
- [SPARK-24198][SPARKR][SQL] Ajout d’une fonction de tranche à SparkR
- [SPARK-23920][SQL] Ajout de la fonction array_remove pour supprimer tous les éléments qui correspondent à un élément du tableau
- [SPARK-24197][SPARKR][SQL] Ajout d’une fonction array_sort à SparkR
- [SPARK-24340][CORE] Nettoyer les fichiers du gestionnaire de blocs de disque non-associés au mélange après les sorties de l'exécuteur sur un cluster autonome
- [SPARK-23935][SQL] Ajout d’une fonction map_entries
- [SPARK-24500][SQL] Garantir que les flux sont matérialisés lors des transformations d'arbres.
- [SPARK-24495][SQL] EnsureRequirement retourne un plan incorrect lors de la réorganisation des clés égales
- [SPARK-24506][UI] Ajouter des filtres de l’interface utilisateur aux onglets ajoutés après la liaison
- [SPARK-24468][SQL] Gérer l’échelle négative lors de l’ajustement de la précision pour les opérations décimales
- [SPARK-24313][SQL] Correction de l’évaluation interprétée des opérations de collection pour les types complexes
- [SPARK-23922][SQL] Ajouter une fonction arrays_overlap
- [SPARK-24369][SQL] Gestion correcte pour plusieurs agrégations distinctes avec le même ensemble d’arguments
- [SPARK-24455][CORE] Correction des fautes de frappe dans le commentaire TaskSchedulerImpl
- [SPARK-24397][PYSPARK] Ajout de TaskContext.getLocalProperty(key) dans Python
- [SPARK-24117][SQL] Unification de getSizePerRow
- [SPARK-24156][SS] Correction de l’erreur lors de la récupération à partir d'un échec dans un lot sans données
- [SPARK-24414][UI] Calcule le nombre correct de tâches pour une étape.
- [SPARK-23754][Python] Re-déclencher StopIteration dans le code client
- [SPARK-23991][DSTREAMS] Corriger la perte de données lorsque l’écriture WAL échoue dans allocateBlocksToBatch
- [SPARK-24373][SQL] Ajouter AnalysisBarrier à l’enfant de RelationalGroupedDataset et KeyValueGroupedDataset
- [SPARK-24392][PYTHON] Marquer pandas_udf comme expérimental
- [SPARK-24334] Une condition de concurrence dans ArrowPythonRunner provoque l'arrêt brutal de l'allocateur de mémoire Arrow
- [SPARK-19112][CORE] Ajouter des shortCompressionCodecNames manquants à la configuration.
- [SPARK-24244][SPARK-24368][SQL] transmission uniquement des colonnes requises à l’analyseur CSV
- [SPARK-24366][SQL] Amélioration des messages d’erreur pour la conversion de type
- [SPARK-24371][SQL] Ajout de isInCollection dans l'API DataFrame pour Scala.
- [SPARK-23925][SQL] Ajouter une fonction de collection array_repeat
- [MINOR] Ajouter une configuration de port SSL dans toString et scaladoc
- [SPARK-24378][SQL] Correction des exemples incorrects de la fonction date_trunc
- [SPARK-24364][SS] Empêcher InMemoryFileIndex d’échouer si le chemin d’accès au fichier n’existe pas
- [SPARK-24257][SQL] LongToUnsafeRowMap calculer la nouvelle taille peut être incorrecte
- [SPARK-24348][SQL] element_at”, correction d’erreur
- [SPARK-23930][SQL] ajouter une fonction de tranche
- [SPARK-23416][SS] ajoutez une méthode d’arrêt spécifique pour ContinuousExecution.
- [SPARK-23852][SQL] mettre à niveau vers Parquet 1.8.3
- [SPARK-24350][SQL] corrige ClassCastException dans la fonction « array_position »
- [SPARK-24321][SQL] Extraction du code commun des opérations de division et de reste vers un trait de base
- [SPARK-24309][CORE] AsyncEventQueue doit s’arrêter en cas d’interruption.
- [SPARK-23850][SQL] Ajouter une configuration distincte pour les options de rédaction SQL.
- [SPARK-22371][CORE] retourne None au lieu de lever une exception lorsqu’un accumulateur est collecté par le ramasse-miettes.
- [SPARK-24002][SQL] tâche non sérialisable due à org.apache.parquet.io.api.Binary$ByteBufferBackedBinary.getBytes
- [SPARK-23921][SQL] Ajouter une fonction array_sort
- [SPARK-23923][SQL] ajouter une fonction de cardinalité
- [SPARK-24159][SS] activer les microlots sans données pour le streaming mapGroupswithState
- [SPARK-24158][SS] Activer des lots sans données pour les jointures en flux continu
- [SPARK-24157][SS] L'activation des lots sans données a été permise dans MicroBatchExecution pour l'agrégation et la déduplication en flux continu.
- [SPARK-23799][SQL] FilterEstimation.evaluateInSet génère des statistiques erronées pour la chaîne de caractères
- [SPARK-17916] [SQL] Correction du problème où une chaîne vide est analysée comme nul lorsque nullValue est défini.
- [SPARK-23916][SQL] Ajouter une fonction array_join
- [SPARK-23408][SS] Synchroniser les actions AddData successives dans Streaming*JoinSuite
- [SPARK-23780][R] échec de l’utilisation de la bibliothèque googleVis avec la nouvelle SparkR
- [SPARK-23821][SQL] fonction de collection : aplatissement
- [SPARK-23627][SQL] fournir isEmpty dans le jeu de données
- [SPARK-24027][SQL] Supporte MapType avec StringType pour les clés en tant que type racine par from_json
- [SPARK-24035][SQL] syntaxe SQL pour le pivot - correction de l'avertissement antlr
- [SPARK-23736][SQL] extension de la fonction concat pour prendre en charge les colonnes de tableau
- [SPARK-24246][SQL] Améliorer AnalysisException en définissant la cause lorsqu’elle est disponible
- [SPARK-24263][R] Problème de vérification Java de SparkR avec OpenJDK
- [SPARK-24262][Python] Correction des fautes de frappe dans le message d’erreur de correspondance de type UDF
- [SPARK-24067][STREAMING][KAFKA] Autoriser les décalages non consécutifs
- [SPARK-10878][CORE] Corriger la condition de concurrence lorsque plusieurs clients résolvent des artefacts en même temps
- [SPARK-19181][CORE] Correction de la « métrique SparkListenerSuite.local »
- [SPARK-24068] Propagation des options de DataFrameReader vers la source de données Texte lors de l’inférence du schéma
- [SPARK-24214][SS] Correction de toJSON pour StreamingRelationV2/StreamingExecutionRelation/ContinuousExecutionRelation
- [SPARK-23919][SPARK-23924][SPARK-24054][SQL] ajouter une fonction array_position/element_at
- [SPARK-23926][SQL] extension de la fonction inversée pour prendre en charge les arguments ArrayType
- [SPARK-23809][SQL] La session SparkSession active doit être définie par getOrCreate
- [SPARK-23094][SPARK-23723][SPARK-23724][SQL] prendre en charge l’encodage personnalisé pour les fichiers json
- [SPARK-24035][SQL] syntaxe SQL pour Pivot
- [SPARK-24069][R] Ajouter des fonctions de array_min/array_max
- [SPARK-23976][CORE] détecter un dépassement de longueur dans UTF8String.concat()/ByteArray.concat()
- [SPARK-24188][CORE] restaurer le point de terminaison de l’API « /version ».
- [SPARK-24128][SQL] Mention de l’option de configuration dans l’erreur CROSS JOIN implicite
- [SPARK-23291][SQL][R] La fonction 'substr' de R ne doit pas réduire la position de départ de 1 lorsqu'on appelle l'API Scala.
- [SPARK-23697][CORE] LegacyAccumulatorWrapper doit définir isZero correctement
- [SPARK-24168][SQL] WindowExec ne doit pas accéder à SQLConf côté exécuteur
- [SPARK-24143] filtrer les blocs vides lors de la conversion de mapstatus en paire (blockId, taille)
- [SPARK-23917][SPARK-23918][SQL] ajouter une fonction array_max/array_min
- [SPARK-23905][SQL] ajouter un jour de la semaine UDF
- [SPARK-16406][SQL] améliorer les performances de LogicalPlan.resolve
- [SPARK-24013][SQL] supprimer la compression inutile dans ApproximatePercentile
- [SPARK-23433][CORE] Les achèvements tardifs des tâches zombie mettent à jour tous les ensembles de tâches
- [SPARK-24169][SQL] JsonToStructs ne doit pas accéder à SQLConf côté exécuteur
- [SPARK-24133][SQL] rétroporter [SPARK-24133]vérifier les débordements d’entiers lors du redimensionnement de WritableColumnVectors
- [SPARK-24166][SQL] InMemoryTableScanExec ne doit pas accéder à SQLConf côté exécuteur
- [SPARK-24133][SQL] vérifier les débordements d’entiers lors du redimensionnement de WritableColumnVectors
- [SPARK-24085][SQL] la requête retourne UnsupportedOperationException quand une sous-requête scalaire est présente dans l’expression de partitionnement
- [SPARK-24062][THRIFT SERVER] Résoudre le problème de non-activation du chiffrement SASL sur le serveur Thrift
- [SPARK-23004][SS] Assurez-vous que StateStore.commit n’est appelé qu’une seule fois dans une tâche d’agrégation de streaming
- [SPARK-23188][SQL] Rendre la taille du lot du lecteur colonnaire vectoriel configurable
- [SPARK-23375][SPARK-23973][SQL] éliminer le tri inutile dans l’optimiseur
- [SPARK-23877][SQL] utiliser des prédicats de filtre pour nettoyer les partitions dans les requêtes de métadonnées uniquement
- [SPARK-24033][SQL] correction de l’incompatibilité du cadre de fenêtre specifiedwindowframe(RowFrame, -1, -1)
- [SPARK-23340][SQL] mettre à niveau Apache ORC vers 1.4.3
- Corriger un problème de vérification de la valeur null manquante qui peut être déclenchée plus facilement par la génération de code d'expression rationalisée, et exposé par SPARK-23986, car cela a rendu le code source généré un peu plus long et a déclenché le chemin de code problématique (fractionnement du code par Expression.reduceCodeSize()).
- [SPARK-23989][SQL] L'échange doit copier les données avant un brouillage non sérialisé.
- [SPARK-24021][CORE] correction du bug dans la fonction updateBlacklistForFetchFailure du BlacklistTracker
- [SPARK-24014][PYSPARK] ajouter la méthode onStreamingStarted à StreamingListener
- [SPARK-23963][SQL] Gère correctement un grand nombre de colonnes dans une requête sur une table Hive textuelle
- [SPARK-23948] Déclencher l’écouteur de travail de mapstage dans submitMissingTasks
- [SPARK-23986][SQL] freshName peut générer des noms non uniques
- [SPARK-23835][SQL] Ajouter une vérification non null aux arguments de désérialisation de Tuples
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 4.2.
Environnement du système
- Système d’exploitation : Ubuntu 16.04.4 LTS
- Java : 1.8.0_162
- Scala : 2.11.8
- Python : 2.7.12 pour les clusters Python 2 et 3.5.2 pour les clusters Python 3.
- R : R version 3.4.4 (2018-03-15)
-
Clusters GPU : Les bibliothèques GPU NVIDIA suivantes sont installées :
- Pilote Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| chiffrement | 1,5 | cycliste | 0.10.0 | Cython | 0.24.1 |
| décorateur | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | contrats à terme | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0.999 | idna | 2.1 | adresse IP | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
| mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | dupe | 0.4.1 |
| pexpect | 4.0.1 | pickleshare | 0.7.4 | Oreiller | 3.3.1 |
| pépin | 10.0.1 | Plis | 3.9 | prompt-toolkit | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil | 2.5.3 | Python-geohash | 0.8.5 | pytz | 1.6.2016 |
| requêtes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (bibliothèque Python pour le calcul scientifique) | 0.18.1 | récurer | 0.32 | seaborn | 0.7.1 |
| setuptools | 39.2.0 | simplejson | 3.8.2 | simples3 | 1,0 |
| répartition unique | 3.4.0.3 | Six | 1.10.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.6.1 |
| tornade | 5.0.2 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | wcwidth | 0.1.7 | roue | 0.31.1 |
| wsgiref | 0.1.2 |
Bibliothèques R installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| abind | 1.4-5 | assertthat | 0.2.0 | rétroportage | 1.1.2 |
| base | 3.4.4 | BH | 1.66.0-1 | bindr (application de gestion de fichiers) | 0.1.1 |
| bindrcpp | 0.2.2 | morceau | 1.1-12 | bit 64 | 0.9-7 |
| bitops | 1.0-6 | BLOB | 1.1.1 | botte | 1,3-20 |
| brasser | 1.0-6 | balai | 0.4.4 | voiture | 3.0-0 |
| données de voiture | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
| Chron | 2.3-52 | classe | 7.3-14 | Cli | 1.0.0 |
| Grappe | 2.0.7-1 | codetools | 0.2-15 | espace colorimétrique | 1.3-2 |
| commonmark | 1.4 | compilateur | 3.4.4 | crayon de couleur | 1.3.4 |
| friser | 3.2 | Thrombose Veineuse du Sinus Cérébral (CVST) | 0.2-1 | data.table | 1.10.4-3 |
| jeux de données | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
| DEoptimR | 1,0-8 | Desc | 1.1.1 | devtools | 1.13.5 |
| dichromatisme | 2.0-0 | digérer | 0.6.15 | dimRed | 0.1.0 |
| doMC | 1.3.5 | dplyr | 0.7.4 | Réduction des Risques de Catastrophe (DRR) | 0.0.3 |
| condamnés | 0.3.0 | foreach | 1.4.4 | étranger | 0.8-70 |
| Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
| glmnet | 2.0-16 | colle | 1.2.0 | Gower | 0.1.2 |
| graphisme | 3.4.4 | grDevices | 3.4.4 | grille | 3.4.4 |
| gsubfn | 0,7 | gtable | 0.2.0 | H₂O | 3.16.0.2 |
| havre | 1.1.1 | hms | 0.4.2 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| itérateurs | 1.0.9 | jsonlite | 1,5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | étiquetage | 0,3 | treillis | 0.20-35 |
| lave | 1.6.1 | lazyeval | 0.2.1 | plus petit | 0.3.3 |
| lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1,5 |
| mapproj | 1.2.6 | cartes | 3.3.0 | maptools | 0.9-2 |
| MASSE | 7.3-50 | Matrice | 1.2-14 | MatrixModels | 0.4-1 |
| mémorisation | 1.1.0 | méthodes | 3.4.4 | mgcv | 1.8-24 |
| mime | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
| ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
| nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
| parallèle | 3.4.4 | pbkrtest | 0.4-7 | pilier | 1.2.1 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
| plyr (un package logiciel pour le traitement de données) | 1.8.4 | éloge | 1.0.0 | joliesunits | 1.0.2 |
| pROC | 1.11.0 | prodlim | 1.6.1 | proto | 1.0.0 |
| Psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
| R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
| R6 | 2.2.2 | randomForest (algorithme d'apprentissage automatique) | 4.6-14 | RColorBrewer | 1.1-2 |
| Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
| RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
| recettes | 0.1.2 | match retour | 1.0.1 | reshape2 | 1.4.3 |
| rivière | 0.5.10 | rlang | 0.2.0 | robustebase | 0.92-8 |
| RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
| rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
| rstudioapi | 0,7 | écailles | 0.5.0 | sfsmisc | 1.1-2 |
| sp | 1.2-7 | SparkR | 2.3.1 | SparseM | 1.77 |
| spatial | 7.3-11 | Cannelures | 3.4.4 | sqldf | 0.4-11 |
| SQUAREM | 2017.10-1 | statmod | 1.4.30 | Statistiques | 3.4.4 |
| statistiques4 | 3.4.4 | chaine | 1.1.7 | stringr | 1.3.0 |
| survie | 2.42-3 | tcltk | 3.4.4 | Démos Pédagogiques | 2,10 |
| testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
| tidyselect | 0.2.4 | date-heure | 3043.102 | outils | 3.4.4 |
| utf8 | 1.1.3 | utilitaires | 3.4.4 | viridisLite | 0.3.0 |
| vibrisse | 0,3-2 | flétrir | 2.1.2 | xml2 | 1.2.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.11)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.7.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.11.313 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts | 1.11.313 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | flux | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | kryo-shaded | 3.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.0.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | univocity-analyseurs | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Digester | Commons-Digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 2,2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | compresseur d'air | 0,8 |
| io.dropwizard.metrics | métriques de base | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | métriques-vérifications de santé | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | servlets de métriques | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | collecteur | 0,7 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1,2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-suppléments | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-propriétés | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | jets3t | 0.9.4 |
| net.razorvine | pyrolite (roche pyrolitique) | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-jdbc | 3.6.3 |
| net.snowflake | spark-snowflake_2.11 | 2.3.2 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4,7 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 0.8.0 |
| org.apache.arrow | mémoire-flèche | 0.8.0 |
| org.apache.arrow | vecteur-flèche | 0.8.0 |
| org.apache.avro | Avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | avro-ipc-tests | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcite-avatica | 1.2.0-incubating |
| org.apache.calcite | noyau de calcite | 1.2.0-incubating |
| org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3,5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | curateur-client | 2.7.1 |
| org.apache.curator | curateur-framework | 2.7.1 |
| org.apache.curator | curateur-recettes | 2.7.1 |
| org.apache.derby | derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop annotations | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-client | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | hadoop-hdfs | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0-incubant |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | lierre | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.3 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
| org.apache.parquet | colonne de parquet | 1.8.3-databricks2 |
| org.apache.parquet | parquet-common | 1.8.3-databricks2 |
| org.apache.parquet | encodage parquet | 1.8.3-databricks2 |
| org.apache.parquet | parquet-format | 2.3.1 |
| org.apache.parquet | parquet-hadoop | 1.8.3-databricks2 |
| org.apache.parquet | parquet-jackson | 1.8.3-databricks2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-shaded | 4.4 |
| org.apache.zookeeper | gardien de zoo | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1,58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.8 |
| org.codehaus.janino | janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.3.20.v20170531 |
| org.eclipse.jetty | serveur jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-goyva | 2.22.2 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | jersey-commun | 2.22.2 |
| org.glassfish.jersey.core | jersey-server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validator | 5.1.1.Final |
| org.iq80.snappy | Snappy | 0.2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenèse | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
| org.spark-project.spark | inutilisé | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test de printemps | 4.1.4.RELEASE |
| org.tukaani | xz | 1,0 |
| org.typelevel | machiniste_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |