Remarque
L’accès à cette page requiert une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page requiert une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
Cette version databricks Runtime a atteint la fin de vie et n’est plus disponible. Pour connaître les dates de fin de vie, consultez l’historique de fin de support et de fin de vie. Pour plus d’informations sur la stratégie et le calendrier de prise en charge de Databricks Runtime, consultez les cycles de vie de la prise en charge de Databricks.
Databricks a publié cette version en mai 2018.
Important
Cette version est devenue obsolète le 17 janvier 2019. Pour plus d’informations sur la politique d'obsolescence de Databricks Runtime et son calendrier, consultez Cycles de vie du support Databricks.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 4.1 avec Apache Spark.
Delta Lake
Databricks Runtime version 4.1 ajoute des fonctionnalités et des améliorations de qualité majeures à Delta Lake. Databricks recommande fortement que tous les clients Delta Lake soient mis à niveau vers le nouveau runtime. Cette version est conservée en préversion privée, mais elle représente une version candidate en prévision de la prochaine version de disponibilité générale (GA).
Delta Lake est également disponible en préversion privée pour les utilisateurs d’Azure Databricks. Contactez votre responsable de compte ou inscrivez-vous via https://databricks.com/product/databricks-delta.
Changements cassants
Databricks Runtime 4.1 comprend des modifications apportées au protocole de transaction pour activer de nouvelles fonctionnalités, telles que la validation. Les tables créées avec Databricks Runtime 4.1 utilisent automatiquement la nouvelle version et ne peuvent pas être écrites dans des versions antérieures de Databricks Runtime. Vous devez mettre à niveau les tables existantes afin de tirer parti de ces améliorations. Pour mettre à niveau une table existante, commencez par mettre à niveau tous les processus qui écrivent dans la table. Ensuite, exécutez :
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")Pour plus d’informations, consultez la compatibilité et les protocoles des fonctionnalités Delta Lake .
Les écritures sont désormais validées par rapport au schéma actuel de la table au lieu d’ajouter automatiquement des colonnes manquantes dans la table de destination. Pour activer le comportement précédent, affectez l’option
mergeSchemaàtrue.Si vous exécutez des versions antérieures de Databricks Delta, vous devez mettre à niveau tous les travaux avant d’utiliser Databricks Runtime 4.1. Si vous voyez l’une de ces erreurs, effectuez la mise à niveau vers Databricks Runtime 4.1 :
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchErrorLes tables ne peuvent plus avoir de colonnes qui diffèrent uniquement par la casse.
Les configurations de table spécifiques à Delta doivent maintenant être précédées de
delta.
Nouvelles fonctionnalités
Gestion des schémas : Databricks Delta valide désormais les ajouts et les remplacements dans une table existante pour s’assurer que le schéma en cours d’écriture correspond au schéma.
- Databricks Delta continue à prendre en charge l’évolution de schéma automatique.
- Databricks Delta prend désormais en charge la DDL suivante pour modifier le schéma explicitement :
-
ALTER TABLE ADD COLUMNpour ajouter de nouvelles colonnes à une table -
ALTER TABLE CHANGE COLUMNSpour modifier l’ordre des colonnes ALTER TABLE [SET|UNSET] TBLPROPERTIES
-
Pour plus d’informations, consultez Contrôle du schéma.
Prise en charge améliorée des DDL et des tables
- Prise en charge complète des DDL (langage de définition de données) de table et
saveAsTable().save()etsaveAsTable()ont maintenant une sémantique identique. - Toutes les commandes DDL et DML prennent en charge les noms de table et
delta.`<path-to-table>`. SHOW PARTITIONSSHOW COLUMNSDESC TABLE- Informations détaillées sur le tableau : vous pouvez consulter les versions actuelles des lecteurs et des personnes en écriture d’une table en exécutant
DESCRIBE DETAIL. Consultez les protocoles et la compatibilité des fonctionnalités Delta Lake. - Détails de la table : les informations de provenance sont désormais disponibles pour chaque écriture dans une table. La barre latérale des données affiche également des informations détaillées sur le tableau et l’historique des tables Databricks Delta. Consultez les détails du tableau de révision avec la commande describe detail.
- Tables de flux : les DataFrames en streaming peuvent être créés à l’aide de
spark.readStream.format("delta").table("<table-name>"). - Tables d’ajout uniquement : Databricks Delta prend désormais en charge la gouvernance des données de base. Vous pouvez bloquer les suppressions et les modifications apportées à une table en définissant la propriété de table
delta.appendOnly=true. -
MERGE INTOsource : améliore de manière plus complète la prise en charge de la spécification de requête source deMERGE. Par exemple, vous pouvez spécifierLIMIT,ORDER BYetINLINE TABLEdans la source. - Prise en charge complète des ACL de table.
- Prise en charge complète des DDL (langage de définition de données) de table et
Optimisation des performances
- Réduction de la charge de collecte des statistiques : l’efficacité de la collection de statistiques a été améliorée et les statistiques sont à présent uniquement collectées pour un nombre configurable de colonnes, défini sur 32 par défaut. Les performances d’écriture Databricks Delta ont été améliorées jusqu’à 2x en raison de la réduction de la charge de collecte des statistiques. Pour configurer le nombre de colonnes, définissez la propriété de table
delta.dataSkippingNumIndexedCols=<number-of-columns>. - Prise en charge de la limite pushdown : les statistiques permettent de limiter le nombre de fichiers analysés pour les requêtes qui ont
LIMITet des prédicats sur des colonnes de partition. Cela s’applique aux requêtes dans les blocs-notes en raison de l'effet implicite delimit=1000en vigueur pour toutes les commandes de bloc-notes. - Le « filter pushdown » dans les sources de diffusion en continu - Les requêtes de diffusion en continu utilisent désormais le partitionnement au démarrage d’un nouveau flux afin de sauter les données non pertinentes.
- Le parallélisme amélioré pour
OPTIMIZE-OPTIMIZEs’exécute maintenant en tant que tâche Spark unique et utilise tout le parallélisme disponible sur le cluster (auparavant limité à 100 fichiers compactés à la fois). - L'ignoration de données dans DML -
UPDATE,DELETEetMERGEutilisent maintenant les statistiques pour localiser les fichiers qui doivent être réécrits. - Rétention de point de contrôle réduite : les points de contrôle sont maintenant conservés pendant deux jours (l’historique est toujours conservé pendant 30) pour réduire les coûts de stockage du journal des transactions.
Le comportement de l'API
- Le comportement de
insertInto(<table-name>)dans Databricks Delta est le même que pour les autres sources de données.- Si aucun mode n’est spécifié ou
mode,ErrorIfExists,IgnoreouAppend, les données du DataFrame sont ajoutées à la table Databricks Delta. - Si
modeestOverwrite, cela supprime toutes les données de la table existante et insère les données de DataFrame dans la table Databricks Delta.
- Si aucun mode n’est spécifié ou
- En cas de mise en cache, la table de destination de
MERGEdoit être retirée manuellement du cache.
Améliorations de la convivialité
- Validations de la migration de la charge de travail : les erreurs courantes lors de la migration des charges de travail vers Databricks Delta provoquent désormais une exception au lieu d’échouer :
- Utilisation de
format("parquet")pour lire ou écrire une table. - Lecture ou écriture directe dans une partition (autrement dit,
/path/to/delta/part=1). - Nettoyage des sous-répertoires d’une table.
-
INSERT OVERWRITE DIRECTORYutilisation de Parquet sur une table.
- Utilisation de
- La configuration insensible à la casse - les options du lecteur/écrivain de DataFrame et les propriétés de table sont désormais insensibles à la casse (y compris le chemin de lecture et le chemin d'écriture).
- Noms de colonne : les noms de colonnes de table peuvent désormais inclure des points.
Problèmes connus
- Les insertions des instructions multi-insertions se trouvent dans des unités de travail différentes, et non pas dans la même transaction.
Résolution des bogues
- Une boucle infinie lors du démarrage d’un nouveau flux sur une table de mise à jour rapide a été résolue.
Dépréciations
Le flux structuré ne traite pas les entrées qui ne sont pas des ajouts et lève une exception si des modifications sont apportées à la table utilisée comme source. Auparavant, vous pouviez remplacer ce comportement à l’aide de l’indicateur ignoreFileDeletion, mais ceci est maintenant déconseillé. Utilisez plutôt ignoreDeletes ou ignoreChanges. Voir Gérer les modifications apportées aux tables Delta de source.
Autres changements et améliorations
- La surveillance des requêtes est activée pour tous les clusters à usage général créés à l’aide de l’interface utilisateur.
- Amélioration des performances côté pilote pour le cache DBIO
- Amélioration des performances pour le décodage Parquet via un nouveau décodeur Parquet natif
- Amélioration des performances pour l’élimination des sous-expressions communes
- Amélioration des performances pour ignorer des données pour la table de grande taille joignant les petites tables (jointures de table de dimension de faits)
-
display()affiche les colonnes contenant des types de données image en tant que HTML enrichi. - Améliorations apportées à Journaliser, charger et enregistrer des modèles MLflow
- Mise à niveau de dbml-local vers la dernière version 0.4.1
- Correction du bogue avec les modèles exportés avec le paramètre
thresholdspécifié - Ajout de la prise en charge pour l’exportation de
OneVsRestModel,GBTClassificationModel
- Mise à niveau de certaines bibliothèques Python installées :
- pip : de la version 9.0.1 à la version 10.0.0b2
- setuptools : de 38.5.1 à 39.0.1
- tornado : de 4.5.3 à 5.0.1
- wheel : 0.30.0 à 0.31.0
- Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.
- Mise à niveau d’Azure Data Lake Store SDK de la version 2.0.11 vers la version 2.2.8.
- Mise à niveau de CUDA vers 9.0 à partir de 8.0 et CUDNN vers 7.0 de 6.0 pour les clusters GPU.
Apache Spark
Databricks Runtime 4.1 comprend Apache Spark 2.3.0. Cette version inclut tous les correctifs et améliorations inclus dans Databricks Runtime 4.0 (EoL), ainsi que les correctifs et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-24007][SQL] EqualNullSafe pour FloatType et DoubleType peut générer un résultat erroné par codegen.
- [SPARK-23942][PYTHON][SQL] Fait en sorte que la collecte dans PySpark soit une action pour un écouteur d’exécution de requête
- [SPARK-23815][CORE] Le mode de remplacement de la partition dynamique de l’éditeur Spark peut ne pas réussir à écrire la sortie sur une partition à plusieurs niveaux
- [SPARK-23748][SS] Correction du problème de processus continu SS qui ne prend pas en charge l'alias de sous-requête.
- [SPARK-23963][SQL] Gère correctement un grand nombre de colonnes dans une requête sur une table Hive textuelle
- [SPARK-23867][SCHEDULER] Utiliser droppedCount dans logWarning
- [SPARK-23816][CORE] Les tâches supprimées doivent ignorer FetchFailures.
- [SPARK-23809][SQL] La session SparkSession active doit être définie par getOrCreate
- [SPARK-23966][SS] Refactorisation de toutes les logiques d’écriture de fichier de point de contrôle dans une interface CheckpointFileManager commune
- [SPARK-21351][SQL] Mettre à jour la nullité en fonction des sorties des enfants
- [SPARK-23847][PYTHON][SQL] Ajouter des asc_nulls_first, asc_nulls_last à PySpark
- [SPARK-23822][SQL] Amélioration du message d’erreur pour les incompatibilités de schéma Parquet
- [SPARK-23823][SQL] Conservation de l’origine dans transformExpression
- [SPARK-23838][WEBUI] La requête SQL en cours d’exécution est affichée comme « terminée » sous l’onglet SQL
- [SPARK-23802][SQL] PropagateEmptyRelation peut laisser un plan de requête dans un état non résolu
- [SPARK-23727][SQL] Prise en charge des filtres push pour DateType dans parquet
- [SPARK-23574][SQL] Indiquer SinglePartition dans DataSourceV2ScanExec lorsqu’il y a exactement 1 usine de lecteurs de données.
- [SPARK-23533][SS] Ajouter le support pour modifier le startOffset de ContinuousDataReader
- [SPARK-23491][SS] Supprimer l’annulation de tâche explicite de la reconfiguration de ContinuousExecution
- [SPARK-23040][CORE] Renvoie un itérateur interruptible pour le lecteur de répartition
- [SPARK-23827][SS] StreamingJoinExec doit vérifier que les données d’entrée sont partitionnées en un nombre spécifique de partitions
- [SPARK-23639][SQL] Obtention du jeton avant l’initialisation du client de metastore dans SparkSQL CLI
- [SPARK-23806]Broadcast.unpersist peut provoquer une exception fatale lorsqu'il est utilisé ...
- [SPARK-23599][SQL] Utilisation de RandomUUIDGenerator dans l’expression Uuid
- [SPARK-23599][SQL] Ajout d’un générateur UUID à partir de nombres pseudo-aléatoires
- [SPARK-23759][UI] Impossible de lier l’interface utilisateur de Spark au nom d’hôte/à l’adresse IP spécifique
- [SPARK-23769][CORE] Suppression des commentaires qui désactivent inutilement la vérification Scalastyle
- [SPARK-23614][SQL] Correction d’un échange de réutilisation incorrect quand la mise en cache est utilisée
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs doit enregistrer/restaurer correctement l’état CSE
- [SPARK-23729][CORE] Respect du fragment d’URI lors de la résolution des modèles Glob
- [SPARK-23550][CORE] utilitaires de nettoyage
- [SPARK-23288][SS] Correction des métriques de sortie avec le récepteur Parquet
- [SPARK-23264][SQL] Correction de scala.MatchError dans literals.sql.out
- [SPARK-23649][SQL] Évitement des caractères non autorisés dans UTF-8
- [SPARK-23691][PYTHON] Utilisation de l’utilitaire sql_conf dans les tests PySpark si possible
- [SPARK-23644][CORE][UI] Utilisation d’un chemin absolu pour l’appel REST dans SHS
- [SPARK-23706][PYTHON] spark.conf.get(value, valeur par défaut=None) doit produire None dans PySpark
- [SPARK-23623][SS] L’utilisation simultanée de consommateurs mis en cache doit être évitée dans CachedKafkaConsumer
- [SPARK-23670][SQL] Correction de la fuite de mémoire sur SparkPlanGraphWrapper
- [SPARK-23608][CORE][WEBUI] Ajout de la synchronisation dans SHS entre les fonctions attachSparkUI et detachSparkUI afin d’éviter le problème de modification simultanée pour les gestionnaires Jetty
- [SPARK-23671][CORE] Correction de la condition pour activer le pool de threads SHS.
- [SPARK-23658][LAUNCHER] InProcessAppHandle utilise la classe incorrecte dans getLogger
- [SPARK-23642][DOCS] Correction de scaladoc pour la sous-classe AccumulatorV2 isZero
- [SPARK-22915][MLLIB] Tests de streaming pour spark.ml.feature, de N à Z
- [SPARK-23598][SQL] Les méthodes dans BufferedRowIterator doivent être rendues publiques afin d’éviter l’erreur d’exécution pour une requête de grande taille
- [SPARK-23546][SQL] Refactorisation des méthodes/valeurs sans état dans CodegenContext
- [SPARK-23523][SQL] Correctif du résultat incorrect provoqué par la règle OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] Amélioration du message d’erreur de champ manquant dans StructType
- [SPARK-23624][SQL] Révision du document de la méthode pushFilters dans Datasource V2
- [SPARK-23173][SQL] Éviter de créer des fichiers Parquet corrompus lors du chargement des données à partir de JSON
- [SPARK-23436][SQL] Déduire la partition en tant que Date uniquement si elle peut être convertie en Date
- [SPARK-23406][SS] Activer les auto-jointures entre flux de données.
- [SPARK-23490][SQL] Vérification de storage.locationUri avec une table existante dans CreateTable
- [SPARK-23524]Il est inutile de vérifier si les blocs de lecture aléatoire locaux volumineux sont endommagés.
- [SPARK-23525][SQL] Prise en charge de ALTER TABLE CHANGE COLUMN COMMENT pour la table externe hive
- [SPARK-23434][SQL] Spark ne doit pas avertir le répertoire de métadonnées d’un chemin de fichier HDFS
- [SPARK-23457][SQL] Enregistrer d'abord les écouteurs d'achèvement des tâches dans ParquetFileFormat
- [SPARK-23329][SQL] Correction de la documentation des fonctions trigonométriques
- [SPARK-23569][PYTHON] Autorisation de l’utilisation de pandas_udf avec des fonctions annotées par le type de style python3
- [SPARK-23570][SQL] Ajout de Spark 2.3.0 dans HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Faire en sorte que pyspark.util._exception_message produise la trace du côté de Java via Py4JJavaError
- [SPARK-23508][CORE] Corriger BlockmanagerId dans le cas où blockManagerIdCache provoque une saturation de la mémoire.
- [SPARK-23448][SQL] Clarifier le comportement de l’analyseur JSON et CSV dans le document
- [SPARK-23365][CORE] Ne pas ajuster le nombre d'exécuteurs lors de la suppression des exécuteurs inactifs.
- [SPARK-23438][DSTREAMS] Corriger la perte de données DSTREAMS avec WAL en cas de panne du pilote
- [SPARK-23475][UI] Afficher également les étapes ignorées
- [SPARK-23518][SQL] Évitez l’accès au metastore lorsque les utilisateurs veulent uniquement lire et écrire des trames de données
- [SPARK-23406][SS] Activation des auto-jointures entre flux de données
- [SPARK-23541][SS] Autoriser la source Kafka à lire les données avec un parallélisme plus élevé que le nombre de partitions d’article
- [SPARK-23097][SQL][SS] Migrer la source de socket de texte vers v2
- [SPARK-23362][SS] Migrer la source de micro-batch Kafka vers v2
- [SPARK-23445] Réusinage ColumnStat
- [SPARK-23092][SQL] Migrer MemoryStream vers les API DataSourceV2
- [SPARK-23447][SQL] Nettoyer le modèle codegen pour Literal
- [SPARK-23366]Améliorer le parcours de lecture à chaud dans ReadAheadInputStream
- [SPARK-22624][PYSPARK] Exposer la lecture aléatoire des partitionnements de plages
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 4.1.
Environnement du système
- Système d’exploitation : Ubuntu 16.04.4 LTS
- Java : 1.8.0_162
- Scala : 2.11.8
- Python : 2.7.12 pour les clusters Python 2 et 3.5.2 pour les clusters Python 3.
- R : R version 3.4.4 (2018-03-15)
-
Clusters GPU : Les bibliothèques GPU NVIDIA suivantes sont installées :
- Pilote Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| chiffrement | 1,5 | cycliste | 0.10.0 | Cython | 0.24.1 |
| décorateur | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | contrats à terme | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0.999 | idna | 2.1 | adresse IP | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1,2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
| mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | dupe | 0.4.1 |
| pexpect | 4.0.1 | pickleshare | 0.7.4 | Oreiller | 3.3.1 |
| pépin | 10.0.0b2 | Plis | 3.9 | prompt-toolkit | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil | 2.5.3 | Python-geohash | 0.8.5 | pytz | 1.6.2016 |
| requêtes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (bibliothèque Python pour le calcul scientifique) | 0.18.1 | récurer | 0.32 | seaborn | 0.7.1 |
| setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1,0 |
| répartition unique | 3.4.0.3 | Six | 1.10.0 | statsmodels, une bibliothèque Python pour la modélisation statistique | 0.6.1 |
| tornade | 5.0.1 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | wcwidth | 0.1.7 | roue | 0.31.0 |
| wsgiref | 0.1.2 |
Bibliothèques R installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| abind | 1.4-5 | assertthat | 0.2.0 | rétroportage | 1.1.2 |
| base | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
| bindrcpp | 0.2.2 | morceau | 1.1-12 | bit 64 | 0.9-7 |
| bitops | 1.0-6 | objet BLOB | 1.1.1 | botte | 1,3-20 |
| brasser | 1.0-6 | balai | 0.4.4 | voiture | 3.0-0 |
| données de voiture | 3.0-1 | caret | 6.0-79 | cellranger | 1.1.0 |
| Chron | 2.3-52 | classe | 7.3-14 | Cli | 1.0.0 |
| Grappe | 2.0.7 | codetools | 0.2-15 | espace colorimétrique | 1.3-2 |
| commonmark | 1.4 | compilateur | 3.4.4 | crayon | 1.3.4 |
| friser | 3.2 | Thrombose Veineuse du Sinus Cérébral (CVST) | 0.2-1 | data.table | 1.10.4-3 |
| jeux de données | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
| DEoptimR | 1,0-8 | Desc | 1.1.1 | devtools | 1.13.5 |
| dichromatisme | 2.0-0 | digérer | 0.6.15 | dimRed | 0.1.0 |
| doMC | 1.3.5 | dplyr | 0.7.4 | Réduction des Risques de Catastrophe (DRR) | 0.0.3 |
| condamnés | 0.3.0 | foreach | 1.4.4 | étranger | 0.8-69 |
| Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
| glmnet | 2.0-16 | colle | 1.2.0 | Gower | 0.1.2 |
| graphisme | 3.4.4 | grDevices | 3.4.4 | grille | 3.4.4 |
| gsubfn | 0,7 | tableau | 0.2.0 | H₂O | 3.16.0.2 |
| havre | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| itérateurs | 1.0.9 | jsonlite | 1,5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | étiquetage | 0,3 | treillis | 0.20-35 |
| lave | 1.6.1 | lazyeval | 0.2.1 | plus petit | 0.3.3 |
| lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1,5 |
| mapproj | 1.2.6 | cartes | 3.3.0 | maptools | 0.9–2 |
| MASSE | 7.3-49 | Matrice | 1.2-13 | MatrixModels | 0.4-1 |
| mémorisation | 1.1.0 | méthodes | 3.4.4 | mgcv | 1.8-23 |
| mime | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
| ModelMetrics | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
| nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsx | 4.0.17 |
| parallèle | 3.4.4 | pbkrtest | 0.4-7 | pilier | 1.2.1 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
| plyr (un package logiciel pour le traitement de données) | 1.8.4 | éloge | 1.0.0 | joliesunits | 1.0.2 |
| pROC | 1.11.0 | prodlim | 1.6.1 | prototype | 1.0.0 |
| Psych | 1.8.3.3 | purrr | 0.2.4 | quantreg | 5.35 |
| R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
| R6 | 2.2.2 | randomForest (algorithme d'apprentissage automatique) | 4.6-14 | RColorBrewer | 1.1-2 |
| Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
| RCurl | 1.95-4.10 | readr | 1.1.1 | readxl | 1.0.0 |
| recettes | 0.1.2 | match retour | 1.0.1 | reshape2 | 1.4.3 |
| rivière | 0.5.10 | rlang | 0.2.0 | robustebase | 0.92-8 |
| RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
| rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
| rstudioapi | 0,7 | écailles | 0.5.0 | sfsmisc | 1.1-2 |
| SP | 1.2-7 | SparkR | 2.3.0 | SparseM | 1.77 |
| spatial | 7.3-11 | Cannelures | 3.4.4 | sqldf | 0.4-11 |
| SQUAREM | 2017.10-1 | statmod | 1.4.30 | Statistiques | 3.4.4 |
| statistiques4 | 3.4.4 | chaine | 1.1.7 | stringr | 1.3.0 |
| survie | 2.41-3 | tcltk | 3.4.4 | Démos Pédagogiques | 2,10 |
| testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
| tidyselect | 0.2.4 | date-heure | 3043.102 | outils | 3.4.4 |
| utf8 | 1.1.3 | utilitaires | 3.4.4 | viridisLite | 0.3.0 |
| vibrisse | 0,3-2 | flétrir | 2.1.2 | xml2 | 1.2.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.11)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.7.3 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr | 1.11.313 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.11.313 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts | 1.11.313 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | flux | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | ombragé cryogénique | 3.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.0.0 |
| com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_native-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | chill_2.11 | 0.8.4 |
| com.twitter | parquet-hadoop-bundle | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | univocity-analyseurs | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 2.4.1 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Digester | Commons-Digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 2,2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | compresseur d'air | 0,8 |
| io.dropwizard.metrics | métriques de base | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | métriques-vérifications de santé | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metrics-json | 3.1.5 |
| io.dropwizard.metrics | metrics-jvm | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | servlets de métriques | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | collecteur | 0,7 |
| javax.activation | activation | 1.1.1 |
| javax.annotation | javax.annotation-api | 1,2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-suppléments | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-propriétés | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | jets3t | 0.9.4 |
| net.razorvine | pyrolite (roche pyrolitique) | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4,7 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 0.8.0 |
| org.apache.arrow | mémoire-flèche | 0.8.0 |
| org.apache.arrow | vecteur-flèche | 0.8.0 |
| org.apache.avro | Avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | avro-ipc-tests | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcite-avatica | 1.2.0-incubating |
| org.apache.calcite | noyau de calcite | 1.2.0-incubating |
| org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3,5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | curateur-client | 2.7.1 |
| org.apache.curator | curateur-framework | 2.7.1 |
| org.apache.curator | curateur-recettes | 2.7.1 |
| org.apache.derby | derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop annotations | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-client | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | hadoop-hdfs | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0-incubant |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | lierre | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.1 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
| org.apache.parquet | colonne de parquet | 1.8.2-databricks1 |
| org.apache.parquet | parquet-common | 1.8.2-databricks1 |
| org.apache.parquet | encodage parquet | 1.8.2-databricks1 |
| org.apache.parquet | parquet-format | 2.3.1 |
| org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
| org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-shaded | 4.4 |
| org.apache.zookeeper | gardien de zoo | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1,58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.8 |
| org.codehaus.janino | janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.3.20.v20170531 |
| org.eclipse.jetty | serveur jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-goyva | 2.22.2 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | jersey-commun | 2.22.2 |
| org.glassfish.jersey.core | jersey-server | 2.22.2 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
| org.hibernate | hibernate-validator | 5.1.1.Final |
| org.iq80.snappy | Snappy | 0.2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenèse | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
| org.spark-project.spark | inutilisé | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test de printemps | 4.1.4.RELEASE |
| org.tukaani | xz | 1,0 |
| org.typelevel | machiniste_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |