Remarque
L’accès à cette page requiert une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page requiert une autorisation. Vous pouvez essayer de modifier des répertoires.
Remarque
Cette version databricks Runtime a atteint la fin de vie et n’est plus disponible. Pour connaître les dates de fin de vie, consultez l’historique de fin de support et de fin de vie. Pour plus d’informations sur la stratégie et le calendrier de prise en charge de Databricks Runtime, consultez les cycles de vie de la prise en charge de Databricks.
Databricks a publié cette version en août 2020.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 7.2, avec Apache Spark 3.0.
Nouvelles fonctionnalités
Databricks Runtime 7.2 comprend les nouvelles fonctionnalités suivantes.
La fonction Charge automatique est disponible de façon générale
La fonction Charge automatique est une méthode efficace pour l’ingestion incrémentielle d’un grand nombre de fichiers dans Delta Lake. Elle est désormais en disponibilité générale et ajoute les fonctionnalités suivantes : liste des répertoires, API de gestion des ressources cloud, option de limitation du taux et validation des options.
Option du mode de liste des répertoires
La fonctionnalité Charge automatique ajoute un nouveau mode de liste de répertoires, en plus du mode de notification de fichier existant, pour déterminer le moment où de nouveaux fichiers sont présents.
- Mode de liste des répertoires : dans certains scénarios, il n’y a que quelques fichiers qui doivent être diffusés régulièrement. Dans ce cas, l’identification des nouveaux fichiers par la liste parallèle du répertoire d’entrée et leur ingestion est raisonnablement efficace. Cela vous permet de démarrer des flux de chargement automatique sans aucune configuration d’autorisation. Le mode d'annuaire est le mode par défaut d'Auto Loader à partir de Databricks Runtime 7.2 et des versions suivantes.
- Mode de notification de fichier : vous pouvez explicitement choisir le mode de notification fichier, qui est plus performant et évolutif pour les répertoires d’entrée volumineux. Cependant, il vous oblige à configurer des autorisations pour que le service de notification s’abonne aux événements de fichier et à configure
.option("cloudFiles.useNotifications", "true"). Les flux de la fonction Charge automatique existants démarrés sur Databricks Runtime 7.1 et versions antérieures s’abonnent automatiquement au mode de notification de fichier lors de la mise à niveau vers Databricks Runtime 7.2.
Pour plus d’informations, consultez Qu’est-ce que Auto Loader ?.
API de gestion des ressources cloud
Vous pouvez maintenant utiliser notre API Scala pour gérer les ressources dans le cloud créées par Auto Loader. Vous pouvez répertorier les services de notification et supprimer des services de notification spécifiques à l’aide de cette API. Pour plus d’informations, consultez Configurer ou gérer manuellement les ressources de notification de fichiers.
Option de limitation du débit
Vous pouvez maintenant utiliser l’option cloudFiles.maxBytesPerTrigger pour limiter la quantité de données traitées dans chaque microlot. Vous pouvez spécifier une chaîne d’octets comme 10g pour limiter chaque microlot à 10 Go de données. Il s’agit d’une valeur maximale non stricte. Si vous avez des fichiers de 3 Go chacun, Azure Databricks traite 12 Go dans un microlot. Cette option n’a aucun effet lorsqu’elle est utilisée avec Trigger.Once(). Lorsque cette option n’est pas indiquée, la valeur par défaut de cloudFiles.maxFilesPerTrigger sur 1 000 fichiers est utilisée pour la limitation du débit. En cas d’utilisation avec cloudFiles.maxFilesPerTrigger, Azure Databricks consomme jusqu’à la limite inférieure de cloudFiles.maxFilesPerTrigger ou cloudFiles.maxBytesPerTrigger , selon ce qui est atteint en premier.
Pour plus d’informations, consultez Qu’est-ce que Auto Loader ?.
Validation de l’option
Le Auto Loader vérifie maintenant les options que vous fournissez. Si vous fournissez une option inconnue, la Charge automatique renvoie une erreur au lieu d’ignorer l’option silencieusement. La validation détecte également les incohérences dans les options fournies. Par exemple, si vous affectez cloudFiles.useNotifications à false et que vous fournissez en même temps des options d’autorisation pour Azure Event Grid et les services Stockage File d’attente, validation échouera. Pour ignorer la validation de l’option, affectez cloudFiles.validateOptions à false.
Modifications des valeurs d’option par défaut et compatibilité
Le comportement par défaut de certaines options de Charge automatique a changé dans Databricks Runtime 7.2. Pour garantir la compatibilité, le comportement des flux démarrés sous Databricks Runtime 7.1 et les versions antérieures restera inchangé, même après la mise à niveau vers un cluster fonctionnant sous Databricks Runtime 7.2 ou une version ultérieure. Consultez Qu’est-ce que Auto Loader ?.
Répliquer efficacement une table Delta avec clone (version préliminaire)
Vous pouvez maintenant créer efficacement un clone superficiel ou profond d’une table Delta sur une version spécifique avec la commande clone. Un clone profond est un clone autonome d’une table Delta formé en copiant les fichiers en parallèle de la table source vers la table cible. Un clone peu profond est un clone créé à bas prix qui ne copie pas de fichiers dans la table cible, mais pointe vers des fichiers dans la table d’origine. Toute modification apportée à un clone profond ou superficiel affecte uniquement le clone et non la table d’origine. Consultez Cloner une table sur Azure Databricks.
Améliorations
Connecteur Snowflake : le connecteur a été mis à niveau vers la version 2.8.1, qui inclut la prise en charge de Spark 3.0.
Utilisation de PySpark : lorsqu’un fichier PySpark ou UDF pandas échoue, Azure Databricks présente maintenant l’exception côté Python et la dernière ligne de code notebook exécutée (le cas échéant) en haut du message d’erreur.
Passage des informations d’identification :
- Vous pouvez désormais utiliser la fonction de transformation LDA sur un cluster avec accès direct.
- Vous pouvez désormais définir le répertoire de point de contrôle de stockage sur un cluster avec accès direct.
Bibliothèques de cluster : Azure Databricks traite désormais toutes les bibliothèques de cluster dans l’ordre dans lequel elles ont été installées sur le cluster. Sur Databricks Runtime 7.1 et les versions antérieures, seules les bibliothèques Maven et CRAN ont été traitées dans l’ordre dans lequel elles ont été installées sur le cluster. D’autres bibliothèques ont été installées dans un ordre non déterministe.
TensorBoard :
- Gérer les processus TensorBoard avec l’API
tensorboard.notebook. - Plusieurs serveurs principaux TensorBoard peuvent s’exécuter sur un seul cluster.
- Dans les notebooks Python, affichez l’interface utilisateur de TensorBoard directement dans le notebook à l’aide de la commande magique de ligne
%tensorboard. -
dbutils.tensorboardest déconseillé.
Consultez Tensorboard.
- Gérer les processus TensorBoard avec l’API
Bibliothèques Python mises à niveau :
- jmespath mise à niveau de 0.9.4 vers 0.10.0.
- koalas mise à niveau de 1.0.1 vers 1.1.0.
Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.
Apache Spark
Databricks Runtime 7.2 comprend Apache Spark 3.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans Databricks Runtime 7.1 (EoL), ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-32234][SQL] Les commandes SQL Spark échouent lors de la sélection des tables ORC
- [SPARK-30616] [SQL] Présenter l’option de configuration TTL pour le cache des métadonnées SQL
- [SPARK-21117] [SQL] Support de la fonction SQL intégrée WIDTH_BUCKET
- [SPARK-32168] [SQL] Correction du bogue de l'exactitude du partitionnement masqué lors de la réécriture SQL
- [SPARK-31935] La configuration du système de fichiers Hadoop doit être appliquée dans les options de source de données
- [SPARK-32270] [SQL] Utiliser TextFileFormat dans l’inférence de schéma de CSV avec un encodage différent
- [SPARK-28481] [SQL] D’autres expressions doivent étendre NullIntolerant
- [SPARK-32220] [SQL] SHUFFLE_REPLICATE_NL L'indice ne doit pas modifier le résultat d'une jointure de produit non cartésien
- [SPARK-32232] [ML][pyspark] Vérifiez que ML possède les mêmes valeurs de solveur par défaut entre Scala et Python
- [SPARK-32238][SQL] Utiliser Utils.getSimpleName pour éviter de rencontrer un nom de classe malformé dans ScalaUDF
- [SPARK-32220] [SQL] SHUFFLE_REPLICATE_NL L'indication ne doit pas altérer le résultat de la jointure de produit non cartésien
- [SPARK-32256] [SQL] Forcer à initialiser Hadoop VersionInfo dans HiveExternalCatalog
- [SPARK-32159] [SQL] Correction de l’intégration entre Aggregator[Array[_], _, _] et UnresolvedMapObjects
- [SPARK-32160] [CORE][pyspark] Interdire la création d'un SparkContext dans les exécutants
- [SPARK-32168] [SQL] Correction d'un bogue de la correction du partitionnement masqué lors du remplacement en SQL
- [SPARK-32024] [WEBUI] Mettre à jour ApplicationStoreInfo.size pendant l’initialisation de HistoryServerDiskManager
- [SPARK-32214] [SQL] La fonction de conversion type générée dans makeFromJava pour le type « other » utilise une variable incorrecte
- [SPARK-30703] [SQL] Mettre à jour le commentaire invalide dans SqlBase.g4
- [SPARK-32163] [SQL] L'élagage imbriqué doit fonctionner même avec des variations cosmétiques
- [SPARK-32124] [CORE] Utiliser la valeur non valide Int.MinValue pour remplir l’index de mappage lorsque l’événement se journalise depuis l’ancienne version Spark
- [SPARK-32167] [ SQL] Correction de GetArrayStructFields pour respecter la nullabilité du champ interne ensemble
- [SPARK-32130] [SQL] Activer l’inférence des timestamps dans JsonBenchmark
- [Spark-32121] [SHUFFLE] Prise en charge de Windows OS dans ExecutorDiskUtils
-
[SPARK-32130] [SQL] Désactiver l’option JSON
inferTimestamppar défaut - [SPARK-31935] [SQL] La configuration du système de fichiers Hadoop doit être appliquée dans les options de source de données
- [SPARK-32095] [SQL] Mettre à jour la documentation pour refléter l’utilisation des statistiques mises à jour
- [SPARK-32131] [SQL] Correction des messages AnalysisException à des opérations UNION/EXCEPT/MINUS
- [SPARK-32068] [WEBUI] Corriger le problème d'affichage de l'heure de lancement dû au fuseau horaire dans l'onglet de l'étape
- [SPARK-29999] [SS] Corriger le test pour vérifier le répertoire effectif du journal des métadonnées
- [SPARK-32127] [SQL] Les règles de vérification pour MERGE INTO doivent utiliser un élément MergeAction.conditition autre que MergeAction.children
- [SPARK-32038] [SQL] Rendre le nom d’alias élégant après la normalisation float/double
- [SPARK-32126] [SS] Étendue Session.active dans IncrementalExecution
- [SPARK-32115] [SQL] Corriger SUBSTRING pour gérer les dépassements d’entiers
- [SPARK-32098] [PYTHON] Utiliser iloc pour le découpage positionnel au lieu du découpage direct dans createDataFrame à l’aide de la flèche
- [SPARK-32080][SPARK-31998] [SQL] Simplifier l’accesseur ListArray ArrowColumnVector
- [SPARK-32028] [WEBUI] Correction du lien de l’ID d’application pour l’application avec plusieurs essais dans la page de sommaire de l’historique
- [SPARK-31918] [R] Ignorer les méthodes génériques S4 sous l’espace de noms SparkR dans la gestion des contextes afin d'assurer la compatibilité avec R 4.0.0+
- [SPARK-32038] [SQL] NormalizeFloatingNumbers doit également fonctionner sur un agrégat distinct
- [SPARK-32034] [SQL] Port HIVE-14817 : Arrêter correctement le thread SessionManager timeoutChecker lors de l’arrêt
-
[SPARK-32021] [SQL] Augmenter la précision des secondes et des fractions de
make_interval - [SPARK-31980] [SQL] La séquence de fonction () échoue si les valeurs de début et de fin de plage sont des dates égales
- [SPARK-32020] [SQL] Message d’erreur plus performant lorsque SPARK_HOME ou SPARK.test.home n’est pas défini
- [SPARK-32011] [PYTHON][core] Supprimer les avertissements relatifs aux modes de threads pin et guide pour utiliser collectWithJobGroup
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 7.2.
Environnement du système
- Système d’exploitation : Ubuntu 18.04.4 LTS
- Java : 1.8.0_252
- Scala : 2.12.10
- Python : 3.7.5
- R : R version 3.6.3 (2020-02-29)
- Delta Lake 0.7.0
Bibliothèques Python installées
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| asn1crypto | 1.3.0 | appel de retour | 0.1.0 | boto3 | 1.12.0 |
| botocore | 1.15.0 | certifi | 2020.6.20 | cffi | 1.14.0 |
| chardet | 3.0.4 | chiffrement | 2.8 | cycliste | 0.10.0 |
| Cython | 0.29.15 | décorateur | 4.4.1 | docutils | 0.15.2 |
| points d’entrée | 0,3 | idna | 2.8 | ipykernel | 5.1.4 |
| ipython | 7.12.0 | ipython-genutils | 0.2.0 | Jedi | 0.14.1 |
| jmespath | 0.10.0 | joblib | 0.14.1 | jupyter-client | 5.3.4 |
| jupyter-core | 4.6.1 | kiwisolver | 1.1.0 | Koalas | 1.1.0 |
| matplotlib | 3.1.3 | numpy | 1.18.1 | Pandas | 1.0.1 |
| parso | 0.5.2 | dupe | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | pépin | 20.0.2 | prompt-toolkit | 3.0.3 |
| psycopg2 | 2.8.4 | ptyprocess | 0.6.0 | pyarrow | 0.15.1 |
| pycparser | 2.19 | Pygments | 2.5.2 | PyGObject | 3.26.1 |
| pyOpenSSL | 19.1.0 | pyparsing | 2.4.6 | PySocks | 1.7.1 |
| python-apt | 1.6.5+ubuntu0.3 | python-dateutil | 2.8.1 | pytz | 2019.3 |
| pyzmq | 18.1.1 | requêtes | 2.22.0 | s3transfer | 0.3.3 |
| scikit-learn | 0.22.1 | scipy (bibliothèque Python pour le calcul scientifique) | 1.4.1 | seaborn | 0.10.0 |
| setuptools | 45.2.0 | Six | 1.14.0 | ssh-import-id | 5.7 |
| statsmodels, une bibliothèque Python pour la modélisation statistique | 0.11.0 | tornade | 6.0.3 | Traitlets | 4.3.3 |
| mises à niveau automatiques | 0.1 | urllib3 | 1.25.8 | virtualenv | 16.7.10 |
| wcwidth | 0.1.8 | roue | 0.34.2 |
Bibliothèques R installées
Les bibliothèques R sont installées depuis l’instantané CRAN de Microsoft du 14/07/2020.
| Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | assertthat | 0.2.1 | rétroportage | 1.1.8 |
| base | 3.6.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
| morceau | 1.1-15.2 | bit 64 | 0.9-7 | objet BLOB | 1.2.1 |
| botte | 1.3-25 | brasser | 1.0-6 | balai | 0.7.0 |
| appelant | 3.4.3 | caret | 6.0-86 | cellranger | 1.1.0 |
| Chron | 2.3-55 | classe | 7.3-17 | Cli | 2.0.2 |
| clipr | 0.7.0 | Grappe | 2.1.0 | codetools | 0.2-16 |
| espace colorimétrique | 1.4-1 | commonmark | 1.7 | compilateur | 3.6.3 |
| config | 0,3 | covr | 3.5.0 | crayon | 1.3.4 |
| diaphonie | 1.1.0.1 | friser | 4.3 | data.table | 1.12.8 |
| jeux de données | 3.6.3 | DBI | 1.1.0 | dbplyr | 1.4.4 |
| Desc | 1.2.0 | devtools | 2.3.0 | digérer | 0.6.25 |
| dplyr | 0.8.5 | DT | 0.14 | ellipse | 0.3.1 |
| évaluer | 0.14 | fans | 0.4.1 | couleurs | 2.0.3 |
| carte rapide | 1.0.1 | condamnés | 0.5.0 | foreach | 1.5.0 |
| étranger | 0.8-76 | forger | 0.2.0 | fs | 1.4.2 |
| produits génériques | 0.0.2 | ggplot2 | 3.3.2 | gh | 1.1.0 |
| git2r | 0.27.1 | glmnet | 3.0-2 | globales | 0.12.5 |
| colle | 1.4.1 | Gower | 0.2.2 | graphisme | 3.6.3 |
| grDevices | 3.6.3 | grille | 3.6.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | tableau | 0.3.0 | havre | 2.3.1 |
| supérieur | 0,8 | Hms | 0.5.3 | outils HTML | 0.5.0 |
| htmlwidgets | 1.5.1 | httpuv | 1.5.4 | httr | 1.4.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | isobande | 0.2.2 | itérateurs | 1.0.12 |
| jsonlite | 1.7.0 | KernSmooth | 2.23-17 | knitr | 1.29 |
| étiquetage | 0,3 | plus tard | 1.1.0.1 | treillis | 0,20 - 41 |
| lave | 1.6.7 | lazyeval | 0.2.2 | cycle de vie | 0.2.0 |
| lubridate | 1.7.9 | magrittr | 1,5 | Markdown | 1.1 |
| MASSE | 7.3-51.6 | Matrice | 1.2-18 | mémorisation | 1.1.0 |
| méthodes | 3.6.3 | mgcv | 1.8-31 | mime | 0.9 |
| ModelMetrics | 1.2.2.2 | modèleur | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-147 | nnet | 7.3-14 | numDeriv | 2016.8-1.1 |
| openssl | 1.4.2 | parallèle | 3.6.3 | pilier | 1.4.6 |
| pkgbuild | 1.1.0 | pkgconfig | 2.0.3 | pkgload | 1.1.0 |
| plogr | 0.2.0 | plyr (un package logiciel pour le traitement de données) | 1.8.6 | éloge | 1.0.0 |
| joliesunits | 1.1.1 | pROC | 1.16.2 | processx | 3.4.3 |
| prodlim | 2019.11.13 | progrès | 1.2.2 | promesses | 1.1.1 |
| prototype | 1.0.0 | p.s. | 1.3.3 | purrr | 0.3.4 |
| r2d3 | 0.2.3 | R6 | 2.4.1 | randomForest (algorithme d'apprentissage automatique) | 4.6-14 |
| rappdirs | 0.3.1 | rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 |
| Rcpp | 1.0.5 | readr | 1.3.1 | readxl | 1.3.1 |
| recettes | 0.1.13 | match retour | 1.0.1 | revanche2 | 2.1.2 |
| Télécommandes | 2.1.1 | exemple reproductible | 0.3.0 | reshape2 | 1.4.4 |
| Rex | 1.2.0 | rjson | 0.2.20 | rlang | 0.4.7 |
| rmarkdown | 2.3 | RODBC | 1.3-16 | roxygen2 | 7.1.1 |
| rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-7 |
| RSQLite | 2.2.0 | rstudioapi | 0.11 | rversions | 2.0.2 |
| rvest | 0.3.5 | écailles | 1.1.1 | sélecteur | 0,4-2 |
| informations sur la session | 1.1.1 | forme | 1.4.4 | brillant | 1.5.0 |
| sourcetools | 0.1.7 | sparklyr | 1.3.1 | SparkR | 3.0.0 |
| spatial | 7.3-11 | Cannelures | 3.6.3 | sqldf | 0.4-11 |
| SQUAREM | 2020.3 | Statistiques | 3.6.3 | statistiques4 | 3.6.3 |
| chaine | 1.4.6 | stringr | 1.4.0 | survie | 3.1-12 |
| sys | 3.3 | tcltk | 3.6.3 | Démos Pédagogiques | 2,10 |
| testthat | 2.3.2 | tibble | 3.0.3 | tidyr | 1.1.0 |
| tidyselect | 1.1.0 | tidyverse | 1.3.0 | date-heure | 3043.102 |
| tinytex | 0,24 | outils | 3.6.3 | Utilise ça | 1.6.1 |
| utf8 | 1.1.4 | utilitaires | 3.6.3 | Identifiant unique universel (UUID) | 0.1-4 |
| vctrs | 0.3.1 | viridisLite | 0.3.0 | vibrisse | 0,4 |
| flétrir | 2.2.0 | xfun | 0.15 | xml2 | 1.3.2 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
| ID de groupe | ID d’artefact | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | AWS Java SDK pour Elastic Beanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | Outil de support aws-java-sdk | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | flux | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | plugin de compilation_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | ombragé cryogénique | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Camarade de classe | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.caffeine | caféine | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | cœur | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-autochtones | 1.1 |
| com.github.fommil.netlib | système_natif-java | 1.1 |
| com.github.fommil.netlib | système_native-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.4-3 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | goyave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profileur | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.ning | compress-lzf (compression utilisant l'algorithme LZF) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lentilles_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-analyseurs | 2.8.3 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1,2 |
| commons-codec | commons-codec | 1,10 |
| commons-collections (bibliothèque de collections communes) | commons-collections (bibliothèque de collections communes) | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Digester | Commons-Digester | 1.8 |
| téléchargement de fichiers communs | téléchargement de fichiers communs | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresseur d'air | 0.10 |
| io.dropwizard.metrics | métriques de base | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | métriques-vérifications de santé | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | servlets de métriques | 4.1.1 |
| io.netty | netty-all | 4.1.47.Final |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activation | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-suppléments | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | pyrolite (roche pyrolitique) | 4 h 30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (module d'ingestion de Snowflake) | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.12.8 |
| net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.7.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | fourmi | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | format de flèche | 0.15.1 |
| org.apache.arrow | mémoire-flèche | 0.15.1 |
| org.apache.arrow | vecteur-flèche | 0.15.1 |
| org.apache.avro | Avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.9 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | texte commun | 1.6 |
| org.apache.curator | curateur-client | 2.7.1 |
| org.apache.curator | curateur-framework | 2.7.1 |
| org.apache.curator | curateur-recettes | 2.7.1 |
| org.apache.derby | derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | hadoop annotations | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | hadoop-client | 2.7.4 |
| org.apache.hadoop | hadoop-common | 2.7.4 |
| org.apache.hadoop | hadoop-hdfs | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common | 2.7.4 |
| org.apache.hive | hive-beeline (outil de ligne de commande d'Apache Hive) | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | hive-llap-client | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | hive-metastore | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | hive-shims | 2.3.7 |
| org.apache.hive | hive-storage-api | 2.7.1 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | Composant commun de hive-shims | 2.3.7 |
| org.apache.hive.shims | programmeur de cales de hive | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0-incubant |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | lierre | 2.4.0 |
| org.apache.orc | orc-core | 1.5.10 |
| org.apache.orc | orc-mapreduce | 1.5.10 |
| org.apache.orc | orc-shims | 1.5.10 |
| org.apache.parquet | colonne de parquet | 1.10.1.2-databricks4 |
| org.apache.parquet | parquet-common | 1.10.1.2-databricks4 |
| org.apache.parquet | encodage parquet | 1.10.1.2-databricks4 |
| org.apache.parquet | parquet-format | 2.4.0 |
| org.apache.parquet | parquet-hadoop | 1.10.1.2-databricks4 |
| org.apache.parquet | parquet-jackson | 1.10.1.2-databricks4 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | vitesse | 1,5 |
| org.apache.xbean | xbean-asm7-shaded | 4.15 |
| org.apache.yetus | annotations du public | 0.5.0 |
| org.apache.zookeeper | gardien de zoo | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | compilateur commun | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-continuation | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-http | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-io | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-jndi | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-plus | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-proxy | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-security (sécurité de quai) | 9.4.18.v20190429 |
| org.eclipse.jetty | serveur jetty | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlet | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-servlets | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-util | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-webapp | 9.4.18.v20190429 |
| org.eclipse.jetty | jetty-xml | 9.4.18.v20190429 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi Localisateur de Ressources | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de conteneur jersey | 2.30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
| org.glassfish.jersey.core | jersey-client | 2.30 |
| org.glassfish.jersey.core | jersey-commun | 2.30 |
| org.glassfish.jersey.core | jersey-server | 2.30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
| org.glassfish.jersey.media | jersey-media-jaxb | 2.30 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.6.6 |
| org.json4s | json4s-core_2.12 | 3.6.6 |
| org.json4s | json4s-jackson_2.12 | 3.6.6 |
| org.json4s | json4s-scalap_2.12 | 3.6.6 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.objenesis | objenèse | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.7.45 |
| org.roaringbitmap | Cales | 0.7.45 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interface de test | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,0 |
| org.scalanlp | breeze_2.12 | 1,0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | inutilisé | 1.0.0 |
| org.springframework | spring-core | 4.1.4.RELEASE |
| org.springframework | test de printemps | 4.1.4.RELEASE |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1,5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | machiniste_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.5 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1,5 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |
| xmlenc | xmlenc | 0.52 |