Partager via


Databricks Runtime 17.2

Les notes de publication suivantes fournissent des informations sur Databricks Runtime 17.2, alimenté par Apache Spark 4.0.0.

Cette version intègre toutes les fonctionnalités, améliorations et correctifs de bogues de toutes les versions précédentes de Databricks Runtime. Databricks a publié cette version en septembre 2025.

Nouvelles fonctionnalités et améliorations

LIKE prend en charge le classement UTF8_LCASE

L’opérateur LIKE prend désormais en charge le classement, ce qui permet une correspondance non sensible à la UTF8_LCASE casse.

st_exteriorring la fonction est désormais prise en charge

Vous pouvez maintenant utiliser la st_exteriorring fonction pour extraire la limite externe d’un polygone et la renvoyer en tant que chaîne de ligne. Consultez Fonction st_exteriorring.

Afficher les détails de la réduction dans EXPLAIN et l’interface utilisateur Spark pour les analyses à distance.

La EXPLAIN commande et l’interface utilisateur Spark pour RemoteSparkConnectScan le calcul dédié affichent désormais les prédicats, les agrégations, les clauses GROUP BY, les limites et les échantillons qui sont poussés vers le bas dans l’analyse distante.

Déclarer plusieurs variables de session ou locales dans une seule DECLARE instruction

Dans Databricks Runtime 17.2 et versions ultérieures, vous pouvez déclarer plusieurs variables de session ou locales du même type et de la même valeur par défaut dans une instruction unique DECLARE . Voir DECLARE VARIABLE et instruction composée BEGIN END.

Prise en charge du mot clé TEMPORARY pour la création d'une vue de métrique

Vous pouvez maintenant utiliser le mot clé TEMPORARY lors de la création d’une vue de métrique. Les vues de métriques temporaires sont visibles uniquement dans la session qui les a créées et sont supprimées lorsque la session se termine. Voir CREATE VIEW.

Prendre en charge des commandes supplémentaires avec un contrôle d’accès affiné

Le contrôle d’accès affiné sur le calcul dédié prend désormais en charge les commandes FSCK REPAIR TABLE et DESCRIBE DETAIL.

Remplacer de manière sélective et atomique les données par INSERT REPLACE USING et INSERT REPLACE ON (GA)

INSERT REPLACE USING et INSERT REPLACE ON sont désormais en disponibilité générale pour Databricks Runtime 17.2. Les deux commandes SQL remplacent une partie de la table par le résultat d’une requête.

INSERT REPLACE USING remplace les lignes lorsque les USING colonnes sont égales. INSERT REPLACE ON remplace les lignes lorsqu’elles correspondent à une condition définie par l’utilisateur.

Voir INSERT dans la référence du langage SQL et remplacer sélectivement les données avec Delta Lake.

Utiliser des E/S natives pour LokiFileSystem.getFileStatus sur S3

LokiFileSystem.getFileStatus utilise désormais la pile d’E/S native pour le trafic Amazon S3 et retourne org.apache.hadoop.fs.FileStatus des objets au lieu de shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.

Mode ANSI activé par défaut pour l’API Pandas sur Spark

ANSI_MODE est désormais activé par défaut pour l’API Pandas sur Spark, compute.ansi_mode_support=Truece qui garantit la parité de conformité ANSI avec pandas natifs. L’option s’applique toujours si compute.ansi_mode_support est configurée sur False.

Auto Loader déduit les colonnes de partition en mode singleVariantColumn

Le chargeur automatique déduit désormais les colonnes de partition à partir de chemins de fichiers lors de l’ingestion de données au format de type semi-structuré à l’aide de l’option singleVariantColumn. Auparavant, les colonnes de partition n’ont pas été détectées automatiquement. Consultez les options du chargeur automatique.

Changements comportementaux

DESCRIBE CONNECTION affiche les paramètres d’environnement pour les connexions JDBC

Azure Databricks inclut désormais les paramètres d’environnement définis par l’utilisateur dans la DESCRIBE CONNECTION sortie des connexions JDBC qui prennent en charge les pilotes personnalisés et s’exécutent en isolation. Les autres types de connexion restent inchangés.

Option permettant de tronquer l’historique uniforme pendant la migration des tables managées

Vous pouvez désormais tronquer l'historique uniforme lors de la migration de tables avec Uniform/Iceberg activé en utilisant ALTER TABLE...SET MANAGED. Cela simplifie les migrations et réduit les temps d’arrêt par rapport à la désactivation et à la réactivation manuelle d’Uniform.

Syntaxe SQL pour les options de lecture Delta dans les requêtes de streaming

Vous pouvez maintenant spécifier des options de lecture Delta pour les requêtes de streaming basées sur SQL à l’aide de la WITH clause. Par exemple:

SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);

Corriger les résultats pour split avec une expression régulière vide et une limite positive

Azure Databricks retourne désormais des résultats corrects lors de l’utilisation split function avec un regex vide et une limite positive. Précédemment, la fonction a tronqué incorrectement la chaîne restante au lieu de l’inclure dans le dernier élément.

Correction de la gestion des erreurs url_decode et try_url_decode dans Photon

Dans Photon, try_url_decode() et url_decode() avec failOnError = false retournent maintenant NULL pour les chaînes encodées URL non valides, au lieu d’échouer la requête.

Environnement d’exécution partagée pour les UDTFs Python du Catalogue Unity

Azure Databricks partage désormais l’environnement d’exécution pour les fonctions de table définies par l’utilisateur Python (UDF) à partir du même propriétaire et de la même session Spark. Une clause facultative STRICT ISOLATION permet de désactiver le partage des fonctions définies par l'utilisateur ayant des effets secondaires, comme modifier des variables d'environnement ou exécuter du code arbitraire.

Suivi des lignes activé par défaut pour les nouvelles tables

Azure Databricks active désormais le suivi des lignes par défaut pour toutes les tables managées du catalogue Unity nouvellement créées. Les tables existantes ne sont pas affectées et conservent leurs paramètres de suivi des lignes actuels.

TABLE prise en charge des arguments pour les UDTF Python dans Unity Catalog

Unity Catalog Python UDTFs prennent en charge TABLE les arguments, ce qui permet aux fonctions d’accepter des tables entières en tant que paramètres d’entrée, ce qui permet d’effectuer des transformations et des agrégations de données plus complexes sur des jeux de données structurés. Consultez les fonctions de table définies par l’utilisateur Python dans le catalogue Unity. (Rétroporté à partir de 17.3 LTS).

Mises à niveau de la bibliothèque

Bibliothèques Python mises à niveau :

Aucune bibliothèque Python n’a été mise à niveau dans cette version.

Bibliothèques R mises à niveau :

Aucune bibliothèque R n’a été mise à niveau dans cette version.

Bibliothèques Java mises à niveau :

  • io.delta.delta-sharing-client_2.13 de 1.3.3 à 1.3.5

Apache Spark

Databricks Runtime 17.2 inclut Apache Spark 4.0.0. Cette version inclut tous les correctifs et améliorations Spark inclus dans la version précédente, ainsi que les éléments suivants :

  • SPARK-53183 Utiliser Java Files.readString au lieu de o.a.s.sql.catalyst.util.fileToString
  • SPARK-51817 Réintroduisez les champs ansiConfig dans messageParameters de CAST_INVALID_INPUT et CAST_OVERFLOW
  • SPARK-53124 Supprimer des champs inutiles à partir de JsonTuple
  • SPARK-53106 Ajouter des tests d'évolution des schémas pour les suites de connexion TWS Spark Scala
  • SPARK-53201 Utiliser SparkFileUtils.contentEquals au lieu de Files.equal
  • SPARK-53308 Ne supprimez pas les alias dans RemoveRedundantAliases qui provoqueraient des doublons
  • SPARK-53241 Prise en charge createArray dans SparkCollectionUtils
  • SPARK-53239 Améliorer les performances de MapSort et SortArray via parallelSort
  • SPARK-53184 Correction de melt() lorsque les colonnes de valeur combinent des chaînes et des nombres
  • SPARK-53144 Rendre CreateViewCommand dans SparkConnectPlanner sans effet secondaire
  • SPARK-53303 Utilisez l’encodeur d’état vide lorsque l’état initial n’est pas fourni dans TWS
  • SPARK-52917 Prise en charge de lecture pour activer l’aller-retour pour le fichier binaire au format xml
  • SPARK-53110 Implémenter la fonction time_trunc dans PySpark
  • SPARK-53107 Implémenter la fonction time_trunc dans Scala
  • SPARK-52146 Détecter les références de fonctions cycliques dans les UDF SQL
  • SPARK-52469 Utiliser l’API JEP 223 pour traiter la version Java
  • SPARK-53094 Corriger CUBE avec un agrégat contenant des HAVING clauses
  • SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
  • SPARK-53287 Ajouter un guide de migration ANSI
  • SPARK-43100 Les métriques shuffle basées sur push doivent être désérialisées correctement
  • SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
  • SPARK-53114 Prise en charge join dans JavaUtils
  • SPARK-53297 Correction de la docstring de l’API des pipelines déclaratifs pour StreamingTable
  • SPARK-53181 Activer les tests de documentation sous ANSI
  • SPARK-52482 Améliorer la gestion des exceptions pour lire certains fichiers zstd endommagés
  • SPARK-52990 Soutien StringSubstitutor
  • SPARK-51874 Ajouter TypedConfigBuilder pour l’énumération Scala
  • SPARK-53169 Supprimer les commentaires liés à «Set the logger level of File Appender to » de log4j2.properties
  • SPARK-53080 Prise en charge de cleanDirectory dans SparkFileUtils et JavaUtils
  • SPARK-53045 DESCRIBE EXTENDED doit être résilient aux métadonnées endommagées
  • SPARK-53000 Renommer StringUtils.scala en StringConcat.scala dans le module sql/api
  • SPARK-52952 Ajouter un script de développement de forçage de type UDF PySpark
  • SPARK-52998 Déclaration de plusieurs variables dans la fonction
  • SPARK-51817 Réintroduire les champs ansiConfig dans les paramètres de message de CAST_INVALID_INPUT et CAST_OVERFLOW
  • SPARK-52820 Capturer des plans complets dans des fichiers dorés
  • SPARK-53274 Prise en charge de la poussée vers le bas des jointures gauche et droite dans JDBCScanBuilder
  • SPARK-52110 Implémenter la prise en charge de la syntaxe SQL pour les pipelines
  • SPARK-52950 Activer le mode ANSI dans DataSourceV2StrategySuite
  • SPARK-52947 Corriger le chemin d’accès à l’image dans le guide de programmation des pipelines déclaratifs
  • SPARK-52592 Prise en charge de la création d'une ps.Series à partir d'une autre ps.Series
  • SPARK-53301 Différencier les annotations de type des UDF de Pandas et des UDF d'Arrow
  • SPARK-53146 Rendre MergeIntoTable dans SparkConnectPlanner sans effets secondaires
  • SPARK-53166 Utiliser SparkExitCode.EXIT_FAILURE dans l’objet SparkPipelines
  • SPARK-53288 Correction de l’erreur d’assertion avec la limite globale de flux de données en continu
  • SPARK-52394 Correction de l'erreur de division par zéro de l'autocorrélation en mode ANSI
  • SPARK-51555 Ajouter la fonction time_diff()
  • SPARK-52948 Activer test_np_spark_compat_frame sous ANSI
  • SPARK-53134 Nettoyer les importations ANSI inutilisées dans les tests
  • SPARK-52593 Éviter CAST_INVALID_INPUT de MultiIndex.to_series, Series.dot et DataFrame.dot en mode ANSI
  • SPARK-53291 Correction de nullité pour la colonne valeur
  • SPARK-53097 Rendre WriteOperationV2 sans effet secondaire dans SparkConnectPlanner
  • SPARK-53305 Support de TimeType dans createDataFrame
  • SPARK-52914 Prise en charge des On-Demand Log Loading journaux tournants dans History Server
  • SPARK-33538 Envoyer directement des prédicats IN/NOT au metastore Hive
  • SPARK-52849 Ajouter stringifyException à o.a.s.util.Utils
  • SPARK-52771 Correction de l’élargissement du type float32 dans truediv/floordiv
  • SPARK-52502 Vue d’ensemble du nombre de threads
  • SPARK-52788 Correction de l’erreur de conversion de la valeur binaire dans BinaryType en XML
  • SPARK-53123 Prise en charge getRootCause dans SparkErrorUtils
  • SPARK-53129 Améliorer l’importation SparkShell par défaut de java.net._
  • SPARK-53061 Prise en charge copyFileToDirectory dans SparkFileUtils
  • SPARK-52683 Prise en charge de ExternalCatalog alterTableSchema
  • SPARK-52871 Fusionner o.a.s.sql.catalyst.util.SparkStringUtils vers o.a.s.util.SparkStringUtils
  • SPARK-52817 Corriger la performance des expressions
  • SPARK-52545 Normaliser l’échappement de guillemets doubles pour suivre la spécification SQL
  • SPARK-52711 Correction de l’élargissement du type float32 sous mul/rmul ANSI
  • SPARK-52615 Remplacer File.mkdirs par Utils.createDirectory
  • SPARK-52381 JsonProtocol : Accepter uniquement les sous-classes de SparkListenerEvent
  • SPARK-52613 Restaurer l’impression complète stacktrace lorsque HBase/Hive DelegationTokenProvider a atteint l’exception
  • SPARK-52651 Gérer le type défini par l’utilisateur dans ColumnVector imbriqué
  • SPARK-52611 Correction de la version SQLConf pour excludeSubqueryRefsFromRemoveRedundantAliases...
  • SPARK-52552 Ignorer l'application de contrainte CHECK pour les suppressions de vecteurs de suppression de données
  • Paramètre de support SPARK-52587 spark-shell 2.13 -i-I
  • SPARK-52492 Rendre InMemoryRelation.convertToColumnarIfPossible personnalisable
  • SPARK-52451 Rendre WriteOperation dans SparkConnectPlanner sans effet secondaire
  • SPARK-53272 Refactoriser la logique pushdown SPJ hors de BatchScanExec
  • SPARK-53071 Prise en charge copyFile dans SparkFileUtils
  • SPARK-51415 Prise en charge du type temporel par make_timestamp()
  • SPARK-51554 Ajouter la fonction time_trunc()
  • SPARK-52426 Supporter la redirection de stdout/stderr vers le système de journalisation
  • SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
  • SPARK-53063 Implémenter et appeler de nouvelles API dans FileCommitProtocol au lieu de l'obsolète
  • Spark-52546 vérifiez sparkContext si elle s’est arrêtée lors de l’exécution du bloc de code catch dans execute(), sinon, elle retourne un état incorrect.
  • SPARK-53023 Supprimer la commons-io dépendance du sql/api module
  • SPARK-52396 Le répertoire racine d’artefact doit utiliser tmpdir
  • SPARK-53131 Améliorer SparkShell l’importation java.nio.file._ par défaut
  • SPARK-42322 Attribuer un nom to_LEGACY_ERROR_TEMP_2235
  • SPARK-51834 Prise en charge de la gestion des contraintes de table de bout en bout
  • SPARK-52484 Ignorer l’assertion child.supportsColumnar côté pilote dans ColumnarToRowExec
  • SPARK-52384 Correction d'un bug : la connexion doit être insensible aux options JDBC
  • SPARK-52034 Ajouter des méthodes courantes dans SparkOperation trait pour les opérations thriftserver
  • SPARK-53031 Prise en charge getFile dans SparkFileUtils
  • SPARK-52976 Correction de la fonction UDF Python qui n’accepte pas la chaîne triée en tant que type de paramètre d'entrée/de retour (17.x)
  • SPARK-52943 Activer arrow_cast pour tous les types d’évaluation UDF pandas
  • SPARK-53263 Prise en charge de TimeType pour df.toArrow
  • SPARK-53141 Ajouter des API pour obtenir la taille de mémoire de surcharge et la taille de mémoire offheap à partir du profil de ressource
  • SPARK-53259 Corrigez le message pour INVALID_UDF_EVAL_TYPE
  • SPARK-53167 Le lanceur Spark isRemote respecte également le fichier de propriétés
  • SPARK-53165 Ajouter SparkExitCode.CLASS_NOT_FOUND
  • SPARK-53171 Amélioration de la répétition d'UTF8String
  • SPARK-53170 Améliorer SparkUserAppException pour avoir cause un paramètre
  • SPARK-52989 Ajouter une API close() explicite aux itérateurs du magasin de l'état
  • SPARK-53074 Éviter un clustering partiel dans SPJ pour répondre à la distribution requise d’un enfant
  • SPARK-52252 Les encodeurs ScalaUDF dans la sous-requête doivent être résolus
  • SPARK-53244 Ne stockez pas les configurations avec double exécution et mode provisoire activés lors de la création de la vue.
  • SPARK-53192 Toujours mettre en cache une source de données dans le cache du plan Spark Connect
  • SPARK-51813 Ajouter un DefaultCachedBatchKryoSerializer nonullable pour éviter la propagation null dans DefaultCachedBatch serde
  • SPARK-52904 Réappliquer "[SC-202233][python] Enable convertToArrowArrayS...
  • SPARK-53253 Correction de l'enregistrement de l'UDF de type SQL_SCALAR_ARROW_ITER_UDF
  • SPARK-53243 Répertorier les types d'évaluation pris en charge dans les nœuds Arrow
  • SPARK-53130 Corriger le toJson comportement des types de chaînes compilés
  • SPARK-53003 Prise en charge strip dans SparkStringUtils
  • SPARK-51902 Synchroniser OSS : Appliquer la contrainte de vérification lors de l’insertion dans la table
  • SPARK-52047 Déclencher PySparkValueError pour les types de tracés non pris en charge
  • SPARK-53004 Prise en charge de abbreviate dans SparkStringUtils
  • SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
  • SPARK-30848 Supprimer productHash de TreeNode
  • SPARK-53046 Utiliser Java readAllBytes au lieu de IOUtils.toByteArray
  • SPARK-53206 Utiliser SparkFileUtils.move au lieu de com.google.common.io.Files.move
  • SPARK-53066 Améliorer la sortie pour le EXPLAIN pushdown de jointure DSv2
  • SPARK-53069 Corriger les métriques incorrectes de stockage d'état avec les familles de colonnes virtuelles.
  • SPARK-52904 Activer convertToArrowArraySafely par défaut [17.x]
  • SPARK-52821 ajouter une contrainte de coercion de type de retour int->DecimalType dans le udf pyspark
  • SPARK-51562 Ajouter une time fonction
  • SPARK-52971 Limiter la taille de la file d'attente des processus Python inactifs
  • SPARK-53057 Prise en charge sizeOf dans SparkFileUtils et JavaUtils
  • SPARK-53040 Interdire les auto-références dans les CTEs les plus élevés des CTEs récursives
  • SPARK-53104 Introduire ansi_mode_context pour éviter plusieurs vérifications de configuration par appel d’API
  • SPARK-47547 Ajouter BloomFilter V2 et l’utiliser comme valeur par défaut
  • SPARK-53098DeduplicateRelations ne doit pas remaper les expressions si l'ancienne ExprId existe encore dans le résultat
  • SPARK-53049 Support toString dans SparkStreamUtils
  • SPARK-53062 Prise en charge dans deleteQuietly, SparkFileUtils et JavaUtils
  • SPARK-53070 Support is(Not)?Empty dans SparkCollectionUtils
  • SPARK-53020 Les arguments JPMS doivent également s’appliquer au processus non-SparkSubmit
  • SPARK-52968 Émettre des métriques de store d’état supplémentaires
  • SPARK-52975 Simplifier les noms de champs dans la jointure pushdown sql
  • SPARK-52926 Ajout de SQLMetric pour la durée de récupération de schéma à distance.
  • SPARK-53059 Arrow UDF n'a pas besoin d'être dépendant de pandas
  • SPARK-52646 Éviter CAST_INVALID_INPUT en mode ANSI __eq__
  • SPARK-52622 Éviter CAST_INVALID_INPUT en mode ANSI DataFrame.melt
  • SPARK-52985 Lever TypeError pour l’opérande pandas numpy dans les opérateurs de comparaison
  • SPARK-52580 Éviter CAST_INVALID_INPUT de replace en mode ANSI
  • SPARK-52549 Désactiver les références auto-référentielles CTE récursives dans les fonctions de fenêtre et à l'intérieur des tris
  • SPARK-52895 N’ajoutez pas d’éléments en double dans resolveExprsWithAggregate
  • SPARK-50748 Résolution d’un problème de condition de concurrence qui survient au cours de l’interruption des opérations
  • SPARK-52737 Transfert de prédicat et nombre d’applications vers FsHistoryProvider lors de la liste des applications.
  • SPARK-53018 ArrowStreamArrowUDFSerializer doit respecter l’argument arrow_cast
  • SPARK-53013 Correction de l’UDTF Python optimisé par Arrow ne retournant aucune ligne lors d'une jointure latérale
  • SPARK-51834 Synchroniser OSS : prise en charge de la modification des contraintes de table de bout en bout, ajout/suppression de contrainte
  • SPARK-52921 Spécifier le partitionnement de sortie pour UnionExec pour le même partitionnement de sortie que les opérateurs enfants
  • SPARK-52908 Empêcher que le nom de la variable itérateur soit en conflit avec les noms d’étiquettes dans le chemin d’accès à la racine d’AST
  • SPARK-52954 Prise en charge des UDF Arrow pour la coercition du type de retour
  • SPARK-52925 Renvoyer un message d’erreur correct pour les références d’auto-ancrage dans les rCTE
  • SPARK-52889 Implémenter la fonction current_time dans PySpark
  • SPARK-52675 Interrompre les gestionnaires de tâches ML suspendus dans les tests
  • SPARK-52959 Prise en charge de l’UDT dans UDTF Python optimisé par Arrow
  • SPARK-52962 BroadcastExchangeExec ne doit pas réinitialiser les métriques
  • SPARK-52956 Conserver les métadonnées d’alias lors de la compression des projets
  • SPARK-52890 Implémenter les fonctions to_time et try_to_time dans PySpark
  • SPARK-52888 Implémenter la fonction make_time dans PySpark
  • SPARK-52892 Assurer la prise en charge de TIME dans les fonctions heure, minute et seconde dans PySpark
  • SPARK-52837 Support du TimeType dans pyspark
  • SPARK-52023 Corriger la corruption des données / segfault en retournant Option[Produit] à partir d’UDAF
  • SPARK-52955 Modifier les types de retour de WindowResolution.resolveOrder et WindowResolution.resolveFrame en WindowExpression
  • SPARK-52166 Ajouter la prise en charge des Événements de Pipeline
  • SPARK-51834 Correctif : supprimer la validité de toDDL
  • SPARK-52735 Corriger les conditions d’erreur manquantes pour les fonctions définies par l’utilisateur SQL
  • SPARK-51834 Synchronisation de la prise en charge OSS pour la création/remplacement de tables avec contrainte de bout en bout
  • SPARK-51834 Synchroniser les appels unapply liés à la mise à jour de la synchronisation OSS ResolvedIdentifier
  • SPARK-52929 Prise en charge du connecteur MySQL et SQL Server pour le pushdown de jointure DSv2
  • SPARK-52448 Ajouter une expression.littérale struct simplifiée
  • SPARK-52882 Implémenter la fonction current_time dans Scala
  • SPARK-52905 Flèche UDF pour la fenêtre
  • SPARK-52876 Correction d’une faute de frappe buffer en body dans ChunkFetchSuccess.toString
  • SPARK-52883 Implémenter les fonctions to_time et try_to_time dans Scala
  • SPARK-52751 Ne validez pas avec impatience le nom de colonne dans dataframe['col_name']
  • SPARK-52791 Corriger l’erreur lors de l’inférence d’un UDT avec un premier élément Null
  • SPARK-52686Union ne doit être résolu que s’il n’y a pas de doublons
  • SPARK-52881 Implémenter la fonction make_time dans Scala
  • SPARK-52919 Correction du pushdown de jointure DSv2 pour utiliser la colonne précédemment aliasée
  • SPARK-52866 Ajouter une prise en charge pour try_to_date
  • SPARK-52846 Ajouter une métrique dans JDBCRDD pour mesurer le temps nécessaire à l'extraction du jeu de résultats
  • SPARK-52859 Ajouter la caractéristique SparkSystemUtils
  • SPARK-52823 Prise en charge du pushdown de jointure DSv2 pour le connecteur Oracle
  • SPARK-52165 Configurer l'infrastructure de construction pour le projet de pipelines.
  • SPARK-52869 Ajouter la validation FrameLessOffsetWindowFunction à validateResolvedWindowExpression pour la réutilisation dans l'analyseur en un seul passage
  • SPARK-52885 Implémenter les fonctions d’heure, de minute et de seconde dans Scala pour le type TIME
  • SPARK-52903 Supprimer les alias de niveau non supérieur avant la résolution des LCA
  • SPARK-52832 Correction de la mise entre guillemets des identificateurs de dialecte JDBC
  • SPARK-52870 Citer correctement les noms de variables dans l'instruction FOR
  • SPARK-52859 Ajouter une SparkSystemUtils caractéristique
  • SPARK-52900 Utiliser SparkStringUtils.stringToSeq dans FsHistoryProvider
  • SPARK-52809 Ne pas garder de références de lecteur et d'itérateur pour toutes les partitions dans les auditeurs de fin de tâche lors de la mise à jour des métriques
  • SPARK-52815 Améliorer SparkClassUtils pour prendre en charge getAllInterfaces
  • SPARK-52795 Inclure runId dans les journaux du magasin d'état
  • SPARK-52779 Prise en charge du littéral TimeType dans Connect
  • SPARK-52899 Correction du test QueryExecutionErrorsSuite pour réinscrire H2Dialect
  • SPARK-52862 Correction de la vérification de la nullabilité de Decimal('NaN')
  • SPARK-52214 Flèche UDF pour l’agrégation
  • SPARK-52787 Réorganiser le répertoire d’exécution de streaming autour des zones de runtime et de point de contrôle
  • SPARK-51564 Analyse de l'heure au format 12 heures
  • SPARK-52859 Ajouter une SparkSystemUtils caractéristique
  • SPARK-51562 Ajouter une time fonction
  • SPARK-52850 Ignorer l'appel des conversions si la fonction est une identité
  • SPARK-52863 Nettoyer les chemins de code pour les anciennes versions de pandas
  • SPARK-52516 Ne conservez pas la référence d’itérateur précédente après l’avancement vers le fichier suivant dans ParquetPartitionReaderFactory
  • SPARK-52848 Évitez d’effectuer un Double cast dans la conversion de TIME/TIMESTAMP en DECIMAL
  • SPARK-52770 Prise en charge du type TIME dans le protocole de connexion
  • SPARK-52842 Nouvelles fonctionnalités et correctifs de bogues pour l’analyseur à passe unique
  • SPARK-52620 Prise en charge de la conversion de TIME en DECIMAL
  • SPARK-52783 Refactoriser la logique de validation windowFunction à partir de checkAnalysis pour la réutilisation dans l’analyseur à passe unique
  • SPARK-51695 Synchroniser la table de création/remplacement/modification du système d’exploitation pour une contrainte unique via DSv2
  • SPARK-51695 Synchroniser l'abandon de contrainte OSS par DSv2
  • SPARK-52824 Classification des erreurs CheckpointFileManager
  • SPARK-52829 Correction de LocalDataToArrowConversion.convert pour gérer correctement les lignes vides
  • SPARK-52811 Optimiser ArrowTableToRowsConversion.convert pour améliorer ses performances
  • SPARK-52796 Optimiser LocalDataToArrowConversion.convert pour améliorer ses performances
  • SPARK-51695 Synchroniser les modifications apportées à l’analyseur de contraintes ALTER Table OSS
  • SPARK-52619 Cast TimeType en IntegralType
  • SPARK-52187 Présentation du pushdown de jointure pour DSv2
  • SPARK-52782 Retourner NULL à partir de +/- à datetime avec NULL
  • SPARK-51695 Introduire des modifications de parseur pour les contraintes de table (CHECK, PK, FK)
  • SPARK-52808spark.history.retainedApplications doit être positif
  • SPARK-52776 Ne fractionnez pas le champ comm dans ProcfsMetricsGetter
  • SPARK-52793 Support isUnix au niveau de o.a.s.util.Utils
  • SPARK-52792 Supprimer la commons-lang3 dépendance de network-common
  • SPARK-52797 Utiliser Utils.isWindows au lieu de réévaluer dans PythonWorkerFactory
  • SPARK-52784 Ajouter un cast TimeZoneAware dans WindowFrameTypeCoercion.createBoundaryCast
  • SPARK-52725 Retarder l’initialisation du gestionnaire de profils de ressources jusqu’à ce que le plug-in soit chargé
  • SPARK-52565 Appliquer la résolution ordinale avant d’autres expressions d’ordre de tri
  • SPARK-52740 Correction de NPE dans HDFSBackedStateStoreProvider accédant à StateStoreConf.sqlConf lorsque la version du format de point de contrôle est >=2
  • SPARK-52673 Ajouter la prise en charge de RetryInfo grpc aux politiques de réessai Spark Connect
  • SPARK-52724 Améliorer la gestion des erreurs OOM dans la jointure diffusée avec la prise en charge des indicateurs SHUFFLE_MERGE
  • SPARK-52781 Correction de la faute de frappe dtyeps dans internal.py
  • SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
  • SPARK-52727 Refactoriser la résolution de fenêtre afin de la réutiliser dans l’analyseur à passe unique
  • SPARK-52695 Prise en charge de l’écriture de type défini par l’utilisateur pour le format de fichier XML
  • SPARK-52722 Mettre hors service la classe JdbcRDD
  • SPARK-51695 Introduire des modifications de l'analyseur pour les contraintes de table (CHECK, PK, FK)
  • SPARK-52763 Prise en charge de la soustraction TIME
  • SPARK-52768 Correction de la faute de frappe « moveing » dans pandas/series.py
  • SPARK-52730 Stocker le pilote sous-jacent et la version de base de données dans JDBCRDD
  • SPARK-52694 Ajouter une o.a.s.sql.Encoders#udtAPI
  • SPARK-52720 Correction de l’élargissement du type float32 sous add/radd ANSI
  • SPARK-52723 Validation du nom de colonne côté serveur
  • SPARK-52760 Correction de l’élargissement du type float32 sous sub/rsub ANSI
  • SPARK-52738 Prise en charge de l’agrégation du type TIME avec un UDAF lorsque la mémoire tampon sous-jacente est une UnsafeRow
  • SPARK-52704 Simplifier les interopérations entre les options SQLConf et de format de fichier dans TextBasedFileFormats
  • SPARK-52706 Corriger les incohérences et les types primitifs refactorisables dans l’analyseur
  • SPARK-52718 Correction de l’élargissement du type float32 sous rmod/mod ANSI
  • SPARK-52736 Correction des fautes de frappe « déplacement » dans pyspark/pandas/generic.py

Prise en charge du pilote ODBC/JDBC d'Azure Databricks

Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes et la mise à niveau récemment publiés (téléchargez ODBC, téléchargez JDBC).

Environnement du système

  • Système d’exploitation : Ubuntu 24.04.3 LTS
  • Java : Zulu17.58+21-CA
  • Scala : 2.13.16
  • Python : 3.12.3
  • R : 4.4.2
  • Delta Lake : 4.0.0

Bibliothèques Python installées

Bibliothèque Version Bibliothèque Version Bibliothèque Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 flèche 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attributs 24.3.0
commande automatique 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob (service de stockage de blobs Azure) 12.23.0 Azure Storage File Data Lake 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 bellesoupe4 4.12.3 black 24.10.0
bleach 6.2.0 clignotant 1.7.0 boto3 1.36.2
botocore 1.36.3 cachetools 5.5.1 certifi 2025.1.31
cffi 1.17.1 chardet 4.0.0 charset-normalizer 3.3.2
cliquez 8.1.7 cloudpickle 3.0.0 comm 0.2.1
contourpy 1.3.1 cryptographie 43.0.3 cycliste 0.11.0
Cython 3.0.12 Kit de développement logiciel Databricks (SDK) 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 décorateur 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 distlib 0.3.9 Conversion de docstring en markdown 0.11
executing 0.8.3 aperçu des facettes 1.1.1 fastapi 0.115.12
validation rapide des schémas JSON (fastjsonschema) 2.21.1 verrou de fichier 3.18.0 outils de police 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
google-cloud-core 2.4.3 google-cloud-storage (Stockage dans le cloud de Google) 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 IDNA 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
spécifications du schéma JSON 2023.7.1 événements Jupyter 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 serveur Jupyter 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets (widgets pour JupyterLab) 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny (version légère de mlflow) 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
notebook 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions 0.53b1 remplace 7.4.0 empaquetage 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
pillow 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 pluggy 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.0
pytoolconfig 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 référencement 0.30.2 requests 2.32.3
RFC3339 validateur 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
corde 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy (bibliothèque Python pour le calcul scientifique) 1.15.1
seaborn 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
six 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortedcontainers 2.4.0 soupsieve 2.5 sqlparse 0.5.3
ssh-import-id 5.11 données en pile 0.2.0 starlette 0.46.2
statsmodels, une bibliothèque Python pour la modélisation statistique 0.14.4 strictyaml 1.7.3 ténacité 9.0.0
terminé 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornade 6.4.2
Traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unattended-upgrades 0.1 uri-template 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolores 24.11.1 webencodings 0.5.1
websocket-client 1.8.0 c’est quoi le patch 1.0.2 roue 0.45.1
widgetsnbextension 3.6.6 wrapt 1.17.0 yapf 0.40.2
zipp 3.21.0

Bibliothèques R installées

Les bibliothèques R sont installées à partir de l'instantané CRAN du gestionnaire de packages en date du 20-03-2025.

Bibliothèque Version Bibliothèque Version Bibliothèque Version
flèche 19.0.1 Askpass 1.2.1 assertthat 0.2.1
backports 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 objet BLOB 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 balai 1.0.7
bslib 0.9.0 cachemire 1.1.0 callr 3.7.6
caret 7.0-1 cellranger 1.1.0 chron 2.3-62
classe 7.3-22 cli 3.6.5 clipr 0.8.0
horloge 0.7.2 cluster 2.1.6 codetools 0,2-20
espace colorimétrique 2.1-1 commonmark 1.9.5 compilateur 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
crayon 1.5.3 credentials 2.0.2 friser 6.4.0
data.table 1.17.0 ensembles de données 4.4.2 DBI 1.2.3
dbplyr 2.5.0 desc 1.4.3 devtools 2.4.5
diagramme 1.6.5 diffobj 0.3.5 digérer 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 ellipse 0.3.2 évaluer 1.0.3
fans 1.0.6 couleurs 2.1.2 carte rapide 1.2.0
fontawesome 0.5.3 condamnés 1.0.0 foreach 1.5.2
foreign 0.8-86 forge 0.2.0 fs 1.6.5
futur 1.34.0 future.apply 1.11.3 gargle 1.5.2
produits génériques 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 colle 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
graphisme 4.4.2 grDevices 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0.7 gt 0.11.1
gtable 0.3.6 hardhat 1.4.1 haven 2.5.4
highr 0.11 hms 1.1.3 outils HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 itérateurs 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1,50 étiquetage 0.4.3
plus tard 1.4.1 lattice 0.22-5 lave 1.8.1
cycle de vie 1.0.4 listenv 0.9.1 lubridate 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 méthodes 4.4.2
mgcv 1.9-1 mime 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modèleur 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.3.3 parallèle 4.4.2
parallèlement 1.42.0 pilier 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr (un package logiciel pour le traitement de données) 1.8.9 éloge 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 progrès 1.2.3
progressr 0.15.1 promesses 1.3.2 proto 1.0.0
mandataire 0,4-27 p.s. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest (algorithme d'apprentissage automatique) 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 réactif 0.4.4
reactR 0.6.1 readr 2.1.5 readxl 1.4.5
recettes 1.2.0 match retour 2.0.0 revanche2 2.1.2
remotes 2.5.0 exemple reproductible 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
écailles 1.3.0 selectr 0,4-2 informations sur la session 1.2.3
forme 1.4.6.1 brillant 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiques 4.4.2 statistiques4 4.4.2
chaine 1.8.7 stringr 1.5.1 survie 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 mise en forme de texte 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 changement d'heure 0.3.0 date-heure 4041.110
tinytex 0.56 outils 4.4.2 tzdb 0.5.0
vérificateur d'URL 1.0.1 Utilise ça 3.1.0 utf8 1.2.6
utilitaires 4.4.2 Identifiant unique universel (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 Vroom 1.6.5
Waldo 0.6.1 vibrisse 0.4.1 flétrir 3.0.2
xfun 0,51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
zip 2.3.2

Bibliothèques Java et Scala installées (version du cluster Scala 2.13)

ID de groupe ID d’artefact Version
antlr antlr 2.7.7
com.amazonaws Amazon Kinesis Client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws AWS Java SDK pour Elastic Beanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport (kit de développement logiciel Java AWS pour l'importation et l'exportation) 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-machinelearning (kit de développement logiciel AWS pour l'apprentissage automatique en Java) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-support 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics ruisseau 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml Camarade de classe 1.5.1
com.fasterxml.jackson.core jackson-annotations 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine caféine 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1 natifs
com.github.fommil.netlib système_natif-java 1.1
com.github.fommil.netlib système_natif-java 1.1 natifs
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1 natifs
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1 natifs
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone annotations_sujettes_aux_erreurs 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava goyave 33.4.0-jre
com.google.guava listenablefuture 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profileur 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (kit de développement logiciel pour le magasin Azure Data Lake) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (compression utilisant l'algorithme LZF) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-analyseurs 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections (bibliothèque de collections communes) commons-collections (bibliothèque de collections communes) 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresseur d'air 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics annotation des métriques 4.2.30
io.dropwizard.metrics métriques de base 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics métriques-vérifications de santé 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics Metrics-JMX 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics servlets de métriques 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty transport-netty-natif-commun-unix 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx collectionneur 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine conserve 1,5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk (module d'ingestion de Snowflake) 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant fourmi 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow vecteur-flèche 18.2.0
org.apache.avro Avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons texte commun 1.13.0
org.apache.curator curator-client 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator curator-recipes 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory (mémoire de croquis de données) 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop environnement d'exécution du client Hadoop 3.4.1
org.apache.hive hive-beeline (outil de ligne de commande d'Apache Hive) 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims Composant commun de hive-shims 2.3.10
org.apache.hive.shims programmeur de cales de hive 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy lierre 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc orc-format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper gardien de zoo 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino compilateur commun 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty jetty-plus 9.4.53.v20231009
org.eclipse.jetty jetty-proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security (sécurité de quai) 9.4.53.v20231009
org.eclipse.jetty serveur jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty jetty-webapp 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket serveur websocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi Localisateur de Ressources 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de conteneur jersey 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenèse 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interface de test 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatible avec scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1,10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly.openssl 1.1.3.Finale
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
stax stax-api 1.0.1

Conseil / Astuce

Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin de la prise en charge (EoS), consultez les notes de publication des versions de Databricks Runtime ayant atteint la fin de la prise en charge. Les versions d’EoS Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.