Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 17.2, mogelijk gemaakt door Apache Spark 4.0.0.
Deze versie bevat alle functies, verbeteringen en bugfixes van alle eerdere Databricks Runtime-releases. Databricks heeft deze versie uitgebracht in september 2025.
Nieuwe functies en verbeteringen
- LIKE ondersteunt UTF8_LCASE sortering
-
st_exteriorringde functie wordt nu ondersteund -
Details van pushdown weergeven in
EXPLAINen de Spark-gebruikersinterface voor remote scans -
Meerdere sessie- of lokale variabelen declareren in één
DECLAREinstructie -
Ondersteuningswoord
TEMPORARYvoor het maken van de metrische weergave - Ondersteuning voor aanvullende opdrachten met fijnmazig toegangsbeheer
-
Gegevens selectief en atomisch vervangen door
INSERT REPLACE USINGenINSERT REPLACE ON(GA) -
Systeemeigen I/O gebruiken voor
LokiFileSystem.getFileStatusS3 - ANSI-modus standaard ingeschakeld voor Pandas-API in Spark
-
Auto Loader leidt partitiekolommen af in
singleVariantColumnmodus
LIKE ondersteunt UTF8_LCASE sortering
De LIKE operator ondersteunt nu de UTF8_LCASE sortering, waardoor hoofdletterongevoelige overeenkomsten mogelijk zijn.
st_exteriorring de functie wordt nu ondersteund
U kunt nu de st_exteriorring functie gebruiken om de buitenste grens van een veelhoek te extraheren en deze als lijnen te retourneren. Zie st_exteriorring de functie.
Pushdowndetails weergeven in EXPLAIN en Spark-gebruikersinterface voor externe scans
Met het EXPLAIN commando en de Spark-UI voor RemoteSparkConnectScan op dedicated compute worden nu predicaten, aggregaties, groeperen op clauses, limieten en voorbeelden weergegeven die naar de remote scan worden gepusht.
Meerdere sessie- of lokale variabelen declareren in één DECLARE instructie
In Databricks Runtime 17.2 en hoger kunt u meerdere sessie- of lokale variabelen van hetzelfde type en dezelfde standaardwaarde in één DECLARE instructie declareren. Zie DECLARE VARIABLE en begin end samengestelde instructie.
Ondersteun trefwoord TEMPORARY voor het maken van een metrische weergave
U kunt nu het TEMPORARY trefwoord gebruiken bij het maken van een metrisch overzicht. Tijdelijke metrische weergaven zijn alleen zichtbaar in de sessie waarin ze zijn gemaakt en worden verwijderd wanneer de sessie wordt beëindigd. Zie CREATE VIEW.
Ondersteuning voor aanvullende opdrachten met fijnmazig toegangsbeheer
Fijnmazige toegangscontrole voor toegewezen rekencapaciteit ondersteunt nu de FSCK REPAIR TABLE en DESCRIBE DETAIL opdrachten.
Gegevens selectief en atomisch vervangen door INSERT REPLACE USING en INSERT REPLACE ON (GA)
INSERT REPLACE USING en INSERT REPLACE ON zijn nu algemeen beschikbaar voor Databricks Runtime 17.2. Beide SQL-opdrachten vervangen een deel van de tabel door het resultaat van een query.
INSERT REPLACE USING vervangt rijen wanneer de USING kolommen gelijk worden bevonden bij vergelijking op gelijkheid.
INSERT REPLACE ON vervangt rijen wanneer deze overeenkomen met een door de gebruiker gedefinieerde voorwaarde.
Zie INSERT in de sql-taalverwijzing en selectief gegevens overschrijven met Delta Lake.
Systeemeigen I/O gebruiken voor LokiFileSystem.getFileStatus op S3
LokiFileSystem.getFileStatus maakt nu gebruik van de systeemeigen I/O-stack voor Amazon S3-verkeer en retourneert org.apache.hadoop.fs.FileStatus objecten in plaats van shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
ANSI-modus standaard ingeschakeld voor Pandas-API in Spark
ANSI_MODE is nu standaard ingeschakeld voor Pandas-API in Spark, compute.ansi_mode_support=Truewaardoor ANSI-compatibiliteitspariteit met systeemeigen pandas wordt gegarandeerd. De compute.fail_on_ansi_mode optie is nog steeds van toepassing als compute.ansi_mode_support deze is ingesteld op False.
Met automatisch laden worden partitiekolommen afgeleid in singleVariantColumn de modus
Auto Loader leidt nu partitiekolommen af uit bestandspaden wanneer gegevens worden opgenomen als een semigestructureerd varianttype met de singleVariantColumn optie. Eerder werden partitiekolommen niet automatisch gedetecteerd. Zie opties voor automatisch laden.
Gedragswijzigingen
-
DESCRIBE CONNECTIONtoont omgevingsinstellingen voor JDBC-verbindingen - Optie voor het afkappen van uniforme geschiedenis tijdens migratie van beheerde tabellen
- SQL-syntaxis voor Delta-leesopties in streamingquery's
-
Juiste resultaten voor
splitmet lege regex en positieve limiet -
Oplossen
url_decodeentry_url_decodefoutafhandeling in Photon - Gedeelde uitvoeringsomgeving voor Unity Catalog Python UDTFs
- Rijtracering is standaard ingeschakeld voor nieuwe tabellen
- TABLE argumentondersteuning voor Unity Catalog Python UDTFs
DESCRIBE CONNECTION toont omgevingsinstellingen voor JDBC-verbindingen
Azure Databricks bevat nu door de gebruiker gedefinieerde omgevingsinstellingen in de DESCRIBE CONNECTION uitvoer voor JDBC-verbindingen die aangepaste stuurprogramma's ondersteunen en geïsoleerd worden uitgevoerd. Andere verbindingstypen blijven ongewijzigd.
Optie voor het afkappen van uniforme geschiedenis tijdens migratie van beheerde tabellen
U kunt nu de uniforme geschiedenis inkorten wanneer u tabellen migreert waarvoor Uniform/Iceberg is ingeschakeld met ALTER TABLE...SET MANAGED. Dit vereenvoudigt migraties en vermindert downtime in vergelijking met het handmatig uitschakelen en opnieuw inschakelen van Uniform.
SQL-syntaxis voor Delta-leesopties in streamingquery's
U kunt nu Delta-leesopties opgeven voor streamingquery's op basis van SQL met behulp van de WITH component. Voorbeeld:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Juiste resultaten voor split met lege regex en positieve limiet
Azure Databricks retourneert nu juiste resultaten bij gebruik split function met een lege regex en een positieve limiet. Voorheen heeft de functie de resterende tekenreeks onjuist afgekapt in plaats van deze op te geven in het laatste element.
Het verhelpen van url_decode en try_url_decode foutafhandeling in Photon
In Photon geven try_url_decode() en url_decode() met failOnError = false nu NULL terug voor ongeldige URL-gecodeerde tekenreeksen in plaats van dat de query mislukt.
Gedeelde uitvoeringsomgeving voor Unity Catalog Python UDTFs
Azure Databricks deelt nu de uitvoeringsomgeving voor door de gebruiker gedefinieerde tabelfuncties (UDDF's) van Python van dezelfde eigenaar en Spark-sessie. Er is een optionele STRICT ISOLATION clausule beschikbaar om het delen van UDTF's met bijwerkingen zoals het wijzigen van omgevingsvariabelen of het uitvoeren van willekeurige code uit te schakelen.
Rijtracering is standaard ingeschakeld voor nieuwe tabellen
Met Azure Databricks kunt u nu standaard rijen bijhouden voor alle nieuw gemaakte beheerde tabellen in Unity Catalog. Bestaande tabellen worden niet beïnvloed en behouden hun huidige instellingen voor het bijhouden van rijen.
TABLE argumentondersteuning voor Unity Catalog Python UDTFs
Unity Catalog Python UDFS ondersteunen TABLE argumenten, waardoor functies volledige tabellen als invoerparameters kunnen accepteren, waardoor complexere gegevenstransformaties en aggregaties op gestructureerde gegevenssets mogelijk zijn. Zie door de gebruiker gedefinieerde tabelfuncties (UDDF's) van Python in Unity Catalog. (Backported vanaf 17.3 LTS).
Bibliotheekverbeteringen
Bijgewerkte Python-bibliotheken:
Er zijn geen Python-bibliotheken bijgewerkt in deze versie.
Bijgewerkte R-bibliotheken:
Er zijn geen R-bibliotheken bijgewerkt in deze versie.
Bijgewerkte Java-bibliotheken:
- io.delta.delta-sharing-client_2.13 van 1.3.3 tot 1.3.5
Apache Spark
Databricks Runtime 17.2 bevat Apache Spark 4.0.0. Deze release bevat alle Spark-oplossingen en verbeteringen die zijn opgenomen in de vorige versie, evenals de volgende:
-
SPARK-53183 Java
Files.readStringgebruiken in plaats vano.a.s.sql.catalyst.util.fileToString - SPARK-51817 AnsiConfig-velden opnieuw introduceren in messageParameters van CAST_INVALID_INPUT en CAST_OVERFLOW
- SPARK-53124 Overbodige velden uit JsonTuple verwijderen
- SPARK-53106 Schemaontwikkelingstests toevoegen voor TWS Scala Spark Connect-suites
-
SPARK-53201 Gebruiken
SparkFileUtils.contentEqualsin plaats vanFiles.equal - SPARK-53308 Verwijder geen aliassen in RemoveRedundantAliases die duplicaten zouden veroorzaken
-
SPARK-53241 Ondersteuning
createArrayinSparkCollectionUtils -
SPARK-53239 Verbeteren
MapSortenSortArrayprestaties viaparallelSort - SPARK-53184 Melt() corrigeren wanneer waardekolommen tekenreeksen en getallen combineren
- SPARK-53144 CreateViewCommand in SparkConnectPlanner neveneffect-vrij maken
- SPARK-53303 Gebruik de lege statuscoder wanneer de initiële status niet is opgegeven in TWS
- SPARK-52917 Leesondersteuning om een rondreis voor binaire gegevens in XML-formaat in te schakelen.
- SPARK-53110 De functie time_trunc implementeren in PySpark
- SPARK-53107 De functie time_trunc implementeren in Scala
- SPARK-52146 Cyclische functieverwijzingen detecteren in SQL UDF's
- SPARK-52469 JEP 223-API gebruiken om Java-versie te verwerken
- SPARK-53094 Fix CUBE met een aggregaat dat HAVING clausules bevat
- SPARK-51874 TypedConfigBuilder toevoegen voor Scala-opsomming
- SPARK-53287 ANSI-migratiehandleiding toevoegen
- SPARK-43100 Metrische gegevens van Push Based Shuffle moeten correct worden gedeserialiseerd
- SPARK-53045 DESCRIBE EXTENDED moet bestand zijn tegen beschadigde metagegevens
-
SPARK-53114 Ondersteuning
joininJavaUtils - SPARK-53297 Docstring van StreamingTable Declarative Pipelines API corrigeren
- SPARK-53181 Doc-tests inschakelen onder ANSI
- SPARK-52482 Afhandeling van uitzonderingen verbeteren voor het lezen van bepaalde beschadigde zstd-bestanden
-
SPARK-52990 Ondersteuning
StringSubstitutor - SPARK-51874 TypedConfigBuilder toevoegen voor Scala-opsomming
-
SPARK-53169 Opmerkingen verwijderen die betrekking hebben op '
Set the logger level of File Appender to' uitlog4j2.properties -
SPARK-53080 Ondersteuning
cleanDirectoryinSparkFileUtilsenJavaUtils - SPARK-53045 DESCRIBE EXTENDED moet bestand zijn tegen beschadigde metagegevens
-
SPARK-53000 Hernoem
StringUtils.scalanaarStringConcat.scalainsql/apimodule - SPARK-52952 PySpark UDF Type Coercion Dev-script toevoegen
- SPARK-52998 Meerdere variabelen binnen declareren
- SPARK-51817 AnsiConfig-velden opnieuw introduceren in messageParameters van CAST_INVALID_INPUT en CAST_OVERFLOW
- SPARK-52820 Volledige plannen vastleggen in gouden bestanden
- SPARK-53274 Ondersteuning voor linker- en rechter-join pushdown in JDBCScanBuilder
- SPARK-52110 Ondersteuning voor SQL-syntaxis implementeren voor pijplijnen
- SPARK-52950 ANSI-modus inschakelen in DataSourceV2StrategySuite
- SPARK-52947 Het afbeeldingspad corrigeren in de programmeerhandleiding voor declaratieve pijplijnen
- SPARK-52592 Ondersteuning voor het maken van een ps.Series van een ps.Series
- SPARK-53301 Typehints van Pandas UDF en Arrow UDF onderscheiden
- SPARK-53146 Het neveneffect MergeIntoTable in SparkConnectPlanner gratis maken
-
SPARK-53166 Gebruik
SparkExitCode.EXIT_FAILUREinSparkPipelinesobject - SPARK-53288 Bevestigingsfout met globale streaminglimiet oplossen
- SPARK-52394 Fout voor delen door nul bij autocorr oplossen in ANSI-modus
- SPARK-51555 De functie time_diff() toevoegen
- SPARK-52948 Test_np_spark_compat_frame inschakelen onder ANSI
- SPARK-53134 Het opschonen van ongebruikte ANSI-import in tests
-
SPARK-52593 Vermijd CAST_INVALID_INPUT van
MultiIndex.to_series,Series.dotenDataFrame.dotin de ANSI-modus - SPARK-53291 Nulbaarheid voor waardekolom herstellen
- SPARK-53097 WriteOperationV2 in SparkConnectPlanner zonder bijwerkingen maken
- SPARK-53305 Ondersteuning voor TimeType in createDataFrame
-
SPARK-52914 Ondersteuning
On-Demand Log Loadingvoor roterende logs inHistory Server - SPARK-33538 Rechtstreeks IN/NOT-predikaten pushen naar de Hive Metastore
-
SPARK-52849 Toevoegen
stringifyExceptionaano.a.s.util.Utils -
SPARK-52771 Reparatie van de verbreding van het float32-type in
truediv/floordiv - SPARK-52502 Overzicht van het aantal threads
- SPARK-52788 Fout opgelost bij het converteren van binaire waarde in BinaryType naar XML
-
SPARK-53123 Ondersteuning
getRootCauseinSparkErrorUtils -
SPARK-53129 Verbeteren van
SparkShellomjava.net._standaard te importeren -
SPARK-53061 Ondersteuning
copyFileToDirectoryinSparkFileUtils - SPARK-52683 Ondersteuning voor ExternalCatalog alterTableSchema
-
SPARK-52871 Samenvoegen
o.a.s.sql.catalyst.util.SparkStringUtilsnaaro.a.s.util.SparkStringUtils -
SPARK-52817 Prestaties van expressies verbeteren
Like - SPARK-52545 Dubbele aanhalingstekens standaardiseren om de SQL-specificatie te volgen
-
SPARK-52711 Float32-type breder maken in
mul/rmulonder ANSI - SPARK-52615 File.mkdirs vervangen door Utils.createDirectory
- SPARK-52381 JsonProtocol: alleen subklassen van SparkListenerEvent accepteren
- SPARK-52613 Het herstellen van het afdrukken van de volledige stacktrace wanneer HBase/Hive DelegationTokenProvider tegen een uitzondering aanloopt.
- SPARK-52651 Gebruikersgedefinieerde type verwerken in Geneste KolomVector
- SPARK-52611 SqlConf-versie opgelost voor excludeSubqueryRefsFromRemoveRedundantAliases...
- SPARK-52552 Sla de handhaving van de CHECK-beperking over voor verwijderingen met verwijderingsvector
-
Spark-52587 spark-shell 2.13-ondersteuningsparameter
-i-I - SPARK-52492 InMemoryRelation.convertToColumnarIfPossible aanpasbaar maken
- SPARK-52451 WriteOperation in SparkConnectPlanner-neveneffect gratis maken
- SPARK-53272 SPJ-pushdownlogica herstructureren vanuit BatchScanExec
-
SPARK-53071 Ondersteuning
copyFileinSparkFileUtils - SPARK-51415 Ondersteuning voor het tijdtype per make_timestamp()
- SPARK-51554 De functie time_trunc() toevoegen
- SPARK-52426 Ondersteuning voor het omleiden van stdout/stderr naar het logboekregistratiesysteem
- SPARK-51834 Ondersteuning voor end-to-end beheer van tabelbeperkingen
- SPARK-53063 Nieuwe API's implementeren en aanroepen in FileCommitProtocol in plaats van de verouderde.
- SPARK-52546 controleer de sparkContext indien deze is gestopt bij het uitvoeren van het catch-blok in execute(), anders wordt de verkeerde status geretourneerd.
-
SPARK-53023 Afhankelijkheid verwijderen
commons-iouitsql/apimodule - SPARK-52396 Hoofdmap van artefact moet tmpdir gebruiken
-
SPARK-53131 Verbeter
SparkShellomjava.nio.file._standaard te importeren - SPARK-42322 Naam toewijzen aan to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Ondersteuning van end-to-end beheer van tabelbeperkingen
- SPARK-52484 Sla de child.supportsColumnar-bevestiging over aan de stuurzijde in ColumnarToRowExec.
- SPARK-52384 Bug Connect moet niet gevoelig zijn voor JDBC-opties
- SPARK-52034 Algemene methoden toevoegen in SparkOperation-eigenschap voor thriftserverbewerkingen
-
SPARK-53031 Ondersteuning
getFileinSparkFileUtils - SPARK-52976 Fix Python UDF accepteert geen gecollateerde tekenreeks als Invoerparameter/Retourtype (17.x)
- SPARK-52943 Schakel arrow_cast in voor alle pandas UDF-evaltypen
- SPARK-53263 Ondersteuning voor TimeType in df.toArrow
- SPARK-53141 API's toevoegen om overheadgeheugengrootte en offheap-geheugengrootte op te halen uit het resourceprofiel
- SPARK-53259 Het bericht voor INVALID_UDF_EVAL_TYPE corrigeren
- SPARK-53167 Spark launcher isRemote respecteert ook het eigenschappenbestand
-
SPARK-53165 Toevoegen
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Verbeteren van het herhalen van UTF8String
-
SPARK-53170 Verbeteren
SparkUserAppExceptionom parameter te hebbencause - SPARK-52989 Expliciete close() API toevoegen aan State Store-iterators
- SPARK-53074 Vermijd gedeeltelijke clustering in SPJ om te voldoen aan de vereiste distributie van een kind
- SPARK-52252 ScalaUDF-encoders in subquery moeten worden opgelost
- SPARK-53244 Sla geen configuraties op waarbij 'dual-run' en 'tentatieve modus' zijn ingeschakeld tijdens het aanmaken van de view
- SPARK-53192 Een DataSource altijd opslaan in de Spark Connect-plancache
- SPARK-51813 Een niet-nullable DefaultCachedBatchKryoSerializer toevoegen om null-doorgifte in DefaultCachedBatch-serde te voorkomen
- SPARK-52904 Opnieuw toepassen [SC-202233][python] Enable convertToArrowArrayS...
-
SPARK-53253 Register-UDF van het type herstellen
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 De ondersteunde evaltypen weergeven in pijlknooppunten
-
SPARK-53130 Gedrag van gesorteerde tekenreekstypen corrigeren
toJson -
SPARK-53003 Ondersteuning
stripinSparkStringUtils - SPARK-51902 Sync OSS: Controlebeperking afdwingen bij tabelinvoeging
- SPARK-52047 PySparkValueError verhogen voor niet-ondersteunde tekentypen
-
SPARK-53004 Ondersteuning
abbreviateinSparkStringUtils - SPARK-53066 Uitvoer voor DSv2 Join pushdown verbeteren EXPLAIN
- SPARK-30848 ProductHash verwijderen uit TreeNode
-
SPARK-53046 Java
readAllBytesgebruiken in plaats vanIOUtils.toByteArray -
SPARK-53206 Gebruiken
SparkFileUtils.movein plaats vancom.google.common.io.Files.move - SPARK-53066 Uitvoer voor DSv2 Join pushdown verbeteren EXPLAIN
- SPARK-53069 Onjuiste metrische gegevens voor statusopslag oplossen met virtuele kolomfamilies
- SPARK-52904 ConvertToArrowArraySafely standaard inschakelen [17.x]
- SPARK-52821 int-DecimalType> pyspark udf retourtype omvorming
-
SPARK-51562 Functie toevoegen
time - SPARK-52971 De grootte van de niet-actieve Python-werkrolwachtrij beperken
-
SPARK-53057 Ondersteuning
sizeOfinSparkFileUtilsenJavaUtils - SPARK-53040 Zelfverwijzingen in de hoogste niveaus van CTE's in recursieve CTE's verbieden
- SPARK-53104 Introduceer ansi_mode_context om meerdere configuratiecontroles per API-aanroep te voorkomen
-
SPARK-47547 V2 toevoegen
BloomFilteren als standaard gebruiken -
SPARK-53098
DeduplicateRelationszou expressies niet opnieuw moeten toewijzen als de oudeExprIdnog steeds in de uitvoer bestaat -
SPARK-53049 Ondersteuning
toStringinSparkStreamUtils -
SPARK-53062 Ondersteuning
deleteQuietlyinSparkFileUtilsenJavaUtils -
SPARK-53070 Ondersteuning
is(Not)?EmptyinSparkCollectionUtils - SPARK-53020 JPMS-args moeten ook van toepassing zijn op niet-SparkSubmit-proces
- SPARK-52968 Aanvullende metrische gegevens voor statusopslag verzenden
- SPARK-52975 Veldnamen vereenvoudigen in pushdown join sql
- SPARK-52926 SQLMetric toegevoegd voor de duur van het ophalen van een extern schema.
- SPARK-53059 Arrow UDF hoeft niet afhankelijk te zijn van pandas
-
SPARK-52646 Vermijd CAST_INVALID_INPUT
__eq__in de ANSI-modus -
SPARK-52622 Vermijd CAST_INVALID_INPUT
DataFrame.meltin de ANSI-modus - SPARK-52985 TypeError verhogen voor pandas numpy operand in vergelijkingsoperatoren
-
SPARK-52580 Vermijd CAST_INVALID_INPUT
replacein de ANSI-modus - SPARK-52549 Recursieve CTE-zelfverwijzingen uitschakelen vanuit vensterfuncties en binnen sorteerbewerkingen
-
SPARK-52895 Voeg geen dubbele elementen toe in
resolveExprsWithAggregate - SPARK-50748 Een race-conditieprobleem oplossen dat optreedt wanneer bewerkingen worden onderbroken
- SPARK-52737 Pushdown-predicaat en aantal applicaties naar FsHistoryProvider bij het weergeven van toepassingen.
- SPARK-53018 ArrowStreamArrowUDFSerializer moet het argument arrow_cast respecteren
- SPARK-53013 Oplossing voor Arrow-geoptimaliseerde Python UDTF die geen rijen retourneert bij laterale join
- SPARK-51834 Sync OSS: ondersteuning voor aanpassen van end-to-end tabelbeperkingen, toevoegen/verwijderen van beperkingen
- SPARK-52921 Specificeer de outputpartitionering voor UnionExec zodat deze overeenkomt met de uitvoerdeelverzameling van de onderliggende operators.
- SPARK-52908 Voorkom dat de naam van de iteratorvariabele conflicteert met namen van labels in het pad naar de wortel van de AST.
- SPARK-52954 Arrow UDF-ondersteuning retourtype omvorming
- SPARK-52925 Retourneert het juiste foutbericht voor ankerzelfverwijzingen in rCTEs
- SPARK-52889 De functie current_time implementeren in PySpark
- SPARK-52675 Onderbreken van vastgelopen ML-handlers in tests
- SPARK-52959 Ondersteuning voor UDT in Arrow-geoptimaliseerde Python UDTF
- SPARK-52962 BroadcastExchangeExec mag metrische gegevens niet opnieuw instellen
- SPARK-52956 Aliasmetagegevens behouden bij het samenvouwen van projecten
- SPARK-52890 De functies to_time en try_to_time implementeren in PySpark
- SPARK-52888 De make_time-functie implementeren in PySpark
- SPARK-52892 Ondersteuning voor TIME in de functies uur, minuut en tweede in PySpark
- SPARK-52837 Ondersteuning voor TimeType in pyspark
- SPARK-52023 Herstel gegevensbeschadiging/segfault bij het retourneren van Option[Product] van UDAF
- SPARK-52955 Retourtypen van WindowResolution.resolveOrder en WindowResolution.resolveFrame wijzigen in WindowExpression
- SPARK-52166 Ondersteuning voor PipelineEvents toevoegen
- SPARK-51834 Oplossing: geldig uit toDDL verwijderen
- SPARK-52735 Ontbrekende foutvoorwaarden voor SQL UDF's oplossen
- SPARK-51834 Synchroniseren OSS-ondersteuning voor end-to-end aanmaken/vervangen van tabel met beperking
- SPARK-51834 Synchroniseer OSS-update ResolvedIdentifier unapply-aanroepen
- SPARK-52929 biedt ondersteuning van MySQL- en SQL Server connector voor het DSv2 Join pushdown
- SPARK-52448 Voeg vereenvoudigde Struct Expression.Literal toe
- SPARK-52882 De functie current_time implementeren in Scala
- SPARK-52905 Pijl-UDF voor venster
-
SPARK-52876 Een typefout
buffercorrigeren naarbodyinChunkFetchSuccess.toString - SPARK-52883 De functies to_time en try_to_time implementeren in Scala
-
SPARK-52751 Valideer de kolomnaam niet voortijdig in
dataframe['col_name'] - SPARK-52791 Fout opgelost bij het afleiden van een UDT met null als eerste element
-
SPARK-52686
Unionmoet alleen worden opgelost als er geen duplicaten zijn - SPARK-52881 De functie make_time implementeren in Scala
- SPARK-52919 Herstel van DSv2 Join-pushdown om de eerder gealiaserde kolom te gebruiken
-
SPARK-52866 Ondersteuning toevoegen voor
try_to_date - SPARK-52846 Een metrische waarde toevoegen in JDBCRDD voor hoe lang het duurt om de resultatenset op te halen
- SPARK-52859 SparkSystemUtils-eigenschap toevoegen
- SPARK-52823 Ondersteuning voor DSv2 Join pushdown voor Oracle-connector
- SPARK-52165 Build-scaffolding instellen voor het pijplijnproject
- SPARK-52869 FramelessOffsetWindowFunction-validatie toevoegen om validateResolvedWindowExpression te gebruiken voor hergebruik in éénmalige analyse
- SPARK-52885 Implementeer de functies uur, minuut en seconde in Scala voor het type TIJD
- SPARK-52903 Knip niet-topniveau-aliasen vóór LCA-resolutie
- SPARK-52832 JDBC-dialect-id herstellen
-
SPARK-52870 Plaats correct aanhalingstekens rond variabelenamen in
FORinstructie -
SPARK-52859 Eigenschap toevoegen
SparkSystemUtils -
SPARK-52900 Gebruik
SparkStringUtils.stringToSeqinFsHistoryProvider - SPARK-52809 Houd geen lezer- en iteratorverwijzingen vast voor alle partities in taakafhandelingslisteners voor het bijwerken van statistieken
-
SPARK-52815 Verbetering van
SparkClassUtilster ondersteuning vangetAllInterfaces - SPARK-52795 RunId opnemen in logboeken voor statusopslag
- SPARK-52779 Letterlijke ondersteuning voor TimeType in Connect
- SPARK-52899 QueryExecutionErrorsSuite-test herstellen om H2Dialect terug te registreren
-
SPARK-52862 De controle op null-baarheid van
Decimal('NaN') - SPARK-52214 Arrow-UDF voor aggregatie
- SPARK-52787 De directory voor streaming-executie rondom runtime- en controlepuntgebieden herordenen
- SPARK-51564 TIJD parseren in de kloknotatie van 12 uur
-
SPARK-52859 Eigenschap toevoegen
SparkSystemUtils -
SPARK-51562 Functie toevoegen
time - SPARK-52850 Conversies overslaan wanneer het om een identiteitsfunctie gaat
- SPARK-52863 Codepaden opschonen voor oude pandas-versies
- SPARK-52516 Houd de vorige iteratorverwijzing niet vast nadat u naar het volgende bestand in ParquetPartitionReaderFactory bent doorgevorderd
-
SPARK-52848 Vermijd het casten naar
Doublebij het omzetten van TIJD/TIJDSTEMPEL naar DECIMAL -
SPARK-52770 Ondersteuning van
TIMEtype in verbindingsprotocol - SPARK-52842 Nieuwe functionaliteit en bugfixes voor single-pass analyzer
- SPARK-52620 Ondersteuning voor conversie van TIME naar DECIMAL
- SPARK-52783 Validatielogica van windowFunction herstructureren van checkAnalysis voor hergebruik in single-pass analyzer
- SPARK-51695 Synchroniseer OSS aanmaken/vervangen/wijzigen tabel voor unieke beperking via DSv2
- SPARK-51695 Oss-drop-beperking synchroniseren via DSv2
- SPARK-52824 Foutclassificatie CheckpointFileManager
- SPARK-52829 Herstel LocalDataToArrowConversion.convert zodat lege rijen correct worden verwerkt
- SPARK-52811 ArrowTableToRowsConversion.convert optimaliseren om de prestaties te verbeteren
- SPARK-52796 LocalDataToArrowConversion.convert optimaliseren om de prestaties te verbeteren
- SPARK-51695 Synchronisatie van wijzigingen in de OSS Alter Table Add Constraint-parser
- SPARK-52619 Cast TimeType naar IntegralType
- SPARK-52187 Introduceren van join pushdown voor DSv2
- SPARK-52782 NULL retourneren van +/- op datum/tijd met NULL
- SPARK-51695 Parserwijzigingen introduceren voor tabelbeperkingen (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationsmoet positief zijn - SPARK-52776 Het comm-veld niet splitsen in ProcfsMetricsGetter
-
SPARK-52793 Ondersteuning
isUnixopo.a.s.util.Utils -
SPARK-52792 Afhankelijkheid verwijderen
commons-lang3uitnetwork-common -
SPARK-52797 Gebruiken
Utils.isWindowsin plaats van opnieuw te evaluerenPythonWorkerFactory - SPARK-52784 TimeZoneAware-cast toevoegen in WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Initialisatie van Resource Profile Manager vertragen totdat de invoegtoepassing is geladen
- SPARK-52565 Rangschikking afdwingen vóór andere sorteervolgordeexpressies
- SPARK-52740 Los NPE op in HDFSBackedStateStoreProvider bij toegang tot StateStoreConf.sqlConf wanneer de versie van de controlepuntindeling >=2 is
- SPARK-52673 Voeg gRPC RetryInfo-afhandeling toe aan het herhalingsbeleid van Spark Connect
- SPARK-52724 Verbeter de OOM-foutafhandeling van broadcast-joins met SHUFFLE_MERGE hint-ondersteuning
- SPARK-52781 Typfout van dtyeps in internal.py oplossen
- SPARK-52730 Onderliggende stuurprogramma- en databaseversie opslaan in JDBCRDD
- SPARK-52727 Vensterresolutie herstructureren om deze opnieuw te gebruiken in single-pass analyzer
- SPARK-52695 Gebruikersgedefinieerd type schrijfondersteuning voor xml-bestandsindeling
- SPARK-52722 JdbcRDD-klasse verwijderen
- SPARK-51695 Parserwijzigingen introduceren voor tabelbeperkingen (CHECK, PK, FK)
- SPARK-52763 OndersteuningsTIJD aftrekken
- SPARK-52768 Typfout 'verplaatsen' in pandas/series.py
- SPARK-52730 Onderliggende stuurprogramma- en databaseversie opslaan in JDBCRDD
-
SPARK-52694 API toevoegen
o.a.s.sql.Encoders#udt -
SPARK-52720 Repareren van het verbreden van Float32-type in
add/raddonder ANSI - SPARK-52723 Validatie van kolomnaam aan serverzijde
-
SPARK-52760 Fix verbreding van float32-type in
sub/rsubonder ANSI -
SPARK-52738 Ondersteuning voor de aggregatie van het TIME-type met een UDAF wanneer de onderliggende buffer een
UnsafeRow - SPARK-52704 Vereenvoudig interoperaties tussen SQLConf- en bestandsindelingsopties in TextBasedFileFormats
- SPARK-52706 Inconsistenties en primitieve typen herstructureren in parser oplossen
-
SPARK-52718 Float32-type verbreding oplossen in
rmod/modonder ANSI - SPARK-52736 Typfouten 'verplaatsen' in pyspark/pandas/generic.py
Ondersteuning voor AZURE Databricks ODBC/JDBC-stuurprogramma
Databricks ondersteunt ODBC-/JDBC-stuurprogramma's die in de afgelopen 2 jaar zijn uitgebracht. Download de onlangs uitgebrachte stuurprogramma's en upgrade (download ODBC, download JDBC).
Systeemomgeving
- Besturingssysteem: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Geïnstalleerde Python-bibliotheken
| Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
|---|---|---|---|---|---|
| geannoteerde typen | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi koppelstukken | 21.2.0 | pijl | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | kenmerken | 24.3.0 |
| autocommando | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Azure Storage File Data Lake | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | zwart | 24.10.0 |
| bleekmiddel | 6.2.0 | knipperlicht | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools | 5.5.1 | certificaat | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | charset-normalizer | 3.3.2 |
| klikken | 8.1.7 | cloudpickle | 3.0.0 | communicatie | 0.2.1 |
| contourpy | 1.3.1 | cryptografie | 43.0.3 | wielrijder | 0.11.0 |
| Cython | 3.0.12 | databricks-sdk (softwareontwikkelkit) | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | decorateur | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | Van docstring naar markdown | 0.11 |
| Uitvoeren | 0.8.3 | facettenoverzicht | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | bestandsvergrendeling | 3.18.0 | lettertypegereedschappen | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | Google-authenticatie | 2.40.0 |
| google-cloud-core | 2.4.3 | Google Cloud Storage (opslag in de cloud van Google) | 3.1.0 | google-crc32c | 1.7.1 |
| google-heropneembare-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | "importlib_resources is een Python-pakket dat hulpbronnenbeheer mogelijk maakt binnen de applicatie." | 6.4.0 | vervoegen | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate (ISO-datum) | 0.6.1 | isoduratie | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-specifications | 2023.7.1 | jupyter-evenementen | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | Jupyter-server | 2.14.1 |
| Jupyter-serverterminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| onstemmen | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal (Microsoft Authentication Library) | 1.32.3 | msal-uitbreidingen | 1.3.1 |
| mypy-extensions | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notebook | 7.3.2 | notitieboek_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantische-conventies | 0,53b1 | Overschrijvingen | 7.4.0 | verpakking | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| pathspec | 0.10.3 | Patsy | 1.0.1 | pexpect | 4.8.0 |
| kussen | 11.1.0 | ropje | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | plugachtig | 1.5.0 | prometheus_client | 0.21.0 |
| prompt-hulpmiddelenpakket | 3.0.43 | proto-plus | 1.26.1 | protocolbuffers | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic (een Python-bibliotheek voor datavalidatie en instellingenbeheer) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil (een bibliotheek voor datum- en tijdgebaseerde functionaliteit in Python) | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | verwijzen | 0.30.2 | Verzoeken | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rijk | 13.9.4 |
| touw | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | Scipy (een wetenschappelijke bibliotheek voor Python) | 1.15.1 |
| geboren op zee | 0.13.2 | Send2Trash | 1.8.2 | setuptools (een Python-pakket voor het beheren van installatie en distributie van pakketten) | 74.0.0 |
| Zes | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| gesorteerde containers | 2.4.0 | Soupsieve | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | stapelgegevens | 0.2.0 | sterretje | 0.46.2 |
| statsmodels | 0.14.4 | strictyaml | 1.7.3 | vasthoudendheid | 9.0.0 |
| afgerond | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| Traitlets (Python library voor het configureren van Python-objecten) | 5.14.3 | typebeveiliging | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typuitbreidingen | 4.12.2 | tzdata | 2024.1 | ujson (een Python-bibliotheek voor snelle JSON-verwerking) | 5.10.0 |
| automatische upgrades zonder toezicht | 0,1 | URI-sjabloon | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | Webencoderingen | 0.5.1 |
| websocket-client | 1.8.0 | whatthepatch | 1.0.2 | wiel | 0.45.1 |
| widgetsnbextension | 3.6.6 | omsloten | 1.17.0 | yapf | 0.40.2 |
| ritssluiting | 3.21.0 |
Geïnstalleerde R-bibliotheken
R-bibliotheken worden geïnstalleerd vanuit de Posit Package Manager CRAN-momentopname op 2025-03-20.
| Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
|---|---|---|---|---|---|
| pijl | 19.0.1 | wachtwoord vragen | 1.2.1 | verzeker dat | 0.2.1 |
| terugimporten | 1.5.0 | basis | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | 64-bitsysteem | 4.6.0-1 |
| bitops | 1.0-9 | Druppel | 1.2.4 | opstarten | 1.3-30 |
| brouwen | 1.0-10 | Brio | 1.1.5 | bezem | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | oproeper | 3.7.6 |
| Caret | 7.0-1 | cellranger (softwaretool voor genetische analyse) | 1.1.0 | Chrono | 2.3-62 |
| class | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| klok | 0.7.2 | groep | 2.1.6 | codetools | 0.2-20 |
| kleurenruimte | 2.1-1 | commonmark | 1.9.5 | programmacompileerder | 4.4.2 |
| config | 0.3.2 | Tegenstrijdig | 1.2.0 | cpp11 | 0.5.2 |
| krijt | 1.5.3 | credentials | 2.0.2 | curl | 6.4.0 |
| gegevenstabel | 1.17.0 | gegevenssets | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | beschrijving | 1.4.3 | devtools | 2.4.5 |
| schematisch overzicht | 1.6.5 | diffobj | 0.3.5 | samenvatten | 0.6.37 |
| neerwaartse verlichting | 0.4.4 | dplyr (een R-pakket voor gegevensmanipulatie) | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | ellips | 0.3.2 | beoordelen | 1.0.3 |
| fans | 1.0.6 | kleuren | 2.1.2 | snelle kaart | 1.2.0 |
| Fontawesome | 0.5.3 | dwangarbeiders | 1.0.0 | foreach | 1.5.2 |
| buitenland | 0,8-86 | smederij | 0.2.0 | fs | 1.6.5 |
| toekomst | 1.34.0 | future.apply | 1.11.3 | gorgelen | 1.5.2 |
| Generieken | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globale variabelen | 0.18.0 | lijm | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| afbeeldingen | 4.4.2 | grDevices | 4.4.2 | raster / netwerk | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtable | 0.3.6 | veiligheidshelm | 1.4.1 | toevluchtsoord/schuilplaats | 2.5.4 |
| hoger | 0.11 | HMS | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | identiteiten | 1.0.1 | ini | 0.3.1 |
| IPRED | 0.9-15 | isoband | 0.2.7 | Iteratoren | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | JuicyJuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.50 | Etikettering | 0.4.3 |
| daarna | 1.4.1 | latwerk | 0,22-5 | lava | 1.8.1 |
| levenscyclus | 1.0.4 | luisteren | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | MASSA | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoriseer | 2.0.1 | Methoden | 4.4.2 |
| mgcv | 1.9-1 | mimekunst | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | modelleur | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | nnet | 7.3-19 |
| numDeriv | 2016.8 tot 1.1 | OpenSSL-software | 2.3.3 | evenwijdig | 4.4.2 |
| op een parallelle wijze | 1.42.0 | pilaar | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | prijzen | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Processx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | vooruitgang | 1.2.3 |
| progressr | 0.15.1 | beloften | 1.3.2 | proto | 1.0.0 |
| tussenpersoon | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reageerbaar | 0.4.4 |
| reactR | 0.6.1 | readr | 2.1.5 | readxl (een programma voor het lezen van Excel-bestanden) | 1.4.5 |
| Recepten | 1.2.0 | Herwedstrijd | 2.0.0 | revanche2 | 2.1.2 |
| Afstandsbedieningen | 2.5.0 | reprex (reproduceerbaar voorbeeld) | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart (een R-pakket voor beslissingsboommodellering) | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest (een softwarepakket voor webscraping) | 1.0.4 | Sass | 0.4.9 |
| weegschalen | 1.3.0 | Selectr | 0,4-2 | sessiegegevens | 1.2.3 |
| vorm | 1.4.6.1 | glanzend | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| ruimtelijk | 7.3-17 | Spieën | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistieken | 4.4.2 | statistieken4 | 4.4.2 |
| strings | 1.8.7 | stringr | 1.5.1 | overleven | 3.5-8 |
| Bravoure | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | tekstvorming | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | tijdverandering | 0.3.0 | tijd en datum | 4041.110 |
| tinytex | 0.56 | gereedschappen | 4.4.2 | tzdb | 0.5.0 |
| URL-controleprogramma | 1.0.1 | gebruik dit | 3.1.0 | utf8 | 1.2.6 |
| hulpmiddelen | 4.4.2 | UUID (Universally Unique Identifier) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.5 |
| Waldo | 0.6.1 | snorharen | 0.4.1 | verwelken | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML | 2.3.10 | zeloot | 0.1.0 |
| ZIP-bestand | 2.3.2 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.13-clusterversie)
| Groeps-id | Artefact-ID | Versie |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (Amazon Web Services Java Software Development Kit voor automatisch schalen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (configuratie) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | AWS Java SDK Datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | AWS Java SDK - Elastic Load Balancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK Glacier) | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (een softwareontwikkelingskit voor het werken met AWS Glue in Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS Java SDK Import/Export | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logbestanden | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-MachineLearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway (een Java software development kit voor het beheren van opslaggateways in AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-ondersteuning | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | beek | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-gekleurd | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | klasgenoot | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | cafeïne | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-autochtonen |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-autochtonen |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-autochtonen |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-autochtonen |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson (een Java-bibliotheek voor het converteren van Java-objecten naar JSON en vice versa) | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone (foutgevoelig) | foutgevoelige_aantekeningen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | toegangsfalen | 1.0.2 |
| com.google.guava | guave | 33.4.0-jre |
| com.google.guava | luisterbare toekomst | 9999.0-leeg-om-conflict-met-guava-te-vermijden |
| com.google.j2objc | j2objc-aantekeningen | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profielmaker | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure-Data-Lake-Store-SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (een compressie-algoritme) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core (Java-architectuur voor XML-binding) | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| gemeenschappelijke collecties | gemeenschappelijke collecties | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| bestandsupload van commons | bestandsupload van commons | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| gemeenschappelijke-logboekvoorziening | gemeenschappelijke-logboekvoorziening | 1.1.3 |
| commons-pool (gemeenschappelijke pool) | commons-pool (gemeenschappelijke pool) | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | explosie | 3.0.3 |
| dev.ludovic.netlib | LAPACK | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | luchtdrukmachine | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | annotatie van metrieken | 4.2.30 |
| io.dropwizard.metrics | kern van metrische gegevens | 4.2.30 |
| io.dropwizard.metrics | Metrics-Graphite | 4.2.30 |
| io.dropwizard.metrics | meetwaarden-gezondheidscontroles | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 (een Jetty-implementatie voor het meten van prestatie-indicatoren) | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metrics-json (metrische gegevens in JSON-formaat) | 4.2.30 |
| io.dropwizard.metrics | metriekgegevens voor JVM | 4.2.30 |
| io.dropwizard.metrics | metrieke gegevens-servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | Netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-sokken | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | netty-resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-klassen | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-natieve-unix-algemeen | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common (algemene module voor eenvoudige client) | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_traceerder_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | verzamelaar | 0.18.0 |
| jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activatie | 1.1.1 |
| javax.annotatie | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transactie-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pekelen | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.sneeuwvlok | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mier | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher (startprogramma voor Ant) | 1.10.11 |
| org.apache.arrow | pijl-formaat | 18.2.0 |
| org.apache.arrow | pijlpunt-geheugen-kern | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | arrow-geheugen-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | vector met pijl | 18.2.0 |
| org.apache.avro | AVRO | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress - een bibliotheek voor compressie | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-tekst | 1.13.0 |
| org.apache.curator | beheerder-cliënt | 5.7.1 |
| org.apache.curator | curatorraamwerk | 5.7.1 |
| org.apache.curator | curatorrecepten | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | gegevensschetsen-geheugen | 3.0.2 |
| org.apache.derby | Derbywedstrijd | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-uitvoeringsomgeving | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-opslag-API | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common (if no translation is needed for understanding, the original can be kept as is) | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | klimop | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-indeling | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | orc-shims | 2.1.1 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | annotaties voor het publiek | 0.13.0 |
| org.apache.zookeeper | dierentuinverzorger | 3.9.3 |
| org.apache.zookeeper | dierentuinopzichter-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | algemene compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-voortzetting | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-proxy (een omgekeerde proxy server gebaseerd op Jetty) | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-beveiliging | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-webapp | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokalisator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-hulpbronnenzoeker | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-opnieuw verpakt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Algemene Jersey | 2.41 |
| org.glassfish.jersey.core | Jersey-Server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Aantekeningen | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest-compatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | katten-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |
Aanbeveling
Voor het bekijken van releaseopmerkingen voor Databricks Runtime-versies die het einde van de ondersteuning (EoS) hebben bereikt, zie Releaseopmerkingen voor Databricks Runtime die het einde van de ondersteuning hebben bereikt. De EoS Databricks Runtime-versies zijn buiten gebruik gesteld en worden mogelijk niet bijgewerkt.