Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 18.1 (bèta).
Deze versie bevat alle functies, verbeteringen en bugfixes van alle eerdere Databricks Runtime-releases. Databricks heeft deze versie uitgebracht in februari 2026.
Belangrijk
Databricks Runtime 18.1 bevindt zich in de bètaversie. De inhoud van de ondersteunde omgevingen kan tijdens de bètaversie veranderen. Wijzigingen kunnen de lijst met pakketten of versies van geïnstalleerde pakketten bevatten.
Nieuwe functies en verbeteringen
- Auto Loader maakt standaard gebruik van bestandsevenementen wanneer deze beschikbaar zijn
- Geoptimaliseerde schrijfbewerkingen voor gepartitioneerde Unity Catalog-tabellen die zijn gemaakt met CRTAS
- Ondersteuning voor het gegevenstype DATETIMEOFFSET voor Microsoft Azure Synapse
- Opmerkingen bij Google BigQuery-tabellen
- Schemaontwikkeling met INSERT instructies
- Bewaarde NULL-structwaarden in INSERT bewerkingen
- Ondersteuning voor transacties met meerdere instructies voor Delta Sharing
- DataFrame-controlepunten in volumepaden
- SQL-opdrachten worden niet meer opnieuw uitgevoerd bij het aanroepen van cache()
- parse_timestamp SQL-functie
- SQL Cursor-Ondersteuning in samengestelde instructies
- Geschatte top-k schets functies
- Tuple-schetsenfuncties
Auto Loader maakt standaard gebruik van bestandsevenementen wanneer deze beschikbaar zijn
Automatisch laden maakt standaard gebruik van bestandsevenementen bij het laden vanaf een externe locatie waarvoor bestandsevenementen zijn ingeschakeld, waardoor lijstbewerkingen en -kosten worden verminderd in vergelijking met mapvermeldingen. Zie Auto Loader met overzicht van bestandsevenementen. Bestandsevenementen worden niet gebruikt als uw streamcode sets useIncrementalListing of useNotifications. Als u in plaats daarvan de adreslijstvermelding wilt gebruiken, stelt u useManagedFileEvents in op false.
Geoptimaliseerde schrijfbewerkingen voor gepartitioneerde Unity Catalog-tabellen die zijn gemaakt met CRTAS
Geoptimaliseerde schrijfbewerkingen zijn van toepassing op gepartitioneerde Unity Catalog-tabellen die zijn gemaakt door CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), waardoor er minder grotere bestanden worden geproduceerd. Dit gedrag is standaard ingeschakeld. Stel spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled in op false om uit te schakelen.
Ondersteuning voor het gegevenstype DATETIMEOFFSET voor Microsoft Azure Synapse
Het DATETIMEOFFSET gegevenstype wordt ondersteund voor Microsoft Azure Synapse-verbindingen.
Opmerkingen bij Google BigQuery-tabellen
Beschrijvingen van Google BigQuery-tabellen worden opgelost en weergegeven als tabelopmerkingen.
Schema-evolutie met INSERT instructies
Gebruik de WITH SCHEMA EVOLUTION component met SQL-instructies INSERT om het schema van de doeltabel automatisch te ontwikkelen tijdens het invoegen van bewerkingen. De component wordt ondersteund voor INSERT INTO, INSERT OVERWRITEen INSERT INTO ... REPLACE formulieren. Voorbeeld:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Het schema van de Delta Lake-doeltabel wordt bijgewerkt voor extra kolommen of uitgebreide typen uit de bron. Zie schema-evolutie en syntaxis van INSERT-instructie voor meer informatie.
NULL-structwaarden behouden in INSERT-bewerkingen
INSERT bewerkingen met schemaontwikkeling of impliciete casting behouden NULL structwaarden wanneer de bron- en doeltabellen verschillende structveldvolgordes hebben.
Ondersteuning voor transacties met meerdere statements voor Delta Sharing
Delta Sharing-tabellen die vooraf ondertekende URL- of cloudtoken-delingsmodi gebruiken, bieden ondersteuning voor transacties met meerdere statements. Bij eerste toegang binnen een transactie wordt de tabelversie vastgemaakt en opnieuw gebruikt voor alle volgende leesbewerkingen in die transactie.
Limitations:
- Tijdreizen, wijzigingen in gegevensfeed en streaming worden niet ondersteund.
- Transacties met meerdere instructies worden niet ondersteund voor gedeelde tabellen zonder geschiedenis.
- Gedeelde weergaven en externe entiteiten zijn niet toegestaan voor niet-vertrouwde berekeningen.
DataFrame-controlepunten in volumepaden
DataFrame-controlepunten ondersteunen volumepaden van Unity Catalog. Configureer het controlepuntpad met behulp van SparkContext.setCheckpointDir op toegewijde rekenkracht of de spark.checkpoint.dir-configuratie op standaard rekenkracht.
SQL-opdrachten worden niet meer opnieuw uitgevoerd bij het aanroepen van cache()
SQL-opdrachten worden niet meer opnieuw uitgevoerd bij het aanroepen .cache() van het dataframe met resultaten. Dit omvat opdrachten zoals SHOW TABLES en SHOW NAMESPACES.
parse_timestamp SQL-functie
De parse_timestamp SQL-functie parseert tijdstempeltekenreeksen op meerdere patronen. Het wordt gefotoniseerd voor een snellere evaluatie met tijdstempels in verschillende indelingen. Zie Datum/tijd-patronen voor informatie over datum/tijd-patroonopmaak.
Ondersteuning van SQL-cursors in samengestelde instructies
Samengestelde SQL-scriptinstructies ondersteunen nu cursorverwerking. Gebruik DECLARE CURSOR om een cursor te definiëren en vervolgens de INSTRUCTIE OPEN, FETCH-instructie en CLOSE-instructie om de query uit te voeren en rijen één voor één te gebruiken. Cursors kunnen parametermarkeringen en voorwaardehandlers gebruiken, zoals NOT FOUND voor het verwerken van rijen per rij.
Geschatte top-k schetsfuncties
Nieuwe functies maken het bouwen en combineren van geschatte top-K-schetsen mogelijk voor gedistribueerde top-K-aggregatie:
-
approx_top_k_accumulate: Hiermee wordt per groep een schets gemaakt. Zieapprox_top_k_accumulateaggregatiefunctie. -
approx_top_k_combine: voegt schetsen samen. Zieapprox_top_k_combineaggregatiefunctie. -
approx_top_k_estimate: retourneert de bovenste K-items met geschatte aantallen. Zieapprox_top_k_estimatede functie.
Zie approx_top_k statistische functies en ingebouwde functies voor meer informatie.
Tuple-schetsfuncties
Nieuwe aggregaat- en scalaire functies voor tupleschets bieden ondersteuning voor onderscheidende tellingen en aggregatie ten opzichte van sleutel-samenvattingsparen.
Aggregatiefuncties
-
tuple_sketch_agg_doublestatistische functie -
tuple_sketch_agg_integerstatistische functie -
tuple_union_agg_doublestatistische functie -
tuple_union_agg_integerstatistische functie -
tuple_intersection_agg_doublestatistische functie -
tuple_intersection_agg_integerstatistische functie
Scalaire functies:
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
Zie ingebouwde functies.
Gedragswijzigingen
- FILTER-clausule voor MEASURE-aggregatiefuncties
- Geoptimaliseerde schrijfbewerkingen voor CRTAS-bewerkingen in Unity Catalog
- DataFrame-cache vernieuwen voor verfijnde toegangsbeheertabellen
- Tijdstempelpartitiewaarden maken gebruik van sessietijdzone
- DESCRIBE FLOW gereserveerd trefwoord
- Prestatieverbetering georuimtelijke bewerkingen
- Uitzonderingstypen voor SQLSTATE
- Automatische verbreiding van streamingtypen
FILTER-clausule voor MEASURE-aggregatiefuncties
MEASURE-aggregeratiefuncties ondersteunen nu FILTER-clausules. Voorheen werden filters stilletjes genegeerd.
Geoptimaliseerde schrijfbewerkingen voor CRTAS-bewerkingen in Unity Catalog
AANMAKEN OF VERVANGEN VAN TABLE ALS SELECT (CRTAS) bewerkingen op gepartitioneerde Unity Catalog-tabellen passen nu standaard geoptimaliseerde schrijfbewerkingen toe. Stel spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled in op false om uit te schakelen.
DataFrame-cache vernieuwen voor verfijnde toegangsbeheertabellen
Schrijven naar verfijnde toegangsbeheertabellen op toegewezen rekenkracht vernieuwt nu dataframes in de cache die afhankelijk zijn van de tabel.
Tijdstempelpartitiewaarden maken gebruik van sessietijdzone
Tijdstempelpartitiewaarden maken gebruik van de Spark-sessietijdzone in plaats van de JVM-tijdzone. Als u tijdstempelpartities hebt die zijn geschreven vóór Databricks Runtime 18.0, voert u uit SHOW PARTITIONS om uw partitiemetagegevens te controleren voordat u nieuwe gegevens schrijft.
Het trefwoord DESCRIBE FLOW is gereserveerd
De DESCRIBE FLOW opdracht is nu beschikbaar. Als u een tabel hebt met de naam flow, gebruik DESCRIBE schema.flow, DESCRIBE TABLE flow of DESCRIBE `flow` met backticks.
Prestatieverbetering van geospatiale bewerkingen
Georuimtelijke booleaanse setbewerkingen maken gebruik van een nieuwe implementatie met verbeterde prestaties. Kleine precisieverschillen kunnen optreden na de 15e decimaalteken.
Uitzonderingstypen voor SQLSTATE
Uitzonderingstypen worden bijgewerkt ter ondersteuning van SQLSTATE. Als uw code uitzonderingen parseert door middel van tekenreeksvergelijking of specifieke uitzonderingstypen onderschept, werk uw foutafhandelingslogica bij.
Automatische verbreding van streamingtypen
Streaming-leesbewerkingen in Delta-tabellen verwerken automatisch de uitbreiding van kolomtypen. Om handmatige bevestiging te vereisen, stelt u spark.databricks.delta.typeWidening.enableStreamingSchemaTracking in op true.
Bibliotheekverbeteringen
Er zijn geen bibliotheken bijgewerkt in deze versie.
Apache Spark
Databricks Runtime 18.1 bevat Apache Spark 4.1.0. Deze release bevat alle Spark-fixes en verbeteringen die zijn opgenomen in Databricks Runtime 18.0, evenals de volgende aanvullende bugfixes en verbeteringen in Spark:
- SPARK-55350 Verlies van aantal rijen oplossen bij het maken van DataFrame van pandas met 0 kolommen
- SPARK-55364 Het protocol SupportsIAdd en SupportsOrdering redelijker maken
- SPARK-53656 MemoryStream herstructureren om SparkSession te gebruiken in plaats van SQLContext
-
SPARK-55472 Verhogen
AttributeErrorvan methoden die zijn verwijderd in pandas 3 - SPARK-55224 Spark DataType gebruiken als grondwaar in Pandas-Arrow serialisatie
- SPARK-55402 StreamingSourceIdentifyingName van CatalogTable verplaatsen naar DataSource
- SPARK-55459 Regressie van 3x prestaties herstellen in applyInPandas voor grote groepen
- SPARK-55317 Logisch plannode en planningsregel voor sequentiële union toevoegen
-
SPARK-55424 Geef de naam van de reeks expliciet door in
convert_numpy -
SPARK-55175 Transformator extraheren
to_pandasuit serialisatieprogramma's - SPARK-55304 Introductie van ondersteuning voor toegangsbeheer en Trigger.AvailableNow in Python-gegevensbron - streaminglezer
-
SPARK-55382 Loggen
Executorom te loggenRunning Spark version - SPARK-55408 Onverwachte sleutelwoordargumentfouten met betrekking tot datetime verwerken met pandas 3
- SPARK-55345 Niet doorgeven eenheid en gesloten aan Timedelta voor pandas 3
- SPARK-54759 De logica in de Scripting Variable Manager behoorlijk beschermen na cursorinvoering
- SPARK-55409 Een onverwachte trefwoordargumentfout van read_excel verwerken met pandas 3
-
SPARK-55403 Fout
no attribute 'draw'in de plottests oplossen met pandas 3 - SPARK-55256 Revert "[SC-218596][SQL] Ondersteuning van IGNORE NULLS/RESPECT NULLS voor array_agg en collect_list"
- SPARK-55256 Ondersteuning voor IGNORE NULLS/RESPECT NULLS voor array_agg en collect_list
-
SPARK-55395 RDD-cache uitschakelen in
DataFrame.zipWithIndex - SPARK-55131 Introduceer een nieuw scheidingsteken voor samenvoegoperatoren in RocksDB om een lege tekenreeks samen te voegen zonder scheidingsteken.
- SPARK-55376 Het argument numeric_only maken in groupby-functies accepteert alleen booleaanse waarden met pandas 3
-
SPARK-55334 Activeer
TimestampTypeenTimestampNTZTypeinconvert_numpy - SPARK-55281 Ipykernel en IPython toevoegen aan de optionele pakketlijst van mypy
- SPARK-55336 CreateDF gebruiken create_batch logica voor ontkoppeling
-
SPARK-55366 Verwijderen
errorOnDuplicatedFieldNamesuit Python UDF's - SPARK-54759 Ondersteuning voor SQL-scripting Cursor
-
SPARK-55302 Aangepaste metrische gegevens corrigeren in het geval van
KeyGroupedPartitioning - SPARK-55228 Dataset.zipWithIndex implementeren in Scala-API
- SPARK-55373 Foutbericht noHandlerFoundForExtension verbeteren
- SPARK-55356 Ondersteuningsalias voor PIVOT bepaling
-
SPARK-55359 Niveau verhogen
TaskResourceRequestnaarStable - SPARK-55365 De hulpmiddelen voor pijlmatrixconversie generaliseren
- SPARK-55106 Integratietest voor Repartition toevoegen voor TransformWithState-operators
- SPARK-55086 DataSourceReader.pushFilters toevoegen aan de API-documentatie voor de Python-gegevensbron
- SPARK-46165 Ondersteuning toevoegen voor DataFrame.all met as=None.
- SPARK-55289 Herstel "[SC-218749][SQL] Los flaky test in-set-operations.sql op door broadcast join uit te schakelen"
- SPARK-55297 Timedelta dtype herstellen op basis van het oorspronkelijke dtype
- SPARK-55291 Voorverwerk metadata-headers tijdens de constructie van de clientinterceptor
-
SPARK-55155 Hernieuwing van "[SC-218401][SQL] Ondersteuning voor vouwbare expressies in
SET CATALOGinstructie - SPARK-55318 Prestatieoptimalisaties voor vector_avg/vector_sum
- SPARK-55295 De ST_GeomFromWKB-functie uitbreiden om een optionele SRID-waarde te gebruiken
- SPARK-55280 GetStatus proto toevoegen ter ondersteuning van bewaking van uitvoeringsstatussen
- SPARK-54969 Implementeren van nieuwe Arrow-Pandas-conversie>
- SPARK-55176 Converter extraheren naar ArrowArrayToPandasConversion
- SPARK-55111 [SC-217817][SC-210791][SS] Niet-voltooide herpartitioneringsdetectie bij opnieuw opstarten van query's terugzetten
-
SPARK-55252 Verbeteren
HttpSecurityFilterom koptekst toe te voegenContent-Security-Policy - SPARK-55111 Detectie van niet-voltooide herpartitionering bij opnieuw opstarten van query's
- SPARK-55105 Integratietest voor joinoperator toevoegen
- SPARK-55260 Ondersteuning voor het Parquet-schrijfformaat implementeren voor Geo-typen
- SPARK-54523 Standaardresolutie corrigeren bij variantpushdown
- SPARK-55328 PythonArrowInput.codec opnieuw gebruiken in GroupedPythonArrowInput
- SPARK-55246 Test toevoegen voor Pyspark TWS en TWSInPandas en Fix StatePartitionAllColumnFamiliesWriter Bug
- SPARK-55289 Los flaky test in-set-operations.sql op door broadcast join uit te schakelen
- SPARK-55040 Herstructureer TaskContext en gerelateerd werkprotocol met engine pyspark fix.
- SPARK-47996 biedt ondersteuning voor kruislings samenvoegen in pandas-API
- SPARK-55031 Expressies voor aggregatiefunctie voor vector avg/sum toevoegen
- SPARK-54410 Probleem met leesondersteuning voor de variant logische typeaantekening opgelost
- SPARK-54776 Keer de wijziging voor [SC-216482][SQL] Verbeterd logboekbericht over lambda-functie met SQL UDF terug
- SPARK-55123 SequentialUnionOffset toevoegen voor het bijhouden van sequentiële bronverwerking
- SPARK-54972 NIET IN-subqueries verbeteren door middel van niet-nullable kolommen
- SPARK-54776 Het logboekbericht met betrekking tot de lambda-functie verbeterd met SQL UDF
-
SPARK-53807 Oplossen van raceconditieproblemen tussen
unlockenreleaseAllLocksForTaskinBlockInfoManager - SPARK-51831 "[SC-207389][SQL] Kolomsnoeien met existsJoin voor Datasource V2 terugdraaien"
-
SPARK-54881 Verbeter
BooleanSimplificationom de negatie van combinatie en disjunctie in één keer af te handelen - SPARK-54696 ArrowBuffers opschonen in Connect
-
SPARK-55009 Overbodige geheugenkopie verwijderen uit de constructor van
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Stacktrace-weergave op foutenpagina van de gebruikersinterface configureerbaar maken
- SPARK-51831 Kolomsnoeien met existsJoin voor Datasource V2
-
SPARK-55285 Corrigeer de initialisatie van
PythonArrowInput - SPARK-53960 Laat approx_top_k_accumulate/combineert/schatten functies NULL-waarden verwerken
- SPARK-49110 Vereenvoudig SubqueryAlias.metadataOutput om altijd metagegevenskolommen door te geven
-
SPARK-55155 Herstel "[SC-218401][SQL] Ondersteuning voor vouwbare expressies in
SET CATALOG-instructie" -
SPARK-55155 Ondersteuning voor vouwbare expressies in instructie
SET CATALOG - SPARK-49110 Draai terug "[SC-218594][SQL] Vereenvoudig SubqueryAlias.metadataOutput om metagegevenskolommen altijd door te geven"
- SPARK-54399 De st_setsrid-functie implementeren in Scala en PySpark
- SPARK-49110 Vereenvoudigen van SubqueryAlias.metadataOutput zodat metagegevenskolommen altijd worden doorgegeven
- SPARK-55133 Racevoorwaarde herstellen in levenscyclusbeheer van IsolatedSessionState
- SPARK-55262 Geotypen blokkeren in alle bestandsgegevensbronnen, met uitzondering van Parquet
- SPARK-54202 Toestaan van casting van GeometryType(srid) naar GeometryType(ANY)
- SPARK-54142 De st_srid-functie implementeren in Scala en PySpark
- SPARK-54887 Altijd een SQL-status instellen in de Spark Connect-client
- SPARK-55237 Vervelende berichten onderdrukken bij het opzoeken van niet-bestaande DB's
- SPARK-55040 '[SC-217628][PYTHON] TaskContext en gerelateerd worker-protocol herstructureren'
- SPARK-55243 Het instellen van binaire headers via het -bin achtervoegsel in de Scala Connect-client toestaan
- SPARK-55259 Parquet-schemaconversie implementeren voor geotypen
- SPARK-55282 Vermijd het gebruik van worker_util aan de stuurprogrammazijde
- SPARK-54151 Het framework introduceren voor het toevoegen van ST-functies in PySpark
- SPARK-55194 GroupArrowUDFSerializer verwijderen door platte logica naar mapper te verplaatsen
- SPARK-55020 gc uitschakelen bij het uitvoeren van gRPC-opdracht
- SPARK-55053 Gegevensbron/udtf-analysewerkers herfactoreren zodat ze een uniform toegangspunt hebben
- SPARK-55040 TaskContext en gerelateerd werkprotocol herstructureren
- SPARK-55244 Np.nan gebruiken als standaardwaarde voor pandas-tekenreekstypen
- SPARK-55225 Herstellen naar het oorspronkelijke dtype voor Datum/tijd
- SPARK-55154 Verwijder fastpath naar pd.Series voor pandas 3
- SPARK-55030 Ondersteuning voor vectornorm/normaliseren van functie-expressies toevoegen
- SPARK-55202 Oplossing voor UNEXPECTED_USE_OF_PARAMETER_MARKER bij het gebruik van param...
- SPARK-54201 Omzetten van GeographyType(srid) naar GeographyType(ANY) toestaan
- SPARK-54244 Introductie van type coercion-ondersteuning voor GEOMETRIE-gegevenstypen
- SPARK-54160 De ST_SetSrid-expressie implementeren in SQL
- SPARK-55046 Metrische gegevens over verwerkingstijd van PySpark toevoegen
- SPARK-54101 Het framework introduceren voor het toevoegen van ST-functies in Scala
- SPARK-54683 Blokkering van geografische en tijdtypen samenvoegen
- SPARK-55249 DataFrame.toJSON in staat stellen om een dataframe te retourneren
- SPARK-54521 Toevoegen van en naar WKB voor geometrie-type
- SPARK-54162 Cast-conversie van GeographyType naar GeometryType toestaan
- SPARK-55146 Hercontrole van de State Repartition API voor PySpark
- SPARK-55140 Wijs ingebouwde functies niet toe aan de numpy-versie voor pandas 3
- SPARK-54243 Introductie van ondersteuning voor type dwinging voor GEOGRAPHY-gegevenstypen
- SPARK-55058 Fout genereren bij inconsistente controlepuntmetagegevens
- SPARK-55108 Gebruik de nieuwste pandas-stubs voor typecontrole
- SPARK-54091 De ST_Srid-expressie implementeren in SQL
- SPARK-55104 Spark Connect-ondersteuning toevoegen voor DataStreamReader.name()
- SPARK-54996 Rapporteer ArrivalTime voor records van LowLatencyMemoryStream
- SPARK-55118 Vervang wildcard-importen van ASM Opcodes
- SPARK-54365 Voeg een herverdelings-integratietest voor aggregatie, ontdubbeling, FMGWS en SessionWindow-operators toe
- SPARK-55119 Continue handler corrigeren: voorkomen van INTERNAL_ERROR en het onderbreken van onjuiste voorwaardelijke instructies.
- SPARK-54104 Verbied het casten van geospatiale typen naar/van andere gegevenstypen
- SPARK-55240 LazyTry stacktrace-verwerking herstructureren om wrapper te gebruiken in plaats van onderdrukte uitzondering
-
SPARK-55238 Geo SRS-toewijzingslogica verplaatsen van
main/scalanaarmain/java -
SPARK-55179 Het overslaan van vroege kolomnaamvalidatie in
df.col_name - SPARK-55055 Ondersteuning voor SparkSession.Builder.create voor PySpark Classic
- SPARK-55186 Zorg ervoor dat ArrowArrayToPandasConversion.convert_legacy pd kan retourneren. DataFrame
- SPARK-54079 Het framework introduceren voor het toevoegen van ST-expressies in Catalyst
- SPARK-54096 Ondersteuning voor ruimtelijke referentiesysteemtoewijzing in PySpark
- SPARK-54801 Enkele nieuwe 4.1-configuraties markeren als intern
- SPARK-55146 "[SC-217936][SC-210779][SS] Herpartitionering van staat API voor PySpark terugdraaien"
- SPARK-54559 runnerConf gebruiken om de profileroptie door te geven
- SPARK-55205 Tests corrigeren waarbij wordt aangenomen dat het tekenreekstype wordt geconverteerd naar object
- SPARK-55171 Geheugenprofiler van iter UDF oplossen
- SPARK-55226 Datum/tijd en tijddelta herkennen met andere eenheden dan [ns]
- SPARK-55027 WriteConf verplaatsen naar PythonWorkerUtils
-
SPARK-55197 Helperfunctie extraheren
_write_stream_startom START_ARROW_STREAM-signaallogica te dedupliceren - SPARK-54179 Systeemeigen ondersteuning toevoegen voor Apache Tuple Sketches (#190848) (#191111)
- SPARK-55151 RocksDBSuite testWithStateStoreCheckpointIds oplossen
- SPARK-55146 Statusherverdelings-API voor PySpark
- SPARK-54232 Arrow-serialisatie inschakelen voor geografie- en geometrietypen
- SPARK-53957 Ondersteuning voor GEOGRAFIE en GEOMETRIE in spatialReferenceSystemMapper
- SPARK-55169 Gebruik ArrowBatchTransformer.flatten_struct in ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Oplossing
BasicExecutorFeatureStepvoor het uitvoerenIllegalArgumentExceptionvan onjuiste cpu-configuraties voor uitvoerders - SPARK-54166 Inleiding tot type coderingsprogramma's voor georuimtelijke typen in PySpark
-
SPARK-55138 Oplossing
convertToMapDatavoor het genereren van eenNullPointerException - SPARK-55168 Gebruik ArrowBatchTransformer.flatten_struct in GroupArrowUDFSerializer
- SPARK-55032 Profilers herstructureren in workers.py
- SPARK-54990 Oplossing voor hoe classproperty wordt geïmplementeerd in session.py
- SPARK-55076 Probleem met typehint in ml/mllib oplossen en scipy-vereiste toevoegen
- SPARK-55162 Transformatoren extraheren uit ArrowStreamUDFSerializer
- SPARK-55121 DataStreamReader.name() toevoegen aan klassiek PySpark
- SPARK-54887 Optionele sqlstate toevoegen aan sparkthrowables
- SPARK-54169 Geografie- en geometrietypen introduceren in Pijlschrijver
- SPARK-51658 Wrapper-indelingen voor geometrie en geografie in het geheugen introduceren
- SPARK-54110 Typcoderingsprogramma's introduceren voor geografie- en geometrietypen
- SPARK-54956 De oplossing voor het harmoniseren van de onzekere shuffle-herstart
-
SPARK-55137 Herstructureren van
GroupingAnalyticsTransformerenAnalyzercode - SPARK-54103 Maak kennis met geografie- en geometrieklassen aan de clientzijde
- SPARK-55160 Invoerschema rechtstreeks doorgeven aan serializers
- SPARK-55170 Extractie van leespatroon voor gegroepeerde streams uit serializers
-
SPARK-55125 Redundante
__init__methoden verwijderen in pijlserialisaties - SPARK-55126 Ongebruikte tijdzone en assign_cols_by_name verwijderen uit ArrowStreamArrowUDFSerializer
- SPARK-54980 Het JDBC-isolatieniveau converteren naar een tekenreeks
- SPARK-55051 Byte-string ondersteunt KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Prestaties in pandas verbeteren met behulp van lijstbegrip
- SPARK-46165 Voeg ondersteuning toe voor pandas. DataFrame.all axis=1
- SPARK-55037 Observatie opnieuw implementeren zonder queryexecutionListener te gebruiken
- SPARK-54965 Factor out legacy pa. Matrix -> pd. Reeksconversieprogramma
- SPARK-55016 SQLConf een directe eigenschap van SparkSession maken om stack-overloop te voorkomen
- SPARK-55091 Hive RPC-aanroepen voor DROP TABLE opdracht verminderen
- SPARK-55097 Oplossing voor het probleem waarbij het opnieuw toevoegen van gecachede artefacten blokken stilletjes laat vallen
- SPARK-55026 Optimize BestEffortLazyVal.
- SPARK-55091 Ongedaan maken "[SC-217410][SQL] Verminder Hive RPC-oproepen voor DROP TABLE commando"
- SPARK-54590 Ondersteuning voor Checkpoint V2 voor state rewriter en herpartitionering
- SPARK-55016 SQLConf een directe eigenschap van SparkSession maken om stack-overloop te voorkomen
- SPARK-55091 Hive RPC-aanroepen voor DROP TABLE opdracht verminderen
- SPARK-55016 Herstel "[SC-217401][SQL] Maak SQLConf een directe eigenschap van SparkSession om stack overflow te voorkomen"
- SPARK-55016 SQLConf een directe eigenschap van SparkSession maken om stack-overloop te voorkomen
- SPARK-55098 Gevectoriseerde UDF's met uitvoerbatchgroottebeheer mislukken met geheugenlek
- SPARK-54824 Ondersteuning toevoegen voor multiGet en deleteRange voor Rocksdb State Store
- SPARK-55054 Ondersteuning toevoegen voor geïdentificeerd door streaming tabel-waarde functies
- SPARK-55029 De naam van de streamingbron doorgeven via een oplossingspijplijn
- SPARK-55071 Spark.addArtifact laten werken met Windows-paden
- SPARK-54103 Herstel "[SC-210400][Geo][SQL] Introduceer geografie- en geometrieklassen aan de clientzijde"
- SPARK-54103 Maak kennis met geografie- en geometrieklassen aan de clientzijde
- SPARK-54033 Introductie van georuimtelijke uitvoeringsklassen aan de serverzijde van Katalysator
- SPARK-54176 Gegevenstypen Geografie en Geometrie introduceren in PySpark Connect
- SPARK-55089 Het uitvoerschema van toJSON corrigeren
- SPARK-55035 Opschonen in willekeurige volgorde uitvoeren in onderliggende uitvoeringen
-
SPARK-55036 Toevoegen
ArrowTimestampConversionvoor het afhandelen van pijltijdzones -
SPARK-55090 Implementeren
DataFrame.toJSONin Python-client - SPARK-54873 V2TableReference-resolutie vereenvoudigen omdat alleen de tijdelijke weergave deze kan bevatten
- SPARK-52828 Maak hashing voor geordende tekenreeksen onafhankelijk van sorteervolgorde
- SPARK-54175 Geografie- en geometrietypen toevoegen aan Spark Connect proto
-
SPARK-54961 Introduceren
GroupingAnalyticsTransformer - SPARK-55088 De metagegevens in/from_arrow_type/schema houden
- SPARK-55070 Verborgen kolom in gegevensframekolomomzetting toestaan
- SPARK-55044 De metagegevens in toArrowSchema/fromArrowSchema behouden
- SPARK-55043 Tijdreizen herstellen met subquery met tabelverwijzingen
-
SPARK-54987 Wijzig de standaardwaarde van prefer_timestamp_ntz naar True in
from_arrow_type/from_arrow_schema - SPARK-54866 Drop/RefreshFunction herstructureren om cataloguszoekacties te voorkomen
- SPARK-55024 Gebruik REQUIRES_SINGLE_PART_NAMESPACE fout voor validatie van naamruimte van sessiecatalogus
- SPARK-54992 Cast vervangen door een runtime-controle voor make_timestamp
- SPARK-55024 Herstel "[SC-216987][SQL] Gebruik REQUIRES_SINGLE_PART_NAMESPACE fout voor validatie van de sessiecatalogusnamespace"
- SPARK-54866 [SC-216753][SQL] Drop/RefreshFunction herstructureren om cataloguszoekactie te voorkomen
- SPARK-55024 Gebruik het REQUIRES_SINGLE_PART_NAMESPACE errorbericht voor de validatie van de naamruimte van de sessiecatalogus
- SPARK-54866 Drop/RefreshFunction herstructureren om cataloguszoekacties te voorkomen
- SPARK-54991 Correcte type-aanduiding voor streaming/listener.py
- SPARK-54925 De mogelijkheid toevoegen om threads voor pyspark te dumpen
- SPARK-54803 Ondersteuning voor BY NAME met INSERT ... VERVANGEN WHERE
- SPARK-54785 Ondersteuning toevoegen voor binaire schetsaggregaties in KLL (#188370) (#188860)
- SPARK-54949 Pyproject.toml verplaatsen naar de hoofdmap van de opslagplaats
- SPARK-54954 Hints voor externe gerelateerde typen in util.py oplossen
- SPARK-54922 Unificeren hoe args worden doorgegeven aan Python-medewerkers
- SPARK-54870 Sorteringsondersteuning voor char/varchar en CTAS/RTAS
-
SPARK-54762 Handtekening corrigeren
_create_converterencovertoverbelasten - SPARK-55019DROP TABLE toestaan om VIEW te verwijderen
- SPARK-53103 Er wordt een fout gegenereerd als de statusmap niet leeg is wanneer de query wordt gestart
- SPARK-54995 Maak een snel pad voor foreachPartition
- SPARK-54634 Duidelijke foutmelding toevoegen voor leeg IN-predicaat
- SPARK-54984 Uitvoeren van Status Repartition en integreren met State Rewriter
- SPARK-54443 PartitionKeyExtractor integreren in lezer voor opnieuw partitioneren
- SPARK-54907 NameStreamingSources Analyzer-regel introduceren voor de evolutie van streamingbronnen
- SPARK-54609 Configuratie van time-type bijwerken zodat deze overeenkomt met de OSS-configuratie
- SPARK-54988 Vereenvoudig de implementatie van ObservationManager.tryComplete
- SPARK-54959 Schakel het volledig opnieuw proberen na shuffle checksum mismatch uit wanneer push-gebaseerde shuffle is ingeschakeld
- SPARK-54940 Voeg tests toe voor pa.scalar-type-inferentie
- SPARK-54634 Herstel "[SC-216478][SQL] Duidelijk foutbericht toevoegen voor leeg IN-predicaat"
- SPARK-54337 Ondersteuning voor PyCapsule toevoegen aan Pyspark
- SPARK-54634 Duidelijke foutmelding toevoegen voor leeg IN-predicaat
- SPARK-53785 Geheugenbron voor RTM
- SPARK-54883 Foutberichten voor CLI opschonen en nieuwe foutmodus DEBUG toevoegen
- SPARK-54713 Ondersteuning voor vector-overeenkomsten/expressies voor afstandsfuncties toevoegen
- SPARK-54962 Verwerking van null-bare gehele getallen in Pandas UDF oplossen
- SPARK-54864 rCTE-knooppunten toevoegen aan NormalizePlan
- SPARK-53847 ContinuousMemorySink toevoegen voor realtime-modus testen
- SPARK-54865 Methode foreachWithSubqueriesAndPruning toevoegen aan QueryPlan
- SPARK-54930 Verwijder redundante _accumulatorRegistry.clear() aanroep in worker.py
- SPARK-54929 Herstel het opnieuw instellen van taskContext._resources in de lus leidt ertoe dat alleen de laatste resource wordt bewaard
-
SPARK-54963 Maken dat
createDataFramerespecteertprefer_timestamp_ntzwanneerinfer_pandas_dict_as_map -
SPARK-54920 Groeperingslogica voor analyseextractie verplaatsen naar een algemene
GroupingAnalyticsExtractor - SPARK-54924 State Rewriter om de status te lezen, te transformeren en nieuwe status te schrijven
- SPARK-54872 Standaardwaardeverwerking voor kolommen tussen v1- en v2-opdrachten samenvoegen
- SPARK-54905 Implementatie van foreachWithSubqueries in QueryPlan vereenvoudigen
- SPARK-54682 Ondersteuning voor het weergeven van parameters in DESCRIBE PROCEDURE
-
SPARK-54933 Voorkomen dat configuratie
binary_as_bytesherhaaldelijk wordt opgehaald intoLocalIterator - SPARK-54872 Keer terug naar "[SC-216260][SQL] De standaardwaardeverwerking van kolommen tussen v1- en v2-opdrachten samenvoegen"
- SPARK-51936 ReplaceTableAsSelect moet de nieuwe tabel overschrijven in plaats van toevoegen
- SPARK-54771 De regel ResolveUserSpecifiedColumns verwijderen uit RuleIdCollection
- SPARK-54872 Standaardwaardeverwerking voor kolommen tussen v1- en v2-opdrachten samenvoegen
- SPARK-54313 Optie --extra-properties-file toevoegen voor configuratielagen
- SPARK-54468 Ontbrekende foutklassen toevoegen
- SPARK-46741 Cachetabel met CTE moet werken wanneer CTE in de subquery van de expressie van het plan is
- SPARK-46741 Cachetabel met CTE werkt niet
- SPARK-54615 Geef altijd runner_conf door aan de Python-werker
- SPARK-53737 Een trigger voor de real-time modus toevoegen
- SPARK-54541 Naam van _LEGACY_ERROR_TEMP_1007 wijzigen en sqlState toevoegen
- SPARK-54718 Kenmerknamen behouden tijdens CTE newInstance()
- SPARK-54621 Samenvoeging in bijwerkingsset * geneste velden behouden als ... coerceNestedTypes is ingeschakeld
- SPARK-54595 Bestaand gedrag van MERGE INTO zonder SCHEMA EVOLUTION-component behouden
- SPARK-54903 To_arrow_schema/to_arrow_type in staat stellen om tijdzone in te stellen
- SPARK-52326 Partities met betrekking tot ExternalCatalogEvent toevoegen en posten in bijbehorende bewerkingen
- SPARK-54541 Herstel "[SC-215212][SQL] Hernoem _LEGACY_ERROR_TEMP_1007 en voeg sqlState toe"
-
SPARK-54578 Codeopruiming uitvoeren op
AssignmentUtils - SPARK-54830 Standaard inschakelen van op controlesom gebaseerde onbepaalde shuffle-herhalingspoging
- SPARK-54525 Nested struct coercion uitschakelen via de configuratie MERGE INTO
- SPARK-53784 Aanvullende bron-API's die nodig zijn om RTM-uitvoering te ondersteunen
- SPARK-54496 Samenvoegen in schemaontwikkeling voor Dataframe-API opgelost
- SPARK-54835 Vermijd onnodige tijdelijke QueryExecution voor uitvoering van geneste opdrachten
- SPARK-54541 Naam van _LEGACY_ERROR_TEMP_1007 wijzigen en sqlState toevoegen
- SPARK-54289 Bestaande MERGE INTO structvelden behouden voor UPDATESET * wanneer bronstruct minder geneste velden heeft dan doelstruct
- SPARK-54720 SparkSession.emptyDataFrame toevoegen met een schema
- SPARK-54800 Standaard implementatie gewijzigd voor isObjectNotFoundException
- SPARK-54686 Versoepel DSv2-tabelcontroles in tijdelijke weergaven om nieuwe top-level kolommen toe te staan
- SPARK-54619 Een sanitycontrole voor configuratienummers toevoegen
- SPARK-54726 Een beetje prestaties verbeteren voor InsertAdaptiveSparkPlan
- SPARK-51966 Vervang select.select() door select.poll() bij het uitvoeren op POSIX-besturingssystemen
- SPARK-54749 Herstel onjuiste numOutputRows-meetwaarde in OneRowRelationExec
- SPARK-54411 Introduceer Herpartition Writer die ondersteuning biedt voor Multi-CF
- SPARK-54835 Herstel "[SC-215823][SQL] Vermijd onnodige tijdelijke QueryExecution voor uitvoering van geneste opdrachten"
- SPARK-54867 Introduceer NamedStreamingRelation-wrapper voor bronidentificatie tijdens analyse
- SPARK-54835 Vermijd onnodige tijdelijke QueryExecution voor uitvoering van geneste opdrachten
- SPARK-54491 Invoegen in tijdelijke weergave opgelost in DSv2-tabelfout
- SPARK-54871 Knip aliassen uit groeperings- en aggregatieexpressies voordat u groeperingsanalyses verwerkt
- SPARK-51920 Typeafhandeling van namedTuple voor transfromWithState corrigeren
- SPARK-54526 Naam van _LEGACY_ERROR_TEMP_1133 wijzigen en sqlState toevoegen
- SPARK-54424 Fouten tijdens het recacheren mogen niet leiden tot het falen van operaties
-
SPARK-54894 Argument oplossen dat wordt doorgegeven
to_arrow_type - SPARK-53448 Conversie van een pyspark DataFrame met een variantkolom naar pandas resulteert in een foutmelding
- SPARK-54882 Verouderde PYARROW_IGNORE_TIMEZONE verwijderen
- SPARK-54504 Versievernieuwing voor DSv2-tabellen met subquery's herstellen
- SPARK-54444 Ontspan de DSv2-tabelcontroles om het eerdere gedrag te herstellen
- SPARK-54859 Arrow standaard PySpark UDF API-referentiehandleiding
- SPARK-54387 Revert "[ES-1688666] Revert "[SC-212394][SQL] Fix recaching of DSv2 tables""
- SPARK-54753 geheugenlek van ArtifactManager herstellen
- SPARK-54387 Terugdraaien "[SC-212394][SQL] Fix voor het opnieuw in cache plaatsen van DSv2-tabellen"
- SPARK-54436 Foutopmaakfouten bij controles van incompatibele tabelmetagegevens corrigeren
-
SPARK-54849 De minimale versie van
pyarrow18.0.0 upgraden - SPARK-54022 DSv2-tabelresolutie op de hoogte stellen van tabellen in cache
- SPARK-54387 Probleem opgelost met het recacheren van DSv2-tabellen
- SPARK-53924 DSv2-tabellen opnieuw laden in weergaven die zijn gemaakt met behulp van plannen voor elke weergavetoegang
-
SPARK-54561 Ondersteuningsonderbrekingspunt() voor
run-tests.py - SPARK-54157 Vernieuwing van DSv2-tabellen in gegevensset opgelost
- SPARK-54830 Herstel '[CORE] Schakel controlesom gebaseerde onbepaalde shuffle-herhaling standaard in' terug
- SPARK-54861 De naam van de taakthread opnieuw instellen op IDLE_TASK_THREAD_NAME wanneer de taak is voltooid
- SPARK-54834 Nieuwe interfaces Toevoegen SimpleProcedure en SimpleFunction
- SPARK-54760 DelegerenCatalogExtension als sessiecatalogus ondersteunt zowel V1- als V2-functies
- SPARK-54685 Redundante antwoorden voor waargenomen metrische gegevens verwijderen
-
SPARK-54853 Altijd controleren
hive.exec.max.dynamic.partitionsop de spark-zijde - SPARK-54840 OrcList Pre-allocation
- SPARK-54830 Standaard inschakelen van op controlesom gebaseerde onbepaalde shuffle-herhalingspoging
-
SPARK-54850 Verbeteren
extractShuffleIdsom overal in de planstructuur te vindenAdaptiveSparkPlanExec - SPARK-54843 Try_to_number expressie werkt niet voor lege tekenreeksinvoer
- SPARK-54556 Het terugdraaien van geslaagde shuffle kaartfasen wanneer een niet-overeenkomende shuffle-controlesom is gedetecteerd
- SPARK-54760 Keer terug naar "[SC-215670][SQL] DelegatingCatalogExtension als sessiecatalogus ondersteunt zowel V1- als V2-functies"
- SPARK-54760 DelegerenCatalogExtension als sessiecatalogus ondersteunt zowel V1- als V2-functies
- SPARK-54818 TaskMemoryManager toewijzing mislukt en zou foutstack moeten loggen om het geheugengebruik te helpen controleren
-
SPARK-54827 Helperfunctie toevoegen
TreeNode.containsTag - SPARK-54777 Terugdraaien "[SC-215740][SQL] Foutafhandeling van dropTable gewijzigd in JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Wijzigingen in foutafhandeling voor dropTable in JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Oplossingslogica herstructureren
UnpivotnaarUnpivotTransformer -
SPARK-54820 Compatibel
pandas_on_spark_typemaken met numpy 2.4.0 -
SPARK-54799 Refactor
UnpivotCoercion - SPARK-54754 OrcSerializer mag het schema niet parseren telkens wanneer het wordt geserialiseerd
- SPARK-54226 Pijlcompressie uitbreiden naar Pandas UDF
- SPARK-54787 Lijstbegrip gebruiken in plaats van voor lussen in pandas
-
SPARK-54690
Frame.__repr__ongevoelig maken voor pijltjesoptimalisatie - SPARK-46166 Implementatie van pandas.DataFrame.any met axis=None
- SPARK-54696 Arrow-buffers opschonen - volgende stappen
- SPARK-54769 Dode code verwijderen in conversion.py
- SPARK-54787 Lijstbegrip gebruiken in pandas _bool_column_labels
-
SPARK-54794 Gedetailleerde
FsHistoryProvider.checkForLogsscanlogboeken onderdrukken - SPARK-54745 PySpark-importfout opgelost die wordt veroorzaakt door ontbrekende UnixStreamServer in Windows
- SPARK-54782 De configuratieversies corrigeren
- SPARK-54781 Informatie over de cache van het model retourneren in JSON-indeling
- SPARK-54419 Offline herpartition State Reader ondersteunt families met meerdere kolommen
- SPARK-54722 Pandas Grouped Iter Aggregate UDF registreren voor SQL-gebruik
-
SPARK-54762 [SC-215422][PYTHON] Handtekening herstellen
_create_converterencovertoverbelasten - SPARK-54652 Ongedaan maken "[SC-215452][SQL] Compleet conversie van IDENTIFIER()"
-
SPARK-54762 Handtekening corrigeren
_create_converterencovertoverbelasten - SPARK-52819 KryoSerializationCodec serializable maken om java.io.NotSerializableException-fouten in verschillende gebruiksscenario's op te lossen
- SPARK-54711 Een time-out toevoegen voor een door de daemon gemaakte werknemersverbinding
- SPARK-54738 Profiler-ondersteuning toevoegen voor Pandas Grouped Iter Aggregate UDF
- SPARK-54652 Volledige conversie van IDENTIFIER()
- SPARK-54581 De fetchsize-optie hoofdletterongevoelig maken voor de Postgres-connector
- SPARK-54589 ArrowStreamAggPandasIterUDFSerializer samenvoegen in ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Torch distributor: ondersteuning voor meerdere torchrun-processen per taak als task.gpu.amount > 1
-
SPARK-54707 Hoofdlogica van oplossing herstructureren
PIVOTnaar dePivotTransformer - SPARK-54706 DistributedLDAModel laten werken met het lokale bestandssysteem
- SPARK-53616 Introductie van iterator-API voor pandas gegroepeerde agg UDF
- SPARK-54116 Ondersteuning voor off-heap-modus toevoegen voor LongHashedRelation
- SPARK-54656 Refactor SupportsPushDownVariants als een ScanBuilder mix-in
- SPARK-54687 Gouden bestand toevoegen met randgevallen voor resoluties van generatoren
- SPARK-54708 Ml Cache opschonen optimaliseren met luie map maken
- SPARK-54116 De wijziging ongedaan maken van "[SC-213108][SQL] Ondersteuning voor de off-heap-modus voor LongHashedRelation toevoegen"
- SPARK-54116 Ondersteuning voor off-heap-modus toevoegen voor LongHashedRelation
- SPARK-54443 Partitiesleutel extractie voor alle stateful streaming operators
- SPARK-54687 "[SC-214791][SQL] Gouden bestand toevoegen met edge-aanvragen voor oplossingen voor generatoren"
- SPARK-54116 [SC-213108][SQL] Ondersteuning voor off-heap-modus voor LongHashedRelation toevoegen
- SPARK-54687 Golden file toevoegen met randgevallen voor de oplossingen van generatoren
- SPARK-54116 Ondersteuning voor off-heap-modus toevoegen voor LongHashedRelation
- SPARK-54420 Introductie van offline repartitioning StatePartitionWriter voor familie met één kolom
-
SPARK-54689 Stel
org.apache.spark.sql.pipelinesin als intern pakket en zetEstimatorUtilsop privé enEstimatorUtilsop privé - SPARK-54673 Sql Pipe-syntaxisanalysecode herstructureren voor delen en opnieuw gebruiken
- SPARK-54668 Tests voor CTE's toevoegen in operators met meerdere kinderen
- SPARK-54669 Verwijderen van overbodige casting in rCTEs
- SPARK-54587 Alle runner_conf gerelateerde code samenvoegen
- SPARK-54628 Verwijder alle overbodige expliciete super() argumenten
- SPARK-54675 Configurabele time-out voor gedwongen afsluiting toevoegen voor StateStore-onderhoudsthreadpool
- SPARK-54639 Vermijd onnodige tabelcreatie in Arrow-serialisaties
- SPARK-49635 ANSI-configuratiesuggesties verwijderen in CAST-foutberichten
-
SPARK-54664 De code opschonen die is gerelateerd aan
listenerCacheenconnect.StreamingQueryManager - SPARK-54640 Select.select vervangen door select.poll op UNIX
-
SPARK-54662 Toevoegen
viztracerendebugpyindev/requirements.txt - SPARK-54632 De optie om ruff te gebruiken voor linting toevoegen
- SPARK-54585 Correctie van de terugdraaifunctie van de statusopslag wanneer de thread zich in de onderbroken staat bevindt
- SPARK-54172 Samenvoegen binnen schema-evolutie mag alleen de betreffende kolommen toevoegen
- SPARK-54438 ArrowStreamAggArrowIterUDFSerializer samenvoegen in ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Redundante initialisaties in serialisators verwijderen
- SPARK-54631 Voeg profilerondersteuning toe voor Arrow Grouped Iter Aggregate UDF
-
SPARK-54316 Opnieuw van toepassing [SC-213971][CORE][PYTHON][SQL] Samenvoegen
GroupPandasIterUDFSerializermetGroupPandasUDFSerializer - SPARK-54392 Optimaliseer JVM-Python communicatie voor TWS-initiële status
- SPARK-54617 Inschakelen van Arrow Grouped Iter Aggregate UDF-registratie voor SQL
- SPARK-54544 Inschakelen van flake8 F811-controle
-
SPARK-54650 Int naar decimale conversie verplaatsen naar
_create_converter_from_pandas -
SPARK-54316 [SC-213971][CORE][PYTHON][SQL] Samenvoegen
GroupPandasIterUDFSerializermetGroupPandasUDFSerializer" - SPARK-53687 Een component introduceren in de SQL-instructie WATERMARK
-
SPARK-54316 Samenvoegen
GroupPandasIterUDFSerializermetGroupPandasUDFSerializer - SPARK-54598 Logica extraheren om UDF's te lezen
-
SPARK-54622 Niveau verhogen
RequiresDistributionAndOrderingen de vereiste interfaces aanEvolving - SPARK-54624 Zorg ervoor dat de gebruikersnaam in de geschiedenispagina wordt geëscaped
- SPARK-54580 Overweeg Hive 4.1 in HiveVersionSuite en HiveClientImpl
-
SPARK-54068 Oplossing
to_feathervoor ondersteuning van PyArrow 22.0.0 -
SPARK-54618 Niveau verhogen
LocalScannaarStable -
SPARK-54616 Markeren
SupportsPushDownVariantsalsExperimental -
SPARK-54607 Ongebruikte methode
toStringHelperverwijderen uitAbstractFetchShuffleBlocks.java - SPARK-53615 Introduceren van iterator API voor Arrow UDF gegroepeerde aggregatie.
- SPARK-54608 Vermijd het dubbel cachen van de type converter in UDTF
-
SPARK-54600 Gebruik geen pickle om modellen op te slaan/te laden in
pyspark.ml.connect -
SPARK-54592 Privé maken
estimatedSize - SPARK-54388 Introduceert StatePartitionReader dat onbewerkte bytes scant voor een enkele ColFamily
- SPARK-54570 De foutklasse correct doorgeven in Spark Connect
- SPARK-54577 Py4J-aanroepen optimaliseren in schemadeductie
- SPARK-54568 Vermijd onnodige pandas-conversie bij het maken van een gegevensframe van ndarray
- SPARK-54576 Documentatie toevoegen voor nieuwe statistische functies op basis van Datasketches
- SPARK-54574 Opnieuw inschakelen FPGrowth bij verbinding maken
- SPARK-54557 CSV/JSON/XmlOptions en CSV/JSON/XmlInferSchema vergelijkbaar maken
- SPARK-52798 Functie-approx_top_k_combine toevoegen
- SPARK-54446 FPGrowth ondersteunt het lokale bestandssysteem met de Arrow-bestandsindeling
-
SPARK-54547 Hernoem variabele
hostPortnaarhostin methodenTaskSchedulerImpl.(executorLost|logExecutorLoss) - SPARK-54558 Interne uitzondering herstellen wanneer uitzonderingshandlers zonder BEGIN/END worden gebruikt
- SPARK-52923 Toestaan dat ShuffleManager de push-merge controleert tijdens de shuffle-registratie
- SPARK-54474 Verwijder het XML-rapport over tests die moeten mislukken
- SPARK-54473 Avro-ondersteuning voor lezen en schrijven toevoegen voor TIME-type
- SPARK-54472 ORC-ondersteuning voor lezen en schrijven toevoegen voor TIME-type
- SPARK-54463 ONDERSTEUNING voor CSV-serialisatie en deserialisatie voor TIME-type toevoegen
- SPARK-52588 Approx_top_k: verzamelen en schatten
- SPARK-54461 Ondersteuning voor XML-serialisatie en deserialisatie voor TIME-type toevoegen
- SPARK-54451 Ondersteuning voor JSON-serialisatie en deserialisatie voor TIME-type toevoegen
- SPARK-54537 Los het probleem op met SparkConnectDatabaseMetaData getSchemas/getTables in catalogi zonder ondersteuning voor naamruimte.
- SPARK-54442 Numerieke conversiefuncties toevoegen voor TIME-type
- SPARK-54451 Herstel "[SC-212861][SQL] JSON-serialisatie- en deserialisatieondersteuning voor TIME-type toevoegen"
- SPARK-54492 Naam van _LEGACY_ERROR_TEMP_1201 wijzigen en sqlState toevoegen
- SPARK-54531 Introduceer ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Taakcontext en metrische gegevens toevoegen aan Python-runner-logboeken
- SPARK-54272 AggTime toevoegen voor SortAggregateExec
- SPARK-53469 Mogelijkheid om shuffle op te ruimen in Thrift-server
-
SPARK-54219 Ondersteuningsconfiguratie
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Master-server, branch-4.0-client, Python 3.11 toevoegen
- SPARK-54451 Ondersteuning voor JSON-serialisatie en deserialisatie voor TIME-type toevoegen
- SPARK-54285 Tijdzonegegevens cachen om dure tijdstempelconversie te voorkomen
-
SPARK-49133
MemoryConsumer#usedLid atomisch maken om gebruikerscode te voorkomen die een impasse veroorzaakt - SPARK-46166 Implementatie van pandas DataFrame.any met axis=1
- SPARK-54532 Ondersteuning toevoegen voor sqlstate voor PySparkException
- SPARK-54435 spark-pipelines init moet voorkomen dat bestaande directory wordt overschreven
- SPARK-54247 Expliciet socket sluiten voor util._load_from_socket
Ondersteuning voor Databricks ODBC-/JDBC-stuurprogramma's
Databricks ondersteunt ODBC-/JDBC-stuurprogramma's die in de afgelopen 2 jaar zijn uitgebracht. Download de onlangs uitgebrachte stuurprogramma's en upgrade (ODBC-downloaden, JDBC-downloaden).
Systeemomgeving
- Besturingssysteem: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.1
Geïnstalleerde Python-bibliotheken
| Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| geannoteerd document | 0.0.4 | geannoteerde typen | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi koppelstukken | 21.2.0 | arro3-core | 0.6.5 |
| pijl | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | kenmerken | 24.3.0 | autocommando | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | Azure Storage Blob | 12.28.0 |
| Azure Storage File Data Lake | 12.22.0 | Babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | zwart | 24.10.0 | bleekmiddel | 6.2.0 |
| knipperlicht | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cachetools | 5.5.1 | certificaat | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | charset-normalizer | 3.3.2 | klikken | 8.1.8 |
| cloudpickle | 3.0.0 | communicatie | 0.2.1 | contourpy | 1.3.1 |
| cryptografie | 44.0.1 | wielrijder | 0.11.0 | Cython | 3.1.5 |
| databricks-agents | 1.9.1 | databricks-sdk (softwareontwikkelkit) | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorateur | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Van docstring naar markdown | 0.11 | Uitvoeren | 1.2.0 |
| facettenoverzicht | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| bestandsvergrendeling | 3.17.0 | lettertypegereedschappen | 4.55.3 | fqdn | 1.5.1 |
| bevroren lijst | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | Google-authenticatie | 2.47.0 |
| google-cloud-core | 2.5.0 | Google Cloud Storage (opslag in de cloud van Google) | 3.7.0 | google-crc32c | 1.8.0 |
| google-heropneembare-media | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| vervoegen | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate (ISO-datum) | 0.7.2 | isoduratie | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | jupyter-evenementen | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| Jupyter-server | 2.15.0 | Jupyter-serverterminals | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | spekje | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| onstemmen | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal (Microsoft Authentication Library) | 1.34.0 | msal-uitbreidingen | 1.3.1 |
| meervoudig woordenboek | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | notitieboek_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| opentelemetry-semantische-conventies | 0.60b1 | orjson | 3.11.5 | Overschrijvingen | 7.4.0 |
| verpakking | 24,2 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | Patsy | 1.0.1 |
| pexpect | 4.8.0 | kussen | 11.1.0 | ropje | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | plugachtig | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-hulpmiddelenpakket | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protocolbuffers | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic (een Python-bibliotheek voor datavalidatie en instellingenbeheer) | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| pyroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil (een bibliotheek voor datum- en tijdgebaseerde functionaliteit in Python) | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | verwijzen | 0.30.2 |
| regex | 2024.11.6 | Verzoeken | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rijk | 13.9.4 |
| touw | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | Scipy (een wetenschappelijke bibliotheek voor Python) | 1.15.3 |
| geboren op zee | 0.13.2 | Send2Trash | 1.8.2 | setuptools (een Python-pakket voor het beheren van installatie en distributie van pakketten) | 78.1.1 |
| shellingham | 1.5.4 | Zes | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | gesorteerde containers | 2.4.0 | Soupsieve | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | stapelgegevens | 0.6.3 |
| sterretje | 0.50.0 | strictyaml | 1.7.3 | vasthoudendheid | 9.0.0 |
| afgerond | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokeniseerders | 0.22.2 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| Traitlets (Python library voor het configureren van Python-objecten) | 5.14.3 | typebeveiliging | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | typinspectie | 0.9.0 | typuitbreidingen | 4.12.2 |
| tzdata | 2024.1 | ujson (een Python-bibliotheek voor snelle JSON-verwerking) | 5.10.0 | automatische upgrades zonder toezicht | 0,1 |
| URI-sjabloon | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 25.10.0 | Webencoderingen | 0.5.1 |
| websocket-client | 1.8.0 | whatthepatch | 1.0.2 | wiel | 0.45.1 |
| wanneer | 0.7.3 | widgetsnbextension | 3.6.6 | omsloten | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | ritssluiting | 3.21.0 |
| zstandard | 0.23.0 |
Geïnstalleerde R-bibliotheken
R-bibliotheken worden geïnstalleerd vanuit de Posit Package Manager CRAN-momentopname op 2025-11-20.
| Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
|---|---|---|---|---|---|
| pijl | 22.0.0 | wachtwoord vragen | 1.2.1 | verzeker dat | 0.2.1 |
| terugimporten | 1.5.0 | basis | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | 64-bitsysteem | 4.6.0-1 |
| bitops | 1.0-9 | Druppel | 1.2.4 | opstarten | 1.3-30 |
| brouwen | 1.0-10 | Brio | 1.1.5 | bezem | 1.0.10 |
| bslib | 0.9.0 | cachem | 1.1.0 | oproeper | 3.7.6 |
| Caret | 7.0-1 | cellranger (softwaretool voor genetische analyse) | 1.1.0 | Chrono | 2.3-62 |
| class | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| klok | 0.7.3 | groep | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | programmacompileerder | 4.5.1 | config | 0.3.2 |
| Tegenstrijdig | 1.2.0 | cpp11 | 0.5.2 | krijt | 1.5.3 |
| credentials | 2.0.3 | curl | 7.0.0 | gegevenstabel | 1.17.8 |
| gegevenssets | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| beschrijving | 1.4.3 | devtools | 2.4.6 | schematisch overzicht | 1.6.5 |
| diffobj | 0.3.6 | samenvatten | 0.6.39 | neerwaartse verlichting | 0.4.5 |
| dplyr (een R-pakket voor gegevensmanipulatie) | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| ellips | 0.3.2 | beoordelen | 1.0.5 | fans | 1.0.7 |
| kleuren | 2.1.2 | snelle kaart | 1.2.0 | Fontawesome | 0.5.3 |
| dwangarbeiders | 1.0.1 | foreach | 1.5.2 | buitenland | 0,8-86 |
| fs | 1.6.6 | toekomst | 1.68.0 | future.apply | 1.20.0 |
| gorgelen | 1.6.0 | Generieken | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globale variabelen | 0.18.0 |
| lijm | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | afbeeldingen | 4.5.1 | grDevices | 4.5.1 |
| raster / netwerk | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | veiligheidshelm | 1.4.2 |
| toevluchtsoord/schuilplaats | 2.5.5 | hoger | 0.11 | HMS | 1.1.4 |
| htmltools | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | identiteiten | 1.0.1 |
| ini | 0.3.1 | IPRED | 0.9-15 | isoband | 0.2.7 |
| Iteratoren | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| JuicyJuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1.50 |
| Etikettering | 0.4.3 | daarna | 1.4.4 | latwerk | 0,22-5 |
| lava | 1.8.2 | levenscyclus | 1.0.4 | luisteren | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | MASSA | 7.3-60.0.1 | Matrix | 1.6-5 |
| memoriseer | 2.0.1 | Methoden | 4.5.1 | mgcv | 1.9-1 |
| mimekunst | 0,13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelleur | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8 tot 1.1 | OpenSSL-software | 2.3.4 |
| otel | 0.2.0 | evenwijdig | 4.5.1 | op een parallelle wijze | 1.45.1 |
| pilaar | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | prijzen | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | Processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | vooruitgang | 1.2.3 | progressr | 0.18.0 |
| beloften | 1.5.0 | proto | 1.0.0 | tussenpersoon | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | reageerbaar | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl (een programma voor het lezen van Excel-bestanden) | 1.4.5 | Recepten | 1.3.1 |
| Herwedstrijd | 2.0.0 | revanche2 | 2.1.2 | Afstandsbedieningen | 2.5.0 |
| reprex (reproduceerbaar voorbeeld) | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart (een R-pakket voor beslissingsboommodellering) | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest (een softwarepakket voor webscraping) | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| weegschalen | 1.4.0 | Selectr | 0,4-2 | sessiegegevens | 1.2.3 |
| vorm | 1.4.6.1 | glanzend | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| ruimtelijk | 7.3-17 | Spieën | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | statistieken | 4.5.1 | statistieken4 | 4.5.1 |
| strings | 1.8.7 | stringr | 1.6.0 | overleven | 3.5-8 |
| Bravoure | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | tekstvorming | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | tijdverandering | 0.3.0 | tijd en datum | 4051.111 |
| tinytex | 0.58 | gereedschappen | 4.5.1 | tzdb | 0.5.0 |
| URL-controleprogramma | 1.0.1 | gebruik dit | 3.2.1 | utf8 | 1.2.6 |
| hulpmiddelen | 4.5.1 | UUID (Universally Unique Identifier) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.6 |
| Waldo | 0.6.2 | snorharen | 0.4.1 | verwelken | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML | 2.3.10 | zeloot | 0.2.0 |
| ZIP-bestand | 2.3.3 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.13-clusterversie)
| Groeps-id | Artefact-ID | Versie |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon Kinesis-client | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling (Amazon Web Services Java Software Development Kit voor automatisch schalen) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | aws-java-sdk-config (configuratie) | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | AWS Java SDK Datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.681 |
| com.amazonaws | AWS Java SDK - Elastic Load Balancing | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK Glacier) | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue (een softwareontwikkelingskit voor het werken met AWS Glue in Java) | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | AWS Java SDK Import/Export | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logbestanden | 1.12.681 |
| com.amazonaws | AWS-Java-SDK-MachineLearning | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (een Java software development kit voor het beheren van opslaggateways in AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | aws-java-sdk-ondersteuning | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | beek | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-gekleurd | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | klasgenoot | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | cafeïne | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-autochtonen |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-autochtonen |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-autochtonen |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-autochtonen |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | automatische waardeaantekeningen | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson (een Java-bibliotheek voor het converteren van Java-objecten naar JSON en vice versa) | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone (foutgevoelig) | foutgevoelige_aantekeningen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | toegangsfalen | 1.0.3 |
| com.google.guava | guave | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-aantekeningen | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profielmaker | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure-Data-Lake-Store-SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (een compressie-algoritme) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core (Java-architectuur voor XML-binding) | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| gemeenschappelijke collecties | gemeenschappelijke collecties | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| bestandsupload van commons | bestandsupload van commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| gemeenschappelijke-logboekvoorziening | gemeenschappelijke-logboekvoorziening | 1.1.3 |
| commons-pool (gemeenschappelijke pool) | commons-pool (gemeenschappelijke pool) | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | explosie | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | luchtdrukmachine | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | annotatie van metrieken | 4.2.37 |
| io.dropwizard.metrics | kern van metrische gegevens | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | meetwaarden-gezondheidscontroles | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json (metrische gegevens in JSON-formaat) | 4.2.37 |
| io.dropwizard.metrics | metriekgegevens voor JVM | 4.2.37 |
| io.dropwizard.metrics | metrieke gegevens-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | Netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | Netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-sokken | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-klassen | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-klassen-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-natieve-unix-algemeen | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common (algemene module voor eenvoudige client) | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_traceerder_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | verzamelaar | 0.18.0 |
| jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activatie | 1.1.1 |
| javax.annotatie | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | transactie-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pekelen | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.sneeuwvlok | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mier | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher (startprogramma voor Ant) | 1.10.11 |
| org.apache.arrow | pijlcompressie | 18.3.0 |
| org.apache.arrow | pijl-formaat | 18.3.0 |
| org.apache.arrow | pijlpunt-geheugen-kern | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | arrow-geheugen-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | vector met pijl | 18.3.0 |
| org.apache.avro | AVRO | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress - een bibliotheek voor compressie | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-tekst | 1.14.0 |
| org.apache.curator | beheerder-cliënt | 5.9.0 |
| org.apache.curator | curatorraamwerk | 5.9.0 |
| org.apache.curator | curatorrecepten | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | gegevensschetsen-geheugen | 3.0.2 |
| org.apache.derby | Derbywedstrijd | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-uitvoeringsomgeving | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-opslag-API | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common (if no translation is needed for understanding, the original can be kept as is) | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | klimop | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-indeling | 1.1.1-gearceerde protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-shims | 2.2.0 |
| org.apache.poi | Poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | annotaties voor het publiek | 0.13.0 |
| org.apache.zookeeper | dierentuinverzorger | 3.9.4 |
| org.apache.zookeeper | dierentuinopzichter-jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | algemene compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy (een omgekeerde proxy server gebaseerd op Jetty) | 10.0.26 |
| org.eclipse.jetty | Jetty-beveiliging | 10.0.26 |
| org.eclipse.jetty | Jetty Server | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | jetty-webapp | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokalisator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-hulpbronnenzoeker | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-opnieuw verpakt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | Algemene Jersey | 2.41 |
| org.glassfish.jersey.core | Jersey-Server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | scalatest-compatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | katten-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |