Share via


Databricks Runtime 13.1 (niet ondersteund)

Azure Databricks heeft deze installatiekopieën uitgebracht in mei 2023.

De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 13.1, mogelijk gemaakt door Apache Spark 3.4.0.

Nieuwe functies en verbeteringen

Clusterondersteuning voor JDK 17 (openbare preview)

Databricks biedt nu clusterondersteuning voor Java Development Kit (JDK) 17. Zie Databricks SDK voor Java.

Gegevens toevoegen, wijzigen of verwijderen in streamingtabellen

U kunt nu DML-instructies gebruiken om streamingtabellen te wijzigen die zijn gepubliceerd naar Unity Catalog door Delta Live Tables-pijplijnen. Zie Gegevens toevoegen, wijzigen of verwijderen in een streamingtabel en gegevens toevoegen, wijzigen of verwijderen in een doelstreamingtabel. U kunt ook DML-instructies gebruiken om streamingtabellen te wijzigen die zijn gemaakt in Databricks SQL.

Kafka lezen met SQL

U kunt nu de read_kafka SQL-functie gebruiken om Kafka-gegevens te lezen. Streamen met SQL wordt alleen ondersteund in Delta Live Tables of met streamingtabellen in Databricks SQL. Zie read_kafka functie met tabelwaarde.

Nieuwe ingebouwde SQL-functies

De volgende functies zijn toegevoegd:

Ondersteuning voor Unity Catalog voor Python-bibliotheken met clusterbereik

Unity Catalog heeft enkele beperkingen voor het gebruik van bibliotheken. In Databricks Runtime 13.1 en hoger worden Python-bibliotheken met clusterbereik ondersteund, waaronder Python-wielbestanden die als werkruimtebestanden worden geüpload. Bibliotheken waarnaar wordt verwezen met dbFS-bestandspaden worden niet ondersteund, ongeacht of deze zich in de DBFS-hoofdmap of een externe locatie bevinden die is gekoppeld aan DBFS. Niet-Python-bibliotheken worden niet ondersteund. Zie Clusterbibliotheken.

In Databricks Runtime 13.0 en lager worden clusterbibliotheken niet ondersteund op clusters die gebruikmaken van de modus voor gedeelde toegang in een werkruimte met Unity Catalog-functionaliteit.

Uitgebreide standaardinstelling voor geoptimaliseerde schrijfbewerkingen in Unity Catalog

Standaard geoptimaliseerde schrijfondersteuning voor Delta-tabellen die zijn geregistreerd in Unity Catalog, is uitgebreid met CTAS instructies en INSERT bewerkingen voor gepartitioneerde tabellen. Dit gedrag is afgestemd op de standaardinstellingen voor SQL-warehouses. Zie Geoptimaliseerde schrijfbewerkingen voor Delta Lake in Azure Databricks.

Geavanceerde ondersteuning voor stateful operators in structured streaming-workloads

U kunt nu meerdere stateful operators samenvoegen, wat betekent dat u de uitvoer van een bewerking, zoals een gevensterde aggregatie, kunt doorvoeren naar een andere stateful bewerking, zoals een join. Zie Stateful Structured Streaming-query's optimaliseren.

Delta-kloon voor Unity Catalog bevindt zich in openbare preview

U kunt nu ondiepe kloon gebruiken om nieuwe beheerde Unity Catalog-tabellen te maken op basis van bestaande beheerde tabellen in Unity Catalog. Zie Ondiepe kloon voor Unity Catalog-tabellen.

Pub-/subondersteuning voor gestructureerd streamen

U kunt nu een ingebouwde connector gebruiken om u te abonneren op Google Pub/Sub met Structured Streaming. Zie Abonneren op Google Pub/Sub.

Dubbele waarden in watermerken in Gestructureerd streamen verwijderen

U kunt nu in combinatie met een opgegeven drempelwaarde voor watermerken gebruiken dropDuplicatesWithinWatermark om records in Structured Streaming te ontdubbelen. Zie Dubbele waarden in watermerk verwijderen.

Uitgebreide ondersteuning voor Delta-conversies van Iceberg-tabellen met afgekapte partitiekolommen

U kunt nu CLONE en CONVERT TO DELTA met Iceberg-tabellen die partities hebben gedefinieerd voor afgekapte kolommen van typen int, longen string. Afgekapte kolommen van het type decimal worden niet ondersteund.

Schemawijzigingen streamen met kolomtoewijzing in Delta Lake

U kunt nu een locatie voor schematracking opgeven om streaming vanuit Delta-tabellen in te schakelen waarvoor kolomtoewijzing is ingeschakeld. Zie Streaming met kolomtoewijzing en schemawijzigingen.

STARTVERSIE verwijderen

START VERSION is nu afgeschaft voor ALTER SHARE.

Nieuwe H3-expressies die beschikbaar zijn met Python

De h3_coverash3 expressies en h3_coverash3string expressies zijn beschikbaar met Python.

Bugfixes

Parquet failOnUnknownFields zet gegevens niet meer op de achtergrond neer bij type komt niet overeen

Als een Parquet-bestand is gelezen met alleen de failOnUnknownFields optie of met automatisch laden in de failOnNewColumns modus voor schemaontwikkeling, mislukken kolommen met verschillende gegevenstypen nu en raden u aan om het gebruik te gebruiken rescuedDataColumn. Automatisch laden leest nu correct en redt niet langer gehele getallen, korte of bytetypen als een van deze gegevenstypen wordt opgegeven. Het Parquet-bestand stelt een van de andere twee typen voor.

Wijzigingen die fouten veroorzaken

Upgrade sqlite-jdbc-versie naar 3.42.0.0 om CVE-2023-32697 te adresseren

Voer een upgrade uit van sqlite-jdbc-versie van 3.8.11.2 naar 3.42.0.0. De API's van versie 3.42.0.0 zijn niet volledig compatibel met 3.8.11.2. Als u sqlite-jdbc in uw code gebruikt, controleert u het compatibiliteitsrapport sqlite-jdbc voor meer informatie. Als u migreert naar 13.1 en sqlite gebruikt, bevestigt u uw methoden en retourneert u versie 3.42.0.0.

Bibliotheekupgrades

  • Bijgewerkte Python-bibliotheken:
    • facetten-overzicht van 1.0.2 tot 1.0.3
    • filelock van 3.10.7 tot 3.12.0
    • pyarrow van 7.0.0 tot 8.0.0
    • tenacity van 8.0.1 tot 8.1.0
  • Bijgewerkte R-bibliotheken:
  • Bijgewerkte Java-bibliotheken:
    • com.github.ben-manes.cafeïne.cafeïne van 2.3.4 tot 2.9.3
    • org.apache.orc.orc-core van 1.8.2-shaded-protobuf tot 1.8.3-shaded-protobuf
    • org.apache.orc.orc-mapreduce from 1.8.2-shaded-protobuf to 1.8.3-shaded-protobuf
    • org.apache.orc.orc-shims van 1.8.2 tot 1.8.3
    • org.checkerframework.checker-qual van 3.5.0 tot 3.19.0
    • org.scalactic.scalactic_2.12 van 3.0.8 tot 3.2.15
    • org.scalatest.scalatest_2.12 van 3.0.8 tot 3.2.15
    • org.xerial.sqlite-jdbc van 3.8.11.2 tot 3.42.0.0

Apache Spark

Databricks Runtime 13.1 bevat Apache Spark 3.4.0. Deze release bevat alle Spark-oplossingen en -verbeteringen die zijn opgenomen in Databricks Runtime 13.0 (niet ondersteund) en de volgende aanvullende bugfixes en verbeteringen in Spark:

  • [SPARK-42719] [DBRRM-199] [SC-131578] "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166] [SC-130056] [CORE] [SC-127830]/
  • [SPARK-43331] [SC-130064] [VERBINDING MAKEN] Spark Verbinding maken SparkSession.interruptAll toevoegen
  • [SPARK-16484] [13.1] [CHERRY_PICK] [SC-130076] [SQL] 8-bits registers gebruiken voor het weergeven van DataSketches
  • [SPARK-43332] [SC-130051] [VERBINDING MAKEN] [PYTHON] Het mogelijk maken om ChannelBuilder voor Spark uit te breiden Verbinding maken Client
  • [SPARK-43323] [SC-129966] [SQL] [PYTHON] DataFrame.toPandas herstellen met Pijl ingeschakeld om uitzonderingen correct te verwerken
  • [SPARK-42940] [SC-129896] [SS] [VERBINDING MAKEN] Sessiebeheer voor streamingquery's verbeteren
  • [SPARK-43336] [SQL] Gieten tussen timestamp en timestampNTZ vereist tijdzone
  • [SPARK-43032] [SC-125756] [VERBINDING MAKEN] [SS] Streamingquerybeheer toevoegen
  • [SPARK-16484] [SC-129975] [SQL] Ondersteuning voor Datasketches HllSketch toevoegen
  • [SPARK-43260] [SC-129281] [PYTHON] Migreer de spark SQL Pandas-pijltypefouten naar foutklasse.
  • [SPARK-41766] [SC-129964] [CORE] De uit bedrijf genomen aanvraag verwerken die vóór de uitvoerderregistratie is verzonden
  • [SPARK-43307] [SC-129971] [PYTHON] PandasUDF-waardefouten migreren naar foutklasse
  • [SPARK-43206] [SC-129903] [SS] [VERBINDING MAKEN] StreamingQuery-uitzondering() bevat stacktracering
  • [SPARK-43311] [SC-129905] [SS] Verbeteringen voor geheugenbeheer van de rocksDB-statusopslagprovider toevoegen
  • [SPARK-43237] [SC-129898] [CORE] Null-uitzonderingsbericht verwerken in gebeurtenislogboek
  • [SPARK-43320] [SC-129899] [SQL] [HIVE] Hive 2.3.9 API rechtstreeks aanroepen
  • [SPARK-43270] [SC-129897] [PYTHON] Implementeren __dir__() om pyspark.sql.dataframe.DataFrame kolommen op te nemen
  • [SPARK-43183] [SC-128938][SS] Introduceer een nieuwe callback "...
  • [SPARK-43143] [SC-129902] [SS] [VERBINDING MAKEN] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675] [SQL] Vervang de foutklasse _LEGACY_ERROR_TEMP_2022 door een interne fout
  • [SPARK-43198] [SC-129470] [VERBINDING MAKEN] Oplossing 'Kan klasse ammonite niet initialiseren...' bij het gebruik van filter
  • [SPARK-43165] [SC-129777] [SQL] Move canWrite to DataTypeUtils
  • [SPARK-43298] [SC-129729] [PYTHON] [ML] predict_batch_udf met scalaire invoer mislukt met batchgrootte van één
  • [SPARK-43298] [SC-129700] "[PYTHON][ML] predict_batch_udf met scalaire invoer mislukt met batchgrootte van één"
  • [SPARK-43052] [SC-129663] [CORE] Stacktrace verwerken met null-bestandsnaam in gebeurtenislogboek
  • [SPARK-43183] [SC-128938] [SS] Een nieuwe callback 'onQueryIdle' introduceren bij StreamingQueryListener
  • [SPARK-43209] [SC-129190] [VERBINDING MAKEN] [PYTHON] Expressiefouten migreren naar foutklasse
  • [SPARK-42151] [SC-128754] [SQL] UPDATE-toewijzingen uitlijnen met tabelkenmerken
  • [SPARK-43134] [SC-129468] [VERBINDING MAKEN] [SS] Uitzonderings-API voor JVM-client StreamingQuery()
  • [SPARK-43298] [SC-129699] [PYTHON] [ML] predict_batch_udf met scalaire invoer mislukt met batchgrootte van één
  • [SPARK-43248] [SC-129660] [SQL] Onnodig serialiseren/deserialiseren van pad op parallelle gegevens voor het verzamelen van partitiestatistieken
  • [SPARK-43274] [SC-129464] [SPARK-43275] [PYTHON] [VERBINDING MAKEN] Introduceren PySparkNotImplementedError
  • [SPARK-43146] [SC-128804] [VERBINDING MAKEN] [PYTHON] Gretige evaluatie implementeren voor uitstel en repr_html
  • [SPARK-42953] [SC-129469] [Verbinding maken][Followup] Maven-testbuild herstellen voor UDF-tests voor Scala-client
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358] [VERBINDING MAKEN] GroupByKey + mapGroup + coGroup-functies toevoegen
  • [SPARK-43156] [SC-129672] [SC-128532] [SQL] Fout COUNT(*) is null opgelost in gecorreleerde scalaire subquery
  • [SPARK-43046] [SC-129110] [SS] [Verbinding maken] Python API dropDuplicatesWithinWatermark geïmplementeerd voor Spark Verbinding maken
  • [SPARK-43199] [SC-129467] [SQL] InlineCTE idempotent maken
  • [SPARK-43293] [SC-129657] [SQL] __qualified_access_only moet worden genegeerd in normale kolommen
  • [SPARK-43276] [SC-129461] [VERBINDING MAKEN] [PYTHON] Spark Verbinding maken-vensterfouten migreren naar foutklasse
  • [SPARK-43174] [SC-129109] [SQL] SparkSQLCLIDriver completer herstellen
  • [SPARK-43084] [SC-128654] [SS] ApplyInPandasWithState-ondersteuning toevoegen voor Spark Connect
  • [SPARK-43119] [SC-129040] [SQL] Ondersteuning voor dynamisch ophalen van SQL-trefwoorden Thru JDBC-API en TVF
  • [SPARK-43082] [SC-129112] [VERBINDING MAKEN] [PYTHON] Python-UDF's die zijn geoptimaliseerd voor pijlen in Spark Verbinding maken
  • [SPARK-43085] [SC-128432] [SQL] Ondersteuning voor kolom DEFAULT-toewijzing voor tabelnamen met meerdere delen
  • [SPARK-43156] [SC-129463] [SPARK-43098] [SQL] De fouttest scalaire subquery uitbreiden met decorrelateInnerQuery uitgeschakeld
  • [SPARK-43226] [LC-671] Extractoren definiëren voor bestandsconstante metagegevens
  • [SPARK-43210] [SC-129189] [VERBINDING MAKEN] [PYTHON] Introduceren PySparkAssertionError
  • [SPARK-43214] [SC-129199] [SQL] Metrische gegevens aan de stuurprogrammazijde voor LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] ReplE2ESuite consistent mislukken met JDK 17
  • [SPARK-43268] [SC-129249] [SQL] Gebruik de juiste foutklassen wanneer uitzonderingen worden samengesteld met een bericht
  • [SPARK-43142] [SC-129299] DSL-expressies herstellen op kenmerken met speciale tekens
  • [SPARK-43129] [SC-128896] Scala core-API voor het streamen van Spark-Verbinding maken
  • [SPARK-43233] [SC-129250] [SS] Logboekregistratie toevoegen voor Kafka Batch-lezen voor onderwerppartitie, offsetbereik en taak-id
  • [SPARK-43249] [SC-129195] [VERBINDING MAKEN] Ontbrekende statistieken voor SQL-opdracht herstellen
  • [SPARK-42945] [SC-129188] [VERBINDING MAKEN] Ondersteuning voor PYSPARK_JVM_STACKTRACE_ENABLED in Spark-Verbinding maken
  • [SPARK-43178] [SC-129197] [VERBINDING MAKEN] [PYTHON] UDF-fouten migreren naar pySpark-foutframework
  • [SPARK-43123] [SC-128494] [SQL] Metagegevens van interne velden mogen niet worden gelekt naar catalogi
  • [SPARK-43217] [SC-129205] Correct recurse in geneste kaarten/matrices in findNestedField
  • [SPARK-43243] [SC-129294] [PYTHON] [VERBINDING MAKEN] Niveauparam toevoegen aan printSchema voor Python
  • [SPARK-43230] [SC-129191] [VERBINDING MAKEN] Vereenvoudigen DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403] [SQL] Respect RequiresDistributionAndOrdering in CTAS/RTAS
  • [SPARK-43234] [SC-129192] [VERBINDING MAKEN] [PYTHON] Migreren ValueError van Conect DataFrame naar foutklasse
  • [SPARK-43212] [SC-129187] [SS] [PYTHON] Structured Streaming-fouten migreren naar foutklasse
  • [SPARK-43239] [SC-129186] [PS] Verwijderen null_counts uit info()
  • [SPARK-43190] [SC-128930] [SQL] ListQuery.childOutput moet consistent zijn met onderliggende uitvoer
  • [SPARK-43191] [SC-128924] [CORE] Weerspiegeling vervangen met directe aanroepen voor Hadoop CallerContext
  • [SPARK-43193] [SC-129042] [SS] Tijdelijke oplossing verwijderen voor HADOOP-12074
  • [SPARK-42657] [SC-128621] [VERBINDING MAKEN] Ondersteuning voor het vinden en overdragen van REPL-klassebestanden aan de clientzijde als artefacten naar de server
  • [SPARK-43098] [SC-77059] [SQL] Corrigeer de fout AANTAL correctheid wanneer scalaire subquery groeperen op component heeft
  • [SPARK-43213] [SC-129062] [PYTHON] Toevoegen DataFrame.offset aan vanille PySpark
  • [SPARK-42982] [SC-128400] [VERBINDING MAKEN] [PYTHON] CreateDataFrame herstellen om het opgegeven schema ddl te respecteren
  • [SPARK-43124] [SC-129011] [SQL] Dataset.show projects CommandResults lokaal
  • [SPARK-42998] [SC-127422] [VERBINDING MAKEN] [PYTHON] DataFrame.collect herstellen met null-struct
  • [SPARK-41498] [SC-125343] 'Metagegevens doorgeven via Union' terugzetten
  • [SPARK-42960] [SC-129010] [VERBINDING MAKEN] [SS] API voor streamingquery toevoegen await_termination() en uitzondering() in Python
  • [SPARK-42552] [SC-128824] [SQL] Corrigeer de parseringsstrategie in twee fasen van een antlr-parser
  • [SPARK-43207] [SC-128937] [VERBINDING MAKEN] Helperfuncties toevoegen om waarde te extraheren uit letterlijke expressie
  • [SPARK-43186] [SC-128841] [SQL] [HIVE] Tijdelijke oplossing verwijderen voor FileSinkDesc
  • [SPARK-43107] [SC-128533] [SQL] Coalesce buckets in join toegepast op broadcast join side
  • [SPARK-43195] [SC-128922] [CORE] Overbodige serialiseerbare wrapper verwijderen in HadoopFSUtils
  • [SPARK-43137] [SC-128828] [SQL] Verbeter ArrayInsert als de positie vouwbaar en positief is.
  • [SPARK-37829] [SC-128827] [SQL] Dataframe.joinWith outer-join moet een null-waarde retourneren voor niet-overeenkomende rij
  • [SPARK-43042] [SC-128602] [SS] [Verbinding maken] Api-ondersteuning voor table() toevoegen voor DataStreamReader
  • [SPARK-43153] [SC-128753] [VERBINDING MAKEN] Spark-uitvoering overslaan wanneer het dataframe lokaal is
  • [SPARK-43064] [SC-128496] [SQL] Het tabblad Spark SQL CLI SQL mag slechts één keer een instructie weergeven
  • [SPARK-43126] [SC-128447] [SQL] Twee Hive UDF-expressies markeren als stateful
  • [SPARK-43111] [SC-128750] [PS] [VERBINDING MAKEN] [PYTHON] Geneste if instructies samenvoegen in één if instructie
  • [SPARK-43113] [SC-128749] [SQL] Variabelen aan de streamzijde evalueren bij het genereren van code voor een afhankelijke voorwaarde
  • [SPARK-42895] [SC-127258] [VERBINDING MAKEN] Foutberichten voor gestopte Spark-sessies verbeteren
  • [SPARK-42884] [SC-126662] [VERBINDING MAKEN] Ammonite REPL-integratie toevoegen
  • [SPARK-43168] [SC-128674] [SQL] De methode Get PhysicalDataType verwijderen uit de klasse Datatype
  • [SPARK-43121] [SC-128455] [SQL] Gebruik BytesWritable.copyBytes in plaats van handmatige kopie in HiveInspectors
  • [SPARK-42916] [SC-128389] [SQL] JDBCTableCatalog bewaart Char/Varchar-meta aan de leeszijde
  • [SPARK-43050] [SC-128550] [SQL] Samenvoegingsexpressies herstellen door groeperingsfuncties te vervangen
  • [SPARK-43095] [SC-128549] [SQL] Vermijd zodra de idempotentie van de strategie is verbroken voor batch: Infer Filters
  • [SPARK-43130] [SC-128597] [SQL] InternalType verplaatsen naar PhysicalDataType
  • [SPARK-43105] [SC-128456] [VERBINDING MAKEN] Bytes en tekenreeksen in protobericht afkorten
  • [SPARK-43099] [SC-128596] [SQL] Gebruik getName in plaats van om de klassenaam van getCanonicalName de opbouwfunctie op te halen bij het registreren van udf bij FunctionRegistry
  • [SPARK-42994] [SC-128586] [ML] [VERBINDING MAKEN] PyTorch Distributor biedt ondersteuning voor lokale modus
  • [SPARK-42859] [SC-127935][CONNECT][PS] Basisondersteuning voor pandas-API op Spark Verbinding maken terugzetten
  • [SPARK-43021] [SC-128472] [SQL] CoalesceBucketsInJoin werkt niet wanneer u AQE gebruikt
  • [SPARK-43125] [SC-128477] [VERBINDING MAKEN] Oplossing voor Verbinding maken Server kan geen uitzondering verwerken met null-bericht
  • [SPARK-43147] [SC-128594] fix flake8 lint voor lokale controle
  • [SPARK-43031] [SC-128360] [SS] [Verbinding maken] Eenheidstest en doctest inschakelen voor streaming
  • [SPARK-43039] [LC-67] Ondersteuning voor aangepaste velden in de _metadata kolom van de bestandsbron.
  • [SPARK-43120] [SC-128407] [SS] Ondersteuning toegevoegd voor het bijhouden van vastgemaakte blokken geheugengebruik voor rocksDB-statusopslag
  • [SPARK-43110] [SC-128381] [SQL] AsIntegral verplaatsen naar PhysicalDataType
  • [SPARK-43118] [SC-128398] [SS] Verwijder onnodige assertie voor UninterruptibleThread in KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331] [VERBINDING MAKEN] [PYTHON] Ondersteuning voor dubbele geneste veldnamen
  • [SPARK-42437] [SC-128339] [PYTHON] [VERBINDING MAKEN] PySpark catalog.cacheTable kan opslagniveau opgeven
  • [SPARK-42985] [SC-128332] [VERBINDING MAKEN] [PYTHON] CreateDataFrame herstellen om de SQL-configuraties te respecteren
  • [SPARK-39696] [SC-127830] [CORE] Gegevensrace herstellen in toegang tot TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335] [SQL] Integraal verplaatsen naar PhysicalDataType
  • [SPARK-42741] [SC-125547] [SQL] Niet uitpakken van casts in binaire vergelijking wanneer letterlijke waarde null is
  • [SPARK-43057] [SC-127948] [VERBINDING MAKEN] [PYTHON] Spark Verbinding maken-kolomfouten migreren naar foutklasse
  • [SPARK-42859] [SC-127935] [VERBINDING MAKEN] [PS] Basisondersteuning voor pandas-API in Spark Verbinding maken
  • [SPARK-43013] [SC-127773] [PYTHON] Migreren ValueError van DataFrame naar PySparkValueError.
  • [SPARK-43089] [SC-128051] [VERBINDING MAKEN] Foutopsporingstekenreeks opnieuw uitvoeren in de gebruikersinterface
  • [SPARK-43028] [SC-128070] [SQL] Foutklasse toevoegen SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842] [Verbinding maken] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937] [SQL] Test toevoegen voor dropDuplicates in JavaDatasetSuite
  • [SPARK-43075] [SC-127939] [VERBINDING MAKEN] Schakel gRPC over naar grpcio wanneer deze niet is geïnstalleerd.
  • [SPARK-42953] [SC-127809] [Verbinding maken] Getypt filter, kaart, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506] [SQL] Ondersteuning voor datumtype uitpakken naar tijdstempeltype
  • [SPARK-42931] [SC-127933] [SS] Introduceer dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943] [VERBINDING MAKEN] Proto-gegevenstypen constanten toevoegen
  • [SPARK-43077] [SC-128050] [SQL] Het foutbericht van UNRECOGNIZED_SQL_TYPE verbeteren
  • [SPARK-42951] [SC-128030] [SS] [Verbinding maken] DataStreamReader-API's
  • [SPARK-43049] [SC-127846] [SQL] CLOB gebruiken in plaats van VARCHAR(255) voor StringType voor Oracle JDBC
  • [SPARK-43018] [SC-127762] [SQL] Fout opgelost voor INSERT-opdrachten met letterlijke tijdstempels
  • [SPARK-42855] [SC-127722] [SQL] Runtime null-controles gebruiken in TableOutputResolver
  • [SPARK-43030] [SC-127847] [SQL] Relaties met metagegevenskolommen ontdubbelen
  • [SPARK-42993] [SC-127829] [ML] [VERBINDING MAKEN] PyTorch Distributor compatibel maken met Spark Verbinding maken
  • [SPARK-43058] [SC-128072] [SQL] Numeriek en fractioneel verplaatsen naar PhysicalDataType
  • [SPARK-43056] [SC-127946] [SS] De doorvoer van de rocksDB-statusopslag mag alleen op de achtergrond blijven werken als deze is onderbroken
  • [SPARK-43059] [SC-127947] [VERBINDING MAKEN] [PYTHON] TypeError migreren vanuit DataFrame(Reader|Schrijver) in foutklasse
  • [SPARK-43071] [SC-128018] [SQL] Ondersteuning voor SELECT DEFAULT met ORDER BY, LIMIT, OFFSET voor INSERT-bronrelatie
  • [SPARK-43061] [SC-127956] [CORE] [SQL] PartitionEvaluator introduceren voor uitvoering van SQL-operator
  • [SPARK-43067] [SC-127938] [SS] De locatie van het resourcebestand van de foutklasse corrigeren in de Kafka-connector
  • [SPARK-43019] [SC-127844] [SQL] Volgorde verplaatsen naar PhysicalDataType
  • [SPARK-43010] [SC-127759] [PYTHON] Kolomfouten migreren naar foutklasse
  • [SPARK-42840] [SC-127782] [SQL] Fout wijzigen _LEGACY_ERROR_TEMP_2004 in interne fout
  • [SPARK-43041] [SC-127765] [SQL] Constructors van uitzonderingen herstellen voor compatibiliteit in connector-API
  • [SPARK-42939] [SC-127761] [SS] [VERBINDING MAKEN] Python-kernstreaming-API voor Spark-Verbinding maken
  • [SPARK-42844] [SC-127766] [SQL] De foutklasse _LEGACY_ERROR_TEMP_2008 bijwerken naar INVALID_URL
  • [SPARK-42316] [SC-127720] [SQL] Naam toewijzen aan _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723] [VERBINDING MAKEN] [PYTHON] Spark Verbinding maken DataFrame-fouten migreren naar foutklasse
  • [SPARK-42983] [SC-127717] [VERBINDING MAKEN] [PYTHON] CreateDataFrame corrigeren om 0-dim numpy-matrix correct te verwerken
  • [SPARK-42955] [SC-127476] [SQL] Skip classifyException and wrap AnalysisException for SparkThrowable
  • [SPARK-42949] [SC-127255] [SQL] Code vereenvoudigen voor NAAJ
  • [SPARK-43011] [SC-127577] [SQL] array_insert moet mislukken met 0 index
  • [SPARK-42974] [SC-127487] [CORE] Herstel Utils.createTempDir om de ShutdownHookManager methode te gebruiken en op te schonen JavaUtils.createTempDir .
  • [SPARK-42964] [SC-127585] [SQL] PosgresDialect '42P07' betekent ook dat de tabel al bestaat
  • [SPARK-42978] [SC-127351] [SQL] Derby&PG: RENAME kan geen nieuwe tabelnaam met een schemanaam kwalificeren
  • [SPARK-37980] [SC-127668] [SQL] Toegang tot row_index via _metadata indien mogelijk in tests
  • [SPARK-42655] [SC-127591] [SQL] Onjuiste dubbelzinnige kolomverwijzingsfout
  • [SPARK-43009] [SC-127596] [SQL] Geparameteriseerd sql() met Any constanten
  • [SPARK-43026] [SC-127590] [SQL] AQE toepassen met niet-exchange-tabelcache
  • [SPARK-42963] [SC-127576] [SQL] SparkSessionExtensions uitbreiden om regels te injecteren in de optimalisatie van de AQE-queryfase
  • [SPARK-42918] [SC-127357] Verwerking van metagegevenskenmerken in FileSourceStrategy generaliseren
  • [SPARK-42806] [SC-127452] [SPARK-42811] [VERBINDING MAKEN] Ondersteuning toevoegen Catalog
  • [SPARK-42997] [SC-127535] [SQL] TableOutputResolver moet de juiste kolompaden gebruiken in foutberichten voor matrices en kaarten
  • [SPARK-43006] [SC-127486] [PYSPARK] Typfout opgelost in StorageLevel eq()
  • [SPARK-43005] [SC-127485] [PYSPARK] Typfout in pyspark/pandas/config.py oplossen
  • [SPARK-43004] [SC-127457] [CORE] Typfout in ResourceRequest.equals() herstellen
  • [SPARK-42907] [SC-126984] [VERBINDING MAKEN] [PYTHON] Avro-functies implementeren
  • [SPARK-42979] [SC-127272] [SQL] Letterlijke constructors definiëren als trefwoorden
  • [SPARK-42946] [SC-127252] [SQL] Gevoelige gegevens redacteren die zijn genest door variabele vervanging
  • [SPARK-42952] [SC-127260] [SQL] Vereenvoudig de parameter van analyseregel PreprocessTableCreation en DataSourceAnalysis
  • [SPARK-42683] [LC-75] De naam van conflicterende metagegevenskolommen automatisch wijzigen
  • [SPARK-42853] [SC-126101] [Opvolgen] Conflicten oplossen
  • [SPARK-42929] [SC-126748] [CONNECT] mapInPandas /mapInArrow support "is_barrier"
  • [SPARK-42968] [SC-127271] [SS] Optie toevoegen om doorvoercoördinator over te slaan als onderdeel van de StreamingWrite-API voor DSv2-bronnen/sinks
  • [SPARK-42954] [SC-127261] [PYTHON] [VERBINDING MAKEN] Toevoegen YearMonthIntervalType aan PySpark en Spark Verbinding maken Python-client
  • [SPARK-41359] [SC-127256] [SQL] Gebruiken PhysicalDataType in plaats van DataType in UnsafeRow
  • [SPARK-42873] [SC-127262] [SQL] Spark SQL-typen definiëren als trefwoorden
  • [SPARK-42808] [SC-126302] [CORE] Voorkomen dat u de beschikbareprocessors elke keer in MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880] [SQL] PlanSubqueries moet zijn ingesteld InSubqueryExec#shouldBroadcast op waar
  • [SPARK-42896] [SC-126729] [SQL] [PYTHON] Ondersteuningsmodus mapInPandas / mapInArrow uitvoeren
  • [SPARK-42874] [SC-126442] [SQL] Nieuw golden file test framework inschakelen voor analyse voor alle invoerbestanden
  • [SPARK-42922] [SC-126850] [SQL] Overstappen van Random naar SecureRandom
  • [SPARK-42753] [SC-126369] ReusedExchange verwijst naar niet-bestaande knooppunten
  • [SPARK-40822] [SC-126274] [SQL] Stabiele afgeleide kolomaliassen
  • [SPARK-42908] [SC-126856] [PYTHON] RuntimeError genereren wanneer SparkContext is vereist, maar niet geïnitialiseerd
  • [SPARK-42779] [SC-126042] [SQL] V2-schrijfbewerkingen toestaan om de grootte van de adviserende willekeurige partitie aan te geven
  • [SPARK-42914] [SC-126727] [PYTHON] Hergebruiken transformUnregisteredFunction voor DistributedSequenceID.
  • [SPARK-42878] [SC-126882] [VERBINDING MAKEN] De tabel-API in DataFrameReader kan ook opties accepteren
  • [SPARK-42927] [SC-126883] [CORE] Het toegangsbereik wijzigen in o.a.spark.util.Iterators#sizeprivate[util]
  • [SPARK-42943] [SC-126879] [SQL] LONGTEXT gebruiken in plaats van TEKST voor StringType voor effectieve lengte
  • [SPARK-37677] [SC-126855] [CORE] Uitpakken kan bestandsmachtigingen behouden
  • [SPARK-42891] [13.x] [SC-126458] [VERBINDING MAKEN] [PYTHON] CoGrouped Map-API implementeren
  • [SPARK-41876] [SC-126849] [VERBINDING MAKEN] [PYTHON] DataFrame.toLocalIterator implementeren
  • [SPARK-42930] [SC-126761] [CORE] [SQL] Het toegangsbereik van ProtobufSerDe gerelateerde implementaties wijzigen in private[protobuf]
  • [SPARK-42819] [SC-125879] [SS] Ondersteuning toevoegen voor het instellen van max_write_buffer_number en write_buffer_size voor RocksDB die wordt gebruikt in streaming
  • [SPARK-42924] [SC-126737] [SQL] [VERBINDING MAKEN] [PYTHON] De opmerking van geparameteriseerde SQL-argumenten verduidelijken
  • [SPARK-42748] [SC-126455] [VERBINDING MAKEN] Beheer van artefacten aan de serverzijde
  • [SPARK-42816] [SC-126365] [VERBINDING MAKEN] Maximale berichtgrootte tot 128 MB ondersteunen
  • [SPARK-42850] [SC-126109] [SQL] Dubbele regel CombineFilters verwijderen in Optimizer
  • [SPARK-42662] [SC-126355] [VERBINDING MAKEN] [PS] Proto-bericht toevoegen voor pandas-API in de standaardindex van Spark
  • [SPARK-42720] [SC-126136] [PS] [SQL] Gebruikt expressie voor de standaardindex voor gedistribueerde volgorde in plaats van een plan
  • [SPARK-42790] [SC-126174] [SQL] Abstract de uitgesloten methode voor een betere test voor JDBC Docker-tests.
  • [SPARK-42900] [SC-126473] [VERBINDING MAKEN] [PYTHON] CreateDataFrame herstellen om deductie- en kolomnamen te respecteren
  • [SPARK-42917] [SC-126657] [SQL] Juiste getUpdateColumnNullabilityQuery voor DerbyDialect
  • [SPARK-42684] [SC-125157] [SQL] v2-catalogus mag standaard kolomwaarde niet toestaan
  • [SPARK-42861] [SC-126635] [SQL] Gebruik private[sql] in plaats van protected[sql] om te voorkomen dat ER API-documenten worden gegenereerd
  • [SPARK-42920] [SC-126728] [VERBINDING MAKEN] [PYTHON] Tests voor UDF met UDT inschakelen
  • [SPARK-42791] [SC-126617] [SQL] Een nieuw golden file test framework voor analyse maken
  • [SPARK-42911] [SC-126652] [PYTHON] Maak kennis met meer basis uitzonderingen
  • [SPARK-42904] [SC-126634] [SQL] Char/Varchar-ondersteuning voor JDBC-catalogus
  • [SPARK-42901] [SC-126459] [VERBINDING MAKEN] [PYTHON] Naar een afzonderlijk bestand gaan StorageLevel om potentieel te voorkomen file recursively imports
  • [SPARK-42894] [SC-126451] [VERBINDING MAKEN] Ondersteuning cacheunpersiststorageLevel/persist//voor spark connect jvm-client
  • [SPARK-42792] [SC-125852] [SS] Ondersteuning toevoegen voor WRITE_FLUSH_BYTES voor RocksDB die wordt gebruikt in stateful streamingoperators
  • [SPARK-41233] [SC-126441] [VERBINDING MAKEN] [PYTHON] Array_prepend toevoegen aan de Python-client van Spark Verbinding maken
  • [SPARK-42681] [SC-125149] [SQL] Beperking voor het bestellen van ALTER TABLE ADD |Kolomdescriptor VERVANGEN
  • [SPARK-42889] [SC-126367] [VERBINDING MAKEN] [PYTHON] Cache implementeren, behouden, unpersist en storageLevel
  • [SPARK-42824] [SC-125985] [VERBINDING MAKEN] [PYTHON] Geef een duidelijk foutbericht op voor niet-ondersteunde JVM-kenmerken
  • [SPARK-42340] [SC-126131] [VERBINDING MAKEN] [PYTHON] Gegroepeerde toewijzings-API implementeren
  • [SPARK-42892] [SC-126454] [SQL] SameType en relevante methoden buiten DataType verplaatsen
  • [SPARK-42827] [SC-126126] [VERBINDING MAKEN] Ondersteuning functions#array_prepend voor Scala Connect-client
  • [SPARK-42823] [SC-125987] [SQL] spark-sql shell ondersteunt naamruimten met meerdere onderdelen voor initialisatie
  • [SPARK-42817] [SC-125960] [CORE] De naam van de shuffle-service eenmaal vastleggen in ApplicationMaster
  • [SPARK-42786] [SC-126438] [Verbinding maken] Getypte selectie
  • [SPARK-42800] [SC-125868] [VERBINDING MAKEN] [PYTHON] [ML] Ml-functie implementeren {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439] [SQL] Codegen-ondersteuning voor HiveSimpleUDF
  • [SPARK-41233] [SC-126110] [SQL] [PYTHON] Functie toevoegen array_prepend
  • [SPARK-42864] [SC-126268] [ML] [3.4] Privé maken IsotonicRegression.PointsAccumulator
  • [SPARK-42876] [SC-126281] [SQL] Het physicalDataType van DataType moet privé[sql] zijn
  • [SPARK-42101] [SC-125437] [SQL] AQE-ondersteuning maken voor InMemoryTableScanExec
  • [SPARK-41290] [SC-124030] [SQL] Ondersteuning voor GEGENEREERDE ALWAYS AS-expressies voor kolommen in tabelinstructies maken/vervangen
  • [SPARK-42870] [SC-126220] [VERBINDING MAKEN] Verplaatsen toCatalystValue naar connect-common
  • [SPARK-42247] [SC-126107] [VERBINDING MAKEN] [PYTHON] Fix UserDefinedFunction to have returnType
  • [SPARK-42875] [SC-126258] [VERBINDING MAKEN] [PYTHON] Fix toPandas om tijdzone- en kaarttypen correct te verwerken
  • [SPARK-42757] [SC-125626] [VERBINDING MAKEN] TextFile implementeren voor DataFrameReader
  • [SPARK-42803] [SC-126081] [CORE] [SQL] [ML] Gebruik de functie getParameterCount in plaats van getParameterTypes.length
  • [SPARK-42833] [SC-126043] [SQL] Herstructureren applyExtensions in SparkSession
  • [SPARK-41765] [SC-123550][SQL] Pull-out v1 write metrics...
  • [SPARK-42848] [SC-126105] [VERBINDING MAKEN] [PYTHON] DataFrame.registerTempTable implementeren
  • [SPARK-42020] [SC-126103] [VERBINDING MAKEN] [PYTHON] Ondersteuning voor UserDefinedType in Spark Verbinding maken
  • [SPARK-42818] [SC-125861] [VERBINDING MAKEN] [PYTHON] DataFrameReader/Writer.jdbc implementeren
  • [SPARK-42812] [SC-125867] [VERBINDING MAKEN] Voeg client_type toe aan het protobuf-bericht AddArtifactsRequest
  • [SPARK-42772] [SC-125860] [SQL] Wijzig de standaardwaarde van JDBC-opties voor pushen naar true
  • [SPARK-42771] [SC-125855] [SQL] HiveGenericUDF herstructureren
  • [SPARK-25050] [SC-123839] [SQL] Avro: complexe vakbonden schrijven
  • [SPARK-42765] [SC-125850] [VERBINDING MAKEN] [PYTHON] Importeren pandas_udf vanuit inschakelen pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225] [CORE] MapOutputTracker#getMapLocation moet respecteren spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173] [SQL] De prestaties van neervallende partities verbeteren
  • [SPARK-42689] [SC-125195] [CORE] [SHUFFLE] Toestaan dat ShuffleDriverComponent declareert of willekeurige gegevens betrouwbaar zijn opgeslagen
  • [SPARK-42726] [SC-125279] [VERBINDING MAKEN] [PYTHON] Implementeren DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550] [SQL] Metrische schrijfgegevens van v1 ophalen naar WriteFiles
  • [SPARK-41171] [SC-124191] [SQL] Vensterlimiet afleiden en omlaag pushen via venster als partitionSpec leeg is
  • [SPARK-42686] [SC-125292] [CORE] Opmaak uitstellen voor foutopsporingsberichten in TaskMemoryManager
  • [SPARK-42756] [SC-125443] [VERBINDING MAKEN] [PYTHON] Helper-functie om proto-letterlijke waarde te converteren naar waarde in Python Client
  • [SPARK-42793] [SC-125627] [VERBINDING MAKEN] connect module vereist build_profile_flags
  • [SPARK-42701] [SC-125192] [SQL] De try_aes_decrypt() functie toevoegen
  • [SPARK-42679] [SC-125438] [VERBINDING MAKEN] [PYTHON] createDataFrame werkt niet met niet-nullable schema
  • [SPARK-42733] [SC-125542] [VERBINDING MAKEN] [Opvolgen] Schrijven zonder pad of tabel
  • [SPARK-42777] [SC-125525] [SQL] Ondersteuning voor het converteren van timestampNTZ-catalogusstatistieken naar planstatistieken
  • [SPARK-42770] [SC-125558] [VERBINDING MAKEN] Toevoegen truncatedTo(ChronoUnit.MICROS) om te maken SQLImplicitsTestSuite in Java 17 dagelijkse test-GA-taak geslaagd
  • [SPARK-42752] [SC-125550] [PYSPARK] [SQL] PySpark-uitzonderingen afdrukken tijdens initialisatie
  • [SPARK-42732] [SC-125544] [PYSPARK] [VERBINDING MAKEN] Ondersteuning voor spark connect-sessie getActiveSession-methode
  • [SPARK-42755] [SC-125442] [VERBINDING MAKEN] Letterlijke waardeconversie factor naar connect-common
  • [SPARK-42747] [SC-125399] [ML] Onjuiste interne status van LoR en AFT herstellen
  • [SPARK-42740] [SC-125439] [SQL] Los de fout op die pushdown-offset of paging ongeldig is voor een ingebouwd dialect
  • [SPARK-42745] [SC-125332] [SQL] Verbeterde AliasAwareOutputExpression werkt met DSv2
  • [SPARK-42743] [SC-125330] [SQL] Ondersteuning voor het analyseren van timestampNTZ-kolommen
  • [SPARK-42721] [SC-125371] [VERBINDING MAKEN] RPC-onderscheppingspunt voor logboekregistratie
  • [SPARK-42691] [SC-125397] [VERBINDING MAKEN] [PYTHON] Dataset.semanticHash implementeren
  • [SPARK-42688] [SC-124922] [VERBINDING MAKEN] Wijzig de naam van Verbinding maken protoaanvraag client_id in session_id
  • [SPARK-42310] [SC-122792] [SQL] Naam toewijzen aan _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339] [CORE] Utils.bytesToString-routines optimaliseren
  • [SPARK-42725] [SC-125296] [VERBINDING MAKEN] [PYTHON] Letterlijkeexpressie-ondersteuning bieden voor matrixparams
  • [SPARK-42702] [SC-125293] [SPARK-42623] [SQL] Ondersteuning voor geparameteriseerde query's in subquery en CTE
  • [SPARK-42697] [SC-125189] [WEBUI] Oplossing voor /api/v1/toepassingen om de totale uptime te retourneren in plaats van 0 voor het duurveld
  • [SPARK-42733] [SC-125278] [VERBINDING MAKEN] [PYTHON] DataFrameWriter.save herstellen om te werken zonder padparameter
  • [SPARK-42376] [SC-124928] [SS] Watermerkdoorgifte tussen operators introduceren
  • [SPARK-42710] [SC-125205] [VERBINDING MAKEN] [PYTHON] Naam van FrameMap proto wijzigen in MapPartitions
  • [SPARK-37099] [SC-123542] [SQL] Introduceer de groepslimiet van Venster voor op rang gebaseerd filter om top-k berekeningen te optimaliseren
  • [SPARK-42630] [SC-125207] [VERBINDING MAKEN] [PYTHON] Introduceer UnparsedDataType en vertraging bij het parseren van DDL-tekenreeks totdat Spark Verbinding maken Client beschikbaar is
  • [SPARK-42690] [SC-125193] [VERBINDING MAKEN] CSV-/JSON-parseringsfuncties implementeren voor Scala-client
  • [SPARK-42709] [SC-125172] [PYTHON] Verwijder de aanname dat __file__ deze beschikbaar is
  • [SPARK-42318] [SC-122648] [SPARK-42319] [SQL] Naam toewijzen aan LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183] [SQL] Ondersteuning voor parsergegevenstype json 'timestamp_ltz' als TimestampType
  • [SPARK-42722] [SC-125175] [VERBINDING MAKEN] [PYTHON] Python Verbinding maken def-schema() mag het schema niet in de cache opslaan
  • [SPARK-42643] [SC-125152] [VERBINDING MAKEN] [PYTHON] Door de gebruiker gedefinieerde Java-functies (aggregeren) registreren
  • [SPARK-42656] [SC-125177] [VERBINDING MAKEN] [Opvolgen] Het spark-connect-script herstellen
  • [SPARK-41516] [SC-123899] [SQL] Toestaan dat jdbc-dialecten de query overschrijven die wordt gebruikt om een tabel te maken
  • [SPARK-41725] [SC-124396] [VERBINDING MAKEN] Gretige uitvoering van DF.sql()
  • [SPARK-42687] [SC-124896] [SS] Beter foutbericht voor de niet-ondersteunde pivot bewerking in Streaming
  • [SPARK-42676] [SC-124809] [SS] Tijdelijke controlepunten schrijven voor streamingquery's naar het lokale bestandssysteem, zelfs als standaard FS anders is ingesteld
  • [SPARK-42303] [SC-122644] [SQL] Naam toewijzen aan _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560] [SQL] Zorg ervoor dat ten minste één tijdseenheid na 'interval' is
  • [SPARK-42649] [SC-124576] [CORE] Verwijder de standaard-Apache License-header boven aan bronbestanden van derden
  • [SPARK-42611] [SC-124395] [SQL] Teken-/varcharlengten invoegen voor binnenste velden tijdens de resolutie
  • [SPARK-42419] [SC-124019] [VERBINDING MAKEN] [PYTHON] Migreren naar foutframework voor Spark Verbinding maken Column API.
  • [SPARK-42637] [SC-124522] [VERBINDING MAKEN] SparkSession.stop() toevoegen
  • [SPARK-42647] [SC-124647] [PYTHON] Alias wijzigen voor afgeschafte en verwijderde typen numpy
  • [SPARK-42616] [SC-124389] [SQL] SparkSQLCLIDriver sluit alleen gestarte hive sessionState
  • [SPARK-42593] [SC-124405] [PS] Verwijder de API's die worden verwijderd in pandas 2.0 en verwijder deze.
  • [SPARK-41870] [SC-124402] [VERBINDING MAKEN] [PYTHON] CreateDataFrame opgelost voor het afhandelen van dubbele kolomnamen
  • [SPARK-42569] [SC-124379] [VERBINDING MAKEN] Uitzonderingen genereren voor niet-ondersteunde sessie-API
  • [SPARK-42631] [SC-124526] [VERBINDING MAKEN] Aangepaste extensies in Scala-client ondersteunen
  • [SPARK-41868] [SC-124387] [VERBINDING MAKEN] [PYTHON] CreateDataFrame herstellen ter ondersteuning van duur
  • [SPARK-42572] [SC-124171] [SQL] [SS] Gedrag opgelost voor StateStoreProvider.validateStateRowFormat

Onderhoudsupdates

Zie onderhoudsupdates voor Databricks Runtime 13.1.

Systeemomgeving

  • Besturingssysteem: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Geïnstalleerde Python-bibliotheken

Bibliotheek Versie Bibliotheek Versie Bibliotheek Versie
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindingen 21.2.0
asttokens 2.2.1 attrs 21.4.0 backcall 0.2.0
beautifulsoup4 4.11.1 zwart 22.6.0 Bleekmiddel 4.1.0
knipperen 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 Cffi 1.15.1 Chardet 4.0.0
charset-normalizer 2.0.4 klikken 8.0.4 Cryptografie 37.0.1
cycler 0.11.0 Cython 0.29.32 dbus-python 1.2.18
foutopsporing 1.5.1 Decorator 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown 0,12 invoerpunten 0,4
Uitvoeren 1.2.0 facets-overview 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 Fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
Ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
Jedi 0.18.1 Jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 Keyring 23.5.0 kiwisolver 1.4.2
Launchpadlib 1.10.16 lazr.restfulclient 0.14.4 Lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
Mccabe 0.7.0 mistune 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.12 Numpy 1.21.5 oauthlib 3.2.0
Verpakking 21.3 Pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 Patsy 0.5.2
Pexpect 4.8.0 pickleshare 0.7.5 Kussen 9.2.0
Pip 22.2.2 platformdirs 2.5.2 plotly 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 Pyflakes 3.0.1
Pygments 2.11.2 Pygobject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 Pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 requests 2.28.1 Touw 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 Scipy 1.9.1
seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
Setuptools 63.4.1 Zes 1.16.0 soepsieve 2.3.1
ssh-import-id 5,11 stack-data 0.6.2 statsmodels 0.13.2
Vasthoudendheid 8.1.0 terminado 0.13.1 testpath 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
Tornado 6.1 traitlets 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 upgrades zonder toezicht 0,1 urllib3 1.26.11
Virtualenv 20.16.3 Wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 Wiel 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Geïnstalleerde R-bibliotheken

R-bibliotheken worden geïnstalleerd vanuit de Microsoft CRAN-momentopname op 2023-02-10.

Bibliotheek Versie Bibliotheek Versie Bibliotheek Versie
pijl 10.0.1 Askpass 1.1 assertthat 0.2.1
Backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.3
opstarten 1.3-28 Brouwsel 1.0-8 Brio 1.1.3
Bezem 1.0.3 bslib 0.4.2 cachem 1.0.6
beller 3.7.3 caret 6.0-93 cellranger 1.1.0
Chron 2.3-59 class 7.3-21 cli 3.6.0
clipr 0.8.0 Klok 0.6.1 cluster 2.1.4
Codetools 0.2-19 Colorspace 2.1-0 commonmark 1.8.1
Compiler 4.2.2 configuratie 0.3.1 cpp11 0.4.3
Crayon 1.5.2 aanmeldingsgegevens 1.3.2 curl 5.0.0
data.table 1.14.6 gegevenssets 4.2.2 DBI 1.1.3
dbplyr 2.3.0 Desc 1.4.2 Devtools 2.4.5
diffobj 0.3.5 Digest 0.6.31 downlit 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
ellipsis 0.3.2 evaluate 0.20 fansi 1.0.4
farver 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
forcats 1.0.0 foreach 1.5.2 Buitenlandse 0.8-82
Forge 0.2.0 Fs 1.6.1 Toekomst 1.31.0
future.apply 1.10.0 Gorgelen 1.3.0 Generics 0.1.3
Gert 1.9.2 ggplot2 3.4.0 Gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 Globals 0.16.2
Lijm 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 afbeeldingen 4.2.2 grDevices 4.2.2
Raster 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 haven 2.5.1
highr 0.10 Hms 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
ids 1.0.1 Ini 0.3.1 Ipred 0.9-13
isoband 0.2.7 Iterators 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 Kernsmooth 2.23-20 breiwerk 1.42
Labeling 0.4.2 Later 1.3.0 Lattice 0.20-45
lava 1.7.1 levenscyclus 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 Markdown 1.5
MASS 7.3-58.2 Matrix 1.5-1 memoise 2.0.1
methoden 4.2.2 Mgcv 1.8-41 Mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modeller 0.1.10
munsell 0.5.0 Nlme 3.1-162 Nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallel 4.2.2
parallel 1.34.0 Pijler 1.8.1 pkgbuild 1.4.0
Pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 Lof 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Voortgang 1.2.2
progressr 0.13.0 Beloften 1.2.0.1 Proto 1.0.0
Proxy 0.4-27 ps 1.7.2 Purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
Rcolorbrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
leesbewerking 2.1.3 readxl 1.4.2 recepten 1.0.4
Rematch 1.0.1 opnieuw overeenkomen2 2.1.2 Afstandsbedieningen 2.4.2
reprex 2.0.2 hervorm2 1.4.4 rlang 1.0.6
rmarkdown 2,20 RODBC 1.3-20 roxygen2 7.2.3
Rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0,14 rversions 2.1.2
rvest 1.0.3 Sass 0.4.5 Schalen 1.2.1
selectr 0.4-2 sessioninfo 1.2.2 Vorm 1.4.6
Glanzende 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 Ruimtelijke 7.3-15 Splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 Stats 4.2.2
stats4 4.2.2 stringi 1.7.12 stringr 1.5.0
Overleving 3.5-3 sys 3.4.1 systemfonts 1.0.4
Tcltk 4.2.2 testthat 3.1.6 tekstvorm 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.2.0 Timedate 4022.108
tinytex 0.44 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.3
utils 4.2.2 uuid 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 Vroom 1.6.1 Waldo 0.4.0
whisker 0.4.1 withr 2.5.0 xfun 0,37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
Yaml 2.3.7 Zip 2.2.2

Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)

Groeps-id Artefact-id Versie
Antlr Antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics Stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-gearceerd 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml Klasgenoot 1.3.4
com.fasterxml.jackson.core jackson-annotaties 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.cafeïne Cafeïne 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink Tink 1.7.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava Guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger profiler 1.1.1
com.jcraft Jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe configuratie 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.netje.netlib Arpack 3.0.3
dev.netje.netlib Blas 3.0.3
dev.netje.netlib Lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metrische gegevenskern 4.2.10
io.dropwizard.metrics metrische gegevensgrafiet 4.2.10
io.dropwizard.metrics metrische statuscontroles 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-sokken 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Collector 0.12.0
jakarta.annotatie jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activering 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction Jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
Jline Jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine Augurk 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-CSV 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr Stringtemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow pijlnotatie 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow pijlvector 11.0.0
org.apache.avro Avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recepten 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shims 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-gearceerd 4.22
org.apache.yetus aantekeningen voor doelgroepen 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-vervolg 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-api 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance opnieuw verpakt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core jersey-common 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator sluimerstand-validator 6.1.7.Final
org.javassist Javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Aantekeningen 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Shims 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-compatibel 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten threeten-extra 1.7.1
org.tukaani Xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel katten-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1