Databricks Runtime 11.3 LTS
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 11.3 LTS, mogelijk gemaakt door Apache Spark 3.3.0. Databricks heeft deze afbeeldingen uitgebracht in oktober 2022.
Notitie
LTS betekent dat deze versie op lange termijn wordt ondersteund. Zie de levenscyclus van de Databricks Runtime LTS-versie.
Nieuwe functies en verbeteringen
- Structured Streaming-trigger eenmaal is afgeschaft
- Bronpad voor automatisch laden wijzigen
- Databricks Kinesis-connector biedt nu ondersteuning voor het lezen vanuit Kinesis-gegevensstromen in de EFO-modus
- Nieuwe georuimtelijke H3-functies en photon-ondersteuning toegevoegd voor alle H3-functies
- Nieuwe functies voor voorspellende I/O
- Initiële partities verhogen om te scannen op selectieve query's
- Visualisatie van nieuwe AQE-abonnementsversies
- Nieuwe asynchrone voortgangstracerings- en logboekontruimingsmodi
- Structured Streaming in Unity Catalog ondersteunt nu
display()
- Pijplijngebeurtenissen worden nu vastgelegd in JSON-indeling
- Willekeurige stateful verwerking in gestructureerd streamen met Python
- Datumdeductie in CSV-bestanden
- Kloonondersteuning voor Apache Parquet- en Apache Iceberg-tabellen (openbare preview)
- SQL gebruiken om opslaglocaties op schema- en catalogusniveau op te geven voor beheerde Unity Catalog-tabellen
Structured Streaming-trigger eenmaal is afgeschaft
De Trigger.Once
instelling is afgeschaft. Databricks raadt u aan gebruik te maken Trigger.AvailableNow
. Zie Triggerintervallen voor gestructureerd streamen configureren.
Bronpad voor automatisch laden wijzigen
U kunt nu het pad voor het invoeren van de map wijzigen voor automatisch laden geconfigureerd met de modus voor adreslijstvermelding zonder dat u een nieuwe controlepuntmap hoeft te kiezen. Zie Bronpad wijzigen voor Automatisch laden.
Databricks Kinesis-connector biedt nu ondersteuning voor het lezen vanuit Kinesis-gegevensstromen in de EFO-modus
U kunt nu de gestructureerde streamingbron van Databricks Kinesis in Databricks Runtime 11.3 LTS gebruiken om query's uit te voeren die worden gelezen uit Kinesis Data-stromen in de verbeterde fan-outmodus. Hierdoor is toegewezen doorvoer per shard, per consument en recordlevering mogelijk in de pushmodus.
Nieuwe georuimtelijke H3-functies en photon-ondersteuning toegevoegd voor alle H3-functies
Introductie van 4 nieuwe H3-functies, h3_maxchild
, , h3_pointash3
h3_minchild
en h3_pointash3string
. Deze functies zijn beschikbaar in SQL, Scala en Python. Alle H3-expressies worden nu ondersteund in Photon. Zie georuimtelijke H3-functies.
Nieuwe functies voor voorspellende I/O
Photon ondersteunt de bereikmodus voor het uitvoeren van frames met behulp van RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Photon ondersteunt ook de bereikmodus voor het groeien van frames, met behulp van RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Initiële partities verhogen om te scannen op selectieve query's
De waarde van initiële partities die moeten worden gescand, is verhoogd tot 10 voor selectieve query's met take/tail/limit
in Photon-clusters en LIMIT
in Databricks SQL. Met 10 partities kunt u de overhead van het starten van meerdere kleine taken en het langzaam omhoog schalen voorkomen. U kunt dit ook configureren via spark.sql.limit.selectiveInitialNumPartitions
.
Visualisatie van nieuwe AQE-abonnementsversies
Introductie van AQE-abonnementsversies waarmee u uw runtimeplanupdates kunt visualiseren van adaptieve queryuitvoering (AQE).
Nieuwe asynchrone voortgangstracerings- en logboekontruimingsmodi
Inleiding tot gestructureerde streamingmodi, asynchrone voortgangstracering en asynchrone opschoning van logboeken. De Asynchrone modus voor het opschonen van logboeken verlaagt de latentie van streamingquery's door logboeken te verwijderen die worden gebruikt voor het bijhouden van voortgang op de achtergrond.
Structured Streaming in Unity Catalog ondersteunt nu display()
U kunt nu gebruiken display()
wanneer u Structured Streaming gebruikt om te werken met tabellen die zijn geregistreerd in Unity Catalog.
Pijplijngebeurtenissen worden nu vastgelegd in JSON-indeling
Azure Databricks schrijft nu pijplijn gebeurtenissen naar het stuurprogrammalogboek in JSON-indeling. Hoewel elke gebeurtenis JSON-parseerbaar is, bevatten grote gebeurtenissen mogelijk niet alle velden of worden de velden mogelijk afgekapt. Elke gebeurtenis wordt vastgelegd in één regel met het voorvoegsel Event received:
. Hier volgt een voorbeeld van een gebeurtenis.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Willekeurige stateful verwerking in gestructureerd streamen met Python
Introductie van de applyInPandasWithState
functie die kan worden gebruikt voor het uitvoeren van willekeurige stateful verwerking in PySpark. Dit komt overeen met de flatMapGroupsWithState
functie in de Java-API.
Datumdeductie in CSV-bestanden
Introductie van verbeterde deductie van datumtypekolommen in CSV-bestanden. Wanneer de datumnotatie consistent is voor de records voor een kolom, kunnen deze kolommen worden afgeleid als DateType
. U kunt ook een combinatie van datumnotaties in verschillende kolommen hebben. Azure Databricks kan automatisch de datumnotatie voor elke kolom afleiden. Datumkolommen in CSV-bestanden vóór Databricks Runtime 11.3 LTS blijven staan als StringType
.
Kloonondersteuning voor Apache Parquet- en Apache Iceberg-tabellen (openbare preview)
Kloon kan nu worden gebruikt om Delta-tabellen te maken en incrementeel bij te werken die apache Parquet- en Apache Iceberg-tabellen spiegelen. U kunt de Parquet-brontabel bijwerken en de wijzigingen incrementeel toepassen op de gekloonde Delta-tabel met de kloonopdracht. Zie Incrementeel Parquet- en Iceberg-tabellen klonen naar Delta Lake.
SQL gebruiken om opslaglocaties op schema- en catalogusniveau op te geven voor beheerde Unity Catalog-tabellen
U kunt nu de MANAGED LOCATION
SQL-opdracht gebruiken om een opslaglocatie voor de cloud op te geven voor beheerde tabellen op catalogus- en schemaniveau. Zie CREATE CATALOG en CREATE SCHEMA.
Gedragswijzigingen
Databricks Verbinding maken 11.3.2
Databricks Verbinding maken clientupdate 11.3.2 wordt nu ondersteund. Zie de releaseopmerkingen van Databricks Verbinding maken en Databricks Verbinding maken.
Azure Databricks Snowflake-connector bijgewerkt
De Azure Databricks Snowflake-connector is bijgewerkt naar de nieuwste versie van code vanuit de opensource-opslagplaats, Snowflake-gegevensbron voor Apache Spark. Het is nu volledig compatibel met Databricks Runtime 11.3 LTS, inclusief predicaatpushdown en interne queryplanpushdown, terwijl alle functies van de opensource-versie behouden blijven.
Hadoop-cache voor S3A is nu uitgeschakeld
De Hadoop-cache (FileSystem Apache Hadoop Main 3.3.4 API) voor S3A is nu uitgeschakeld. Dit is om uit te lijnen met andere cloudopslagconnectors. Voor workloads die afhankelijk zijn van caching van het bestandssysteem, moet u ervoor zorgen dat nieuw gemaakte bestandssystemen worden geleverd met de juiste Hadoop-configuraties, inclusief referentieproviders.
Het verzamelingsschema voor Delta Lake-statistieken komt nu overeen met de kolomvolgorde in de tabelschemadefinitie
Met deze wijziging wordt een fout in het Delta Lake-protocol opgelost waarbij statistieken niet zijn verzameld voor kolommen vanwege een onjuiste overeenkomst in DataFrame en tabelkolomvolgorde. In sommige gevallen kan de prestatievermindering van schrijfprestaties optreden vanwege het verzamelen van statistieken op eerder niet-bijgehouden velden. Zie Gegevens overslaan voor Delta Lake.
applyInPandasWithState genereert een fout als de query een willekeurige volgorde heeft na de operator
De operator applyInPandasWithState
genereert een fout als de query na de operator heeft shuffle
. Dit gebeurt wanneer de gebruiker na de bewerking toevoegt shuffle
, of wanneer de optimizer of sink impliciet wordt toegevoegd shuffle
.
Bibliotheekupgrades
- Bijgewerkte Python-bibliotheken:
- distlib van 0.3.5 tot 0.3.6
- Bijgewerkte R-bibliotheken:
- bezem van 1.0.0 tot 1.0.1
- beller van 3.7.1 tot 3.7.2
- dplyr van 1.0.9 tot 1.0.10
- dtplyr van 1.2.1 tot 1.2.2
- forcats van 0.5.1 tot 0.5.2
- toekomst van 1.27.0 tot 1.28.0
- future.apply from 1.9.0 to 1.9.1
- gert van 1.7.0 tot 1.8.0
- globals van 0.16.0 tot 0.16.1
- gtable from 0.3.0 to 0.3.1
- haven van 2.5.0 tot 2.5.1
- hms van 1.1.1 tot 1.1.2
- httr van 1.4.3 tot 1.4.4
- breisel van 1,39 tot 1,40
- modelr van 0.1.8 tot 0.1.9
- pijler van 1.8.0 tot 1.8.1
- voortgang van 0.10.1 tot 0.11.0
- readxl van 1.4.0 tot 1.4.1
- reprex van 2.0.1 tot 2.0.2
- rlang van 1.0.4 tot 1.0.5
- rmarkdown van 2.14 tot 2.16
- RSQLite van 2.2.15 tot 2.2.16
- rstudioapi van 0.13 tot 0.14
- rversions van 2.1.1 tot 2.1.2
- rvest van 1.0.2 tot 1.0.3
- schaalt van 1.2.0 naar 1.2.1
- sparklyr van 1.7.7 tot 1.7.8
- stringr van 1.4.0 tot 1.4.1
- overleving van 3,2-13 tot 3,4-0
- tinytex van 0,40 tot 0,41
- viridisLite van 0.4.0 tot 0.4.1
- Bijgewerkte Java-bibliotheken:
- com.fasterxml.jackson.core.jackson-aantekeningen van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.core.jackson-core van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.core.jackson-databind van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer van 2.13.3 tot 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 van 2.13.3 tot 2.13.4
- org.apache.hadoop.hadoop-client-api van 3.3.2-databricks naar 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime van 3.3.2 tot 3.3.4
- org.apache.orc.orc-core van 1.7.5 tot 1.7.6
- org.apache.orc.orc-mapreduce van 1.7.5 tot 1.7.6
- org.apache.orc.orc-shims van 1.7.5 tot 1.7.6
- org.apache.parquet.parquet-column van 1.12.0-databricks-0004 tot 1.12.0-databricks-0007
- org.apache.parquet.parquet-common van 1.12.0-databricks-0004 tot 1.12.0-databricks-0007
- org.apache.parquet.parquet-codering van 1.12.0-databricks-0004 tot 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop van 1.12.0-databricks-0004 tot 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson van 1.12.0-databricks-0004 tot 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet van 2.34 tot 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core van 2.34 tot 2.36
- org.glassfish.jersey.core.jersey-client van 2.34 tot 2.36
- org.glassfish.jersey.core.jersey-common van 2.34 tot 2.36
- org.glassfish.jersey.core.jersey-server van 2.34 tot 2.36
- org.glassfish.jersey.inject.jersey-hk2 van 2.34 tot 2.36
Apache Spark
Databricks Runtime 11.3 LTS bevat Apache Spark 3.3.0. Deze release bevat alle Spark-fixes en verbeteringen die zijn opgenomen in Databricks Runtime 11.2 (niet ondersteund) en de volgende aanvullende bugfixes en verbeteringen in Spark:
- [SPARK-39957] [WARMFIX] [SC-111425] [CORE] Delay onDisconnected to enable Driver receives ExecutorExitCode
- [SPARK-39955] [WARMFIX] [SC-111424] [CORE] LaunchTask-proces verbeteren om fasefouten te voorkomen die worden veroorzaakt door launchTask-berichten die niet kunnen worden verzonden
- [SPARK-40474] [SC-106248] [Cherry-Pick] Gedrag van CSV-schemadeductie corrigeren voor datum/tijd-kolommen en automatische detectie voor datumvelden introduceren
- [SPARK-40535] [SC-111243] [SQL] Fout opgelost dat de buffer van AggregatingAccumulator niet wordt gemaakt als de invoerrijen leeg zijn
- [SPARK-40434] [SC-111125] [SC-111144] [SC-111138] [SPARK-40435] [11.3] [SS] [PYTHON] ApplyInPandasWithState implementeren in PySpark
- [SPARK-40460] [SC-110832] [SS] Metrische streaminggegevens herstellen bij het selecteren
_metadata
- [SPARK-40324] [SC-109943] [SQL] Geef een querycontext op van
ParseException
- [SPARK-40466] [SC-110899] [SS] Het foutbericht verbeteren wanneer DSv2 is uitgeschakeld terwijl DSv1 niet beschikbaar is
- [SPARK-40456] [SC-110848] [SQL] PartitionIterator.hasNext moet goedkoop zijn om herhaaldelijk aan te roepen
- [SPARK-40169] [SC-110772] [SQL] Push Parquet-filters niet zonder verwijzing naar het gegevensschema
- [SPARK-40467] [SC-110759] [SS] FlatMapGroupsWithState splitsen naar meerdere testsuites
- [SPARK-40468] [SC-110813] [SQL] Kolomsnoeien in CSV herstellen wanneer _corrupt_record is geselecteerd
- [SPARK-40291] [SC-110085] [SQL] Het bericht voor kolom niet in groeperen op componentfout verbeteren
- [SPARK-40398] [SC-110762] [CORE] [SQL] Lus gebruiken in plaats van Arrays.stream-API
- [SPARK-40433] [SC-110684] [SS] [PYTHON] Toevoegen aanJVMRow in PythonSQLUtils om pickled PySpark Row te converteren naar JVM-rij
- [SPARK-40414] [SC-110568] [SQL] [PYTHON] Meer algemeen type in PythonArrowInput en PythonArrowOutput
- [SPARK-40352] [SC-109945] [SQL] Functiealiassen toevoegen: len, datepart, dateadd, date_diff en curdate
- [SPARK-40470] [SC-110761] [SQL] GetArrayStructFields en GetMapValue afhandelen in de functie 'arrays_zip'
- [SPARK-40387] [SC-110685] [SQL] De implementatie van Spark Decimal verbeteren
- [SPARK-40429] [SC-110675] [SQL] Alleen KeyGroupedPartitioning instellen wanneer de kolom waarnaar wordt verwezen zich in de uitvoer bevindt
- [SPARK-40432] [SC-110716] [SS] [PYTHON] Inleiding tot GroupStateImpl en GroupStateTimeout in PySpark
- [SPARK-39915] [SC-110496] [SQL] Zorg ervoor dat de uitvoerpartitionering door de gebruiker is opgegeven in AQE
- [SPARK-29260] [SQL] Ondersteuning
ALTER DATABASE SET LOCATION
als HMS ondersteuning biedt - [SPARK-40185] [SC-110056] [SQL] Kolomsuggesties verwijderen wanneer de lijst met kandidaten leeg is
- [SPARK-40362] [SC-110401] [SQL] BinaryComparison-canonicalisatie herstellen
- [SPARK-40411] [SC-110381] [SS] FlatMapGroupsWithStateExec herstructureren om een bovenliggende eigenschap te hebben
- [SPARK-40293] [SC-110084] [SQL] Het foutbericht van de V2-tabel duidelijker maken
- [SPARK-38734] [SC-110383] [SQL] De foutklasse verwijderen
INDEX_OUT_OF_BOUNDS
- [SPARK-40292] [SC-110300] [SQL] Kolomnamen in de functie arrays_zip corrigeren wanneer naar matrices wordt verwezen vanuit geneste structs
- [SPARK-40276] [SC-109674] [CORE] De resultaatgrootte van RDD.takeOrdered verkleinen
- [SPARK-40197] [SC-109176] [SQL] Queryplan vervangen door context voor MULTI_VALUE_SUBQUERY_ERROR
- [SPARK-40300] [SC-109942] [SQL] Migreren naar de
DATATYPE_MISMATCH
foutklasse - [SPARK-40149] [SC-110055] [SQL] Metagegevenskolommen doorgeven via Project
- [SPARK-40280] [SC-110146] [SQL] Ondersteuning toevoegen voor parquet-push-down voor geannoteerde int en lang
- [SPARK-40220] [SC-110143] [SC-109175] [SQL] Voer de lege toewijzing van de parameters voor foutberichten niet uit
- [SPARK-40295] [SC-110070] [SQL] V2-functies met letterlijke argumenten in schrijfdistributie/volgorde toestaan
- [SPARK-40156] [SC-109264] [SQL]
url_decode()
moet de foutklasse retourneren - [SPARK-39195] [SQL] Spark OutputCommitCoordinator moet de fase afbreken wanneer het vastgelegde bestand niet consistent is met de taakstatus
- [SPARK-40260] [SC-109424] [SQL] Foutklassen gebruiken in de compilatiefouten van GROUP BY op een positie
- [SPARK-40205] [SC-110144] [SC-109082] [SQL] Geef een querycontext op van ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [SC-109676] [SQL] De functie TO_BINARY() verbeteren
- [SPARK-40209] [SC-109081] [SQL] Wijzig de intervalwaarde van Decimal in
changePrecision()
niet bij fouten - [SPARK-40319] [SC-109873] [SQL] Foutmethode voor het uitvoeren van dubbele query's verwijderen voor PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209] [SQL] Numerieke try_add/try_divide/try_subtract/try_multiply zou een fout van hun kinderen moeten veroorzaken
- [SPARK-40183] [SC-108907] [SQL] Foutklasse NUMERIC_VALUE_OUT_OF_RANGE gebruiken voor overloop in decimale conversie
- [SPARK-40180] [SC-109069] [SQL] Foutberichten opmaken op
spark-sql
- [SPARK-40153] [SC-109165] [SQL] Oplossen van functies en tabelwaardefuncties samenvoegen
- [SPARK-40308] [SC-109880] [SQL] Niet-vouwbare scheidingstekenargumenten toestaan om te
str_to_map
functioneren - [SPARK-40219] [SC-110052] [SC-109663] [SQL] Logisch plan voor opgeloste weergave moet het schema bevatten om redundante opzoekacties te voorkomen
- [SPARK-40098] [SC-109939] [SC-108693] [SQL] Foutberichten opmaken op de Thrift-server
- [SPARK-39917] [SC-109038] [SQL] Verschillende foutklassen gebruiken voor rekenkundige/intervalberekeningen
- [SPARK-40033] [SC-109875] [SQL] Geneste ondersteuning voor het verwijderen van schema's via element_at
- [SPARK-40194] [SC-109660] [SQL] De functie SPLIT op lege regex moet een lege tekenreeks afkappen.
- [SPARK-40228] [SC-109835] [SQL] MultiLike niet vereenvoudigen als kind geen goedkope expressie is
- [SPARK-40039] [SC-109896] [SC-109260] [SS] Inleiding tot een streamingcontrolepuntbestandsbeheer op basis van de Abortable-interface van Hadoop
- [SPARK-40285] [SC-109679] [SQL]
roundTo[Numeric]
Het voor Spark vereenvoudigenDecimal
- [SPARK-39896] [SC-109658] [SQL] UnwrapCastInBinaryComparison moet werken wanneer de letterlijke naam van In/InSet downcast is mislukt
- [SPARK-40040] [SC-109662] [SQL] Lokale limiet naar beide zijden pushen als de joinvoorwaarde leeg is
- [SPARK-40055] [SC-109075] [SQL] listCatalogs moet ook spark_catalog retourneren, zelfs wanneer spark_catalog implementatie standaardSessionCatalog is
- [SPARK-39915] [SC-109391] [SQL] Dataset.repartition(N) maakt mogelijk geen N-partities niet-AQE-onderdeel
- [SPARK-40207] [SC-109401] [SQL] Geef de kolomnaam op wanneer het gegevenstype niet wordt ondersteund door de gegevensbron
- [SPARK-40245] [SC-109295] [SQL] Gelijkheidscontrole van FileScan herstellen wanneer kolommen voor partities of gegevensfilters niet worden gelezen
- [SPARK-40113] [SC-109405] [SQL] Interface-implementaties van Reactor ParquetScanBuilder DataSourceV2
- [SPARK-40211] [SC-109226] [CORE] [SQL] Het aantal initiële partities in take() toestaan
- [SPARK-40252] [SC-109379] [SQL] Vervangen
Stream.collect(Collectors.joining)
doorStringJoiner
API - [SPARK-40247] [SC-109272] [SQL] BitSet-gelijkheidscontrole herstellen
- [SPARK-40067] [SQL] Gebruik Table#name() in plaats van Scan#name() om de tabelnaam in te vullen in het BatchScan-knooppunt in SparkUI
- [SPARK-39966] [SQL] V2-filter gebruiken in SupportsDelete
- [SPARK-39607] [SC-109268] [SQL] [DSV2] Ondersteuning voor V2-functie voor distributie en volgorde
- [SPARK-40224] [SC-109271] [SQL] Maak het geheugen van ObjectHashAggregateExec gretig beschikbaar wanneer u terugval op basis van sortering
- [SPARK-40013] [SQL] DS V2-expressies moeten de standaardwaarde hebben
toString
- [SPARK-40214] [SC-109079] [PYTHON] [SQL] 'get' toevoegen aan functies
- [SPARK-40192] [SC-109089] [SQL] [ML] Redundante groupby verwijderen
- [SPARK-40146] [SC-108694] [SQL] Gewoon het codegen van het ophalen van kaartwaarde
- [SPARK-40109] [SQL] Nieuwe SQL-functie: get()
- [SPARK-39929] [SQL] DS V2 biedt ondersteuning voor push-down-tekenreeksfuncties (niet-ANSI)
- [SPARK-39819] [SQL] Geaggregeerde DS V2-push omlaag kan werken met Top N of Paging (sorteren met expressies)
- [SPARK-40213] [SC-109077] [SQL] Ondersteuning voor ASCII-waardeconversie voor Latijns-1 tekens
- [SPARK-39887] [SQL] RemoveRedundantAliases moet aliassen behouden die de uitvoer van projectieknooppunten uniek maken
- [SPARK-39764] [SQL] PhysicalOperation hetzelfde maken als ScanOperation
- [SPARK-39964] [SQL] DS V2-pushdown moet het vertaalpad samenvoegen
- [SPARK-39528] [SQL] V2-filter gebruiken in SupportsRuntimeFiltering
- [SPARK-40066] [SQL] ANSI-modus: retourneer altijd null voor ongeldige toegang tot de kaartkolom
- [SPARK-39912] [SPARK-39828] [SQL] CatalogImpl verfijnen
- [SPARK-39833] [SC-108736] [SQL] Parquet-kolomindex in DSv1 uitschakelen om een probleem met de juistheid op te lossen in het geval van overlappende partitie- en gegevenskolommen
- [SPARK-39880] [SQL] V2 SHOW FUNCTIONS-opdracht moet gekwalificeerde functienaam afdrukken, zoals v1
- [SPARK-39767] [SQL] UnresolvedDBObjectName verwijderen en UnresolvedIdentifier toevoegen
- [SPARK-40163] [SC-108740] [SQL] feat: SparkSession.config(Map)
- [SPARK-40136] [SQL] Het fragment van SQL-querycontexten herstellen
- [SPARK-40107] [SC-108689] [SQL] Lege 2null-conversie ophalen uit FileFormatWriter
- [SPARK-40121] [PYTHON] [SQL] Projectie initialiseren die wordt gebruikt voor Python UDF
- [SPARK-40128] [SQL] De VectorizedColumnReader DELTA_LENGTH_BYTE_ARRAY herkennen als een zelfstandige kolomcodering
- [SPARK-40132] [ML] RawPredictionCol herstellen naar MultilayerPerceptronClassifier.setParams
- [SPARK-40050] [SC-108696] [SQL] Verbeteren
EliminateSorts
ter ondersteuning van het verwijderen van sorteringen viaLocalLimit
- [SPARK-39629] [SQL] V2 SHOW FUNCTIONS ondersteunen
- [SPARK-39925] [SC-108734] [SQL] Overbelasting van array_sort(column, comparator) toevoegen aan DataFrame-bewerkingen
- [SPARK-40117] [PYTHON] [SQL] Voorwaarde converteren naar Java in DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Repartition verbeteren in ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Naam van sessiecatalogus voor v1-databasetabel en -functie toevoegen
- [SPARK-39889] [SQL] Verschillende foutklassen gebruiken voor numeriek/interval gedeeld door 0
- [SPARK-39741] [SQL] Ondersteuning voor URL-codering/decoderen als ingebouwde functie en opsnijdende URL-gerelateerde functies
- [SPARK-40102] [SQL] SparkException gebruiken in plaats van IllegalStateException in SparkPlan
- [SPARK-40014] [SQL] Ondersteuning voor cast van decimalen naar ANSI-intervallen
- [SPARK-39776] [SQL] [VOLGEN] UT van PlanStabilitySuite bijwerken in ANSI-modus
- [SPARK-39963] [SQL] Vereenvoudigen
SimplifyCasts.isWiderCast
Onderhoudsupdates
Zie onderhoudsupdates voor Databricks Runtime 11.3.
Systeemomgeving
- Besturingssysteem: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Geïnstalleerde Python-bibliotheken
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
argon2-cffi | 20.1.0 | async-generator | 1,10 | attrs | 21.2.0 |
backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 | zwart | 22.3.0 |
Bleekmiddel | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | Cffi | 1.14.6 | Chardet | 4.0.0 |
charset-normalizer | 2.0.4 | klikken | 8.0.3 | Cryptografie | 3.4.8 |
cycler | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
foutopsporing | 1.4.1 | Decorator | 5.1.0 | defusedxml | 0.7.1 |
distlib | 0.3.6 | invoerpunten | 0,3 | facets-overview | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | ipykernel | 6.12.1 |
Ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
matplotlib-inline | 0.1.2 | mistune | 0.8.4 | mypy-extensions | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | notebook | 6.4.5 | Numpy | 1.20.3 |
Verpakking | 21,0 | Pandas | 1.3.4 | pandocfilters | 1.4.3 |
parso | 0.8.2 | pathspec | 0.9.0 | Patsy | 0.5.2 |
Pexpect | 4.8.0 | pickleshare | 0.7.5 | Kussen | 8.4.0 |
Pip | 21.2.4 | platformdirs | 2.5.2 | plotly | 5.9.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
Pygobject | 3.36.0 | pyodbc | 4.0.31 | Pyparsing | 3.0.4 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | Scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | Setuptools | 58.0.4 |
Zes | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
Vasthoudendheid | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
Tornado | 6.1 | traitlets | 5.1.0 | typen-extensies | 3.10.0.2 |
upgrades zonder toezicht | 0,1 | urllib3 | 1.26.7 | Virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | Wiel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Geïnstalleerde R-bibliotheken
R-bibliotheken worden geïnstalleerd vanuit de Microsoft CRAN-momentopname op 2022-09-08.
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
Askpass | 1.1 | assertthat | 0.2.1 | Backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | opstarten | 1.3-28 |
Brouwsel | 1.0-7 | Brio | 1.1.3 | Bezem | 1.0.1 |
bslib | 0.4.0 | cachem | 1.0.6 | beller | 3.7.2 |
caret | 6.0-93 | cellranger | 1.1.0 | Chron | 2.3-57 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | Codetools | 0.2-18 | Colorspace | 2.0-3 |
commonmark | 1.8.0 | Compiler | 4.1.3 | configuratie | 0.3.1 |
cpp11 | 0.4.2 | Crayon | 1.5.1 | aanmeldingsgegevens | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | gegevenssets | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | Desc | 1.4.1 |
Devtools | 2.4.4 | diffobj | 0.3.5 | Digest | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
e1071 | 1.7-11 | ellipsis | 0.3.2 | evaluate | 0,16 |
fansi | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
Buitenlandse | 0.8-82 | Forge | 0.2.0 | Fs | 1.5.2 |
Toekomst | 1.28.0 | future.apply | 1.9.1 | Gorgelen | 1.2.0 |
Generics | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
Gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
Globals | 0.16.1 | Lijm | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | Gower | 1.0.0 | afbeeldingen | 4.1.3 |
grDevices | 4.1.3 | Raster | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0,7 | gtable | 0.3.1 | hardhat | 1.2.0 |
haven | 2.5.1 | highr | 0,9 | Hms | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | ids | 1.0.1 | Ini | 0.3.1 |
Ipred | 0.9-13 | isoband | 0.2.5 | Iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | Kernsmooth | 2.23-20 |
breiwerk | 1,40 | Labeling | 0.4.2 | Later | 1.3.0 |
Lattice | 0.20-45 | lava | 1.6.10 | levenscyclus | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Markdown | 1.1 | MASS | 7.3-56 | Matrix | 1.4-1 |
memoise | 2.0.1 | methoden | 4.1.3 | Mgcv | 1.8-40 |
Mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modeller | 0.1.9 | munsell | 0.5.0 | Nlme | 3.1-157 |
Nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallel | 1.32.1 | Pijler | 1.8.1 |
pkgbuild | 1.3.1 | Pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
Lof | 1.0.0 | prettyunits | 1.1.1 | Proc | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Voortgang | 1.2.2 | progressr | 0.11.0 | Beloften | 1.2.0.1 |
Proto | 1.0.0 | Proxy | 0.4-27 | ps | 1.7.1 |
Purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | Rcolorbrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | leesbewerking | 2.1.2 | readxl | 1.4.1 |
recepten | 1.0.1 | Rematch | 1.0.1 | opnieuw overeenkomen2 | 2.1.2 |
Afstandsbedieningen | 2.4.2 | reprex | 2.0.2 | hervorm2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | Rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0,14 |
rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.2 |
Schalen | 1.2.1 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
Vorm | 1.4.6 | Glanzende | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | Ruimtelijke | 7.3-11 |
Splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
Stats | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | Overleving | 3.4-0 | sys | 3.4 |
systemfonts | 1.0.4 | Tcltk | 4.1.3 | testthat | 3.1.4 |
tekstvorm | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | Timedate | 4021.104 |
tinytex | 0,41 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.1 | Vroom | 1.5.7 | Waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
Yaml | 2.3.5 | Zip | 2.2.0 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)
Groeps-id | Artefact-id | Versie |
---|---|---|
Antlr | Antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | Stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-gearceerd | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | Klasgenoot | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotaties | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.cafeïne | Cafeïne | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | kern | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | Guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | Jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuratie | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.netje.netlib | Arpack | 2.2.1 |
dev.netje.netlib | Blas | 2.2.1 |
dev.netje.netlib | Lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metrische gegevenskern | 4.1.1 |
io.dropwizard.metrics | metrische gegevensgrafiet | 4.1.1 |
io.dropwizard.metrics | metrische statuscontroles | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Collector | 0.12.0 |
jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activering | 1.1.1 |
javax.annotatie | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | Jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
Jline | Jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | Augurk | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-CSV | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | Stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | pijlnotatie | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | pijlvector | 7.0.0 |
org.apache.avro | Avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1,9 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recepten | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | Ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-codering | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-format-structuren | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-gearceerd | 4.20 |
org.apache.yetus | aantekeningen voor doelgroepen | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-vervolg | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance opnieuw verpakt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | sluimerstand-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Aantekeningen | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | Ongebruikte | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | Xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | katten-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
Oro | Oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
Stax | stax-api | 1.0.1 |