Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Support-Enddatum finden Sie in der Supporthistorie. Eine Übersicht aller unterstützten Databricks Runtime-Versionen finden Sie unter Versionshinweise und Kompatibilität von Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 14.1, unterstützt von Apache Spark 3.5.0.
Databricks hat diese Version im Oktober 2023 veröffentlicht.
Neue Features und Verbesserungen
- array_insert() ist 1-basiert für negative Indizes.
- Delta v2 Prüfpunkte werden standardmäßig mit Flüssig-Clusterung aktiviert
- Drop Delta-Tabellenfunktion in der öffentlichen Vorschauphase
- Delta-Freigabe: Empfänger können Batchabfragen für freigegebene Tabellen mit Löschvektoren ausführen (öffentliche Vorschau)
- Delta-Freigabe: Empfänger können Batchabfragen für freigegebene Tabellen mit Spaltenzuordnung (Public Preview) ausführen.
- Streamen aus Unity-Katalogansichten in der öffentlichen Vorschau
- Apache Pulsar-Connector in öffentlicher Vorschau
- Aktualisierter Snowflake-Treiber
- SQL-Sitzungsvariablen
- Benannter Parameteraufruf für SQL und Python UDF.
- Tabellenargumente für Funktionen unterstützen Partitionierung und Sortierung.
- Neue und erweiterte integrierte SQL-Funktionen
- Verbesserte Handhabung korrelierter Unterabfragen
array_insert() ist für negative Indizes 1-basiert.
Die array_insert Funktion basiert auf 1 für positive und negative Indizes. Es fügt nun neues Element am Ende der Eingabearrays für den Index -1 ein. Um das vorherige Verhalten wiederherzustellen, legen Sie spark.sql.legacy.negativeIndexInArrayInsert auf true fest.
Delta v2 Prüfpunkte sind standardmäßig mit Liquid Clustering aktiviert.
Neu erstellte Delta-Tabellen mit flüssigem Clustering verwenden standardmäßig v2-Prüfpunkte. Siehe Kompatibilität für Tabellen mit Liquid Clustering.
Löschung der Delta-Tabellenfunktion in der öffentlichen Vorschau
Sie können jetzt einige Tabellenfeatures für Delta-Tabellen ablegen. Die aktuelle Unterstützung umfasst das Entfernen von deletionVectors und v2Checkpoint. Weitere Informationen finden Sie unter Löschen eines Delta Lake-Tabellenfeatures und Herabstufen des Tabellenprotokolls.
Delta-Freigabe: Empfänger können Batchabfragen für freigegebene Tabellen mit Löschvektoren ausführen (öffentliche Vorschau)
Delta-Freigabeempfänger können jetzt Batchabfragen für freigegebene Tabellen ausführen, die Löschvektoren verwenden. Weitere Informationen unter Hinzufügen von Tabellen mit Löschvektoren oder Spaltenzuordnungen zu einer Freigabe, Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen und Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen.
Delta-Freigabe: Empfänger können Batchabfragen für freigegebene Tabellen mit Spaltenzuordnung (Public Preview) ausführen.
Delta-Freigabeempfänger können jetzt Batchabfragen für freigegebene Tabellen ausführen, die die Spaltenzuordnung verwenden. Weitere Informationen unter Hinzufügen von Tabellen mit Löschvektoren oder Spaltenzuordnungen zu einer Freigabe, Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen und Lesen von Tabellen mit aktivierten Löschvektoren oder Spaltenzuordnungen.
Übertragen von Ansichten aus dem Unity-Katalog in der öffentlichen Vorschau
Sie können jetzt strukturiertes Streaming verwenden, um Streaminglesevorgänge aus Ansichten durchzuführen, die mit Unity-Katalog registriert sind. Azure Databricks unterstützt nur Streaminglesevorgänge aus Ansichten, die für Deltatabellen definiert sind.
Apache Pulsar Konnektor in öffentlicher Vorschau
Sie können jetzt strukturiertes Streaming verwenden, um Daten von Apache Pulsar auf Azure Databricks zu streamen. Siehe Stream von Apache Pulsar.
Aktualisierter Snowflake-Treiber
Der Snowflake JDBC-Treiber verwendet jetzt Version 3.13.33.
SQL-Sitzungsvariablen
In dieser Version wird die Möglichkeit eingeführt, temporäre Variablen in einer Sitzung zu deklarieren, die innerhalb von Abfragen festgelegt und dann darauf verwiesen werden kann. Siehe Variablen.
Benannter Parameteraufruf für SQL und Python UDF.
Sie können jetzt den Aufruf des benannten Parameters für SQL und Python UDF verwenden.
Tabellenargumente für Funktionen unterstützen Partitionierung und Sortierung.
Sie können jetzt mithilfe PARTITION BY von ORDER BY Klauseln steuern, wie Tabellenargumente während des Funktionsaufrufs an eine Funktion übergeben werden.
Neue und erweiterte integrierte SQL-Funktionen
Die folgenden integrierten Funktionen wurden hinzugefügt:
-
from_xml: Parst ein XML-Dokument
STRINGin einSTRUCT. -
schema_of_xml: Leitet ein Schema von einem XML-Code
STRINGab. - session_user: Gibt den angemeldeten Benutzer zurück.
-
try_reflect: Gibt
NULLanstelle der Ausnahme zurück, wenn eine Java-Methode fehlschlägt.
Die folgenden integrierten Funktionen wurden verbessert:
- mode: Unterstützung für einen optionalen Parameter, der ein deterministisches Ergebnis erzwingt.
-
to_char: Neue Unterstützung für
DATE, ,TIMESTAMPundBINARY. -
to_varchar: Neue Unterstützung für
DATE,TIMESTAMPundBINARY.
Verbesserte Handhabung korrelierter Unterabfragen
Die Möglichkeit, die Korrelation in Unterabfragen zu verarbeiten, wurde erweitert:
- Bearbeiten Sie LIMIT und ORDER BY in korrelierten skalaren (lateralen) Unterabfragen.
- Unterstützen Sie Fensterfunktionen in korrelierten skalaren Unterabfragen.
- Unterstützung korrelierter Verweise in Join-Prädikaten für skalare und laterale Unterabfragen
Verhaltensänderung
Strenge Typüberprüfung im Photon Parquet-Reader
Photon funktioniert nicht, wenn versucht wird, einen Dezimalwert aus einer Parquet-Spalte zu lesen, die kein Dezimaltyp ist. Photon schlägt auch fehl, wenn ein Byte-Array mit fester Länge aus Parquet als Zeichenfolge gelesen werden soll.
Verbesserungen der Bibliothek
- Aktualisierte Python-Bibliotheken:
- filelock von 3.12.2 auf 3.12.3
- s3transfer von 0.6.1 auf 0.6.2
- Aktualisierte Java-Bibliotheken:
- com.uber.h3 von 3.7.0 bis 3.7.3
- Aktualisierung von io.airlift.aircompressor von Version 0.24 auf 0.25
- io.delta.delta-sharing-spark_2.12 von 0.7.1 bis 0.7.5
- io.netty.netty-all von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-buffer von 4.1.93.Final auf 4.1.96.Final
- io.netty.netty-codec von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-codec-http von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-codec-http2 von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-codec-socks von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-common von Version 4.1.93.Final auf Version 4.1.96.Final.
- io.netty.netty-handler von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-handler-proxy von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-resolver von Version 4.1.93.Final auf Version 4.1.96.Final
- io.netty.netty-transport von 4.1.93.Final zu 4.1.96.Final
- io.netty.netty-transport-classes-epoll von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-transport-classes-kqueue von 4.1.93.Final bis 4.1.96.Final
- io.netty.netty-transport-native-epoll von 4.1.93.Final-linux-x86_64 zu 4.1.96.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue von 4.1.93.Final-osx-x86_64 auf 4.1.96.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common von 4.1.93.Final-Version bis 4.1.96.Final-Version
- net.snowflake.snowflake-jdbc von 3.13.29 bis 3.13.33
- org.apache.orc.orc-core von 1.9.0-shaded-protobuf bis 1.9.1-shaded-protobuf
- org.apache.orc.orc-mapreduce von 1.9.0-shaded-protobuf auf 1.9.1-shaded-protobuf
- org.apache.orc.orc-shims von Version 1.9.0 bis 1.9.1
Apache Spark
Databricks Runtime 14.1 umfasst Apache Spark 3.5.0. Diese Version enthält alle Spark Fixes und Verbesserungen, die in Databricks Runtime 14.0 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-45088] [DBRRM-557] "Rückgängig machen von [SC-142785][python][CONNECT] Make getitem work with duplicated column"
-
[SPARK-43453] [DBRRM-557]Revert "[SC-143135][ps] Ignorieren von
namesvonMultiIndex, wennaxis=1fürconcat" - [SPARK-45225] [SC-143207][sql] XML: XSD-Datei-URL-Unterstützung
-
[SPARK-45156] [SC-142782][sql]
inputNamemit Backticks in derNON_FOLDABLE_INPUTFehlerklasse einschließen - [SPARK-44910] [ SC-143082][sql] Encoders.bean unterstützt keine Superklassen mit generischen Typargumenten.
-
[SPARK-43453] [SC-143135][ps] Ignorieren Sie das
namesvonMultiIndex, wenn Sieaxis=1fürconcat - [SPARK-44463] [SS][connect] Fehlerbehandlung für Connect-Streaming-Python-Worker verbessern
- [SPARK-44960] [ SC-141023][ui] Unescape und besteht aus einer Fehlerzusammenfassung auf UI-Seiten.
- [SPARK-44788] [SC-142980][connect][PYTHON][sql] Fügen Sie from_xml und schema_of_xml zu Pyspark, Spark Connect und sql-Funktion hinzu.
- [SPARK-44614] [SC-138460][python][CONNECT][3.5] Fügen Sie fehlende Pakete in setup.py
- [SPARK-45151] [SC-142861][core][UI] Unterstützung für Threadabbilder auf Aufgabenebene
- [SPARK-45056] [SC-142779][python][SS][connect] Beendigungstests für streamingQueryListener und foreachBatch
- [SPARK-45084] [SC-142828][ss] StateOperatorProgress, um genaue effektive Shuffle-Partitionsnummer zu verwenden
- [SPARK-44872] [SC-142405][connect] Servertest-Infrastruktur und ReattachableExecuteSuite
-
[SPARK-45197] [SC-142984][core] Fügt
StandaloneRestServerJavaModuleOptionszu Treibern hinzu - [SPARK-44404] [SC-139601][sql] Weisen Sie der Fehlerklasse Namen LEGACY_ERROR_TEMP[1009,1010,1013,1015,1016,1278] zu.
- [SPARK-44647] [ SC-142297][sql] Unterstützung für SPJ, wobei Join-Schlüssel kleiner als Cluster-Schlüssel sind
-
[SPARK-45088] [ SC-142785][python][CONNECT]
getitemmit duplizierten Spalten funktionieren lassen -
[SPARK-45128] [SC-142851][sql] Unterstützung für
CalendarIntervalTypein Arrow - [SPARK-45130] [SC-142976][connect][ML][python] Vermeiden Sie, dass das Spark-Connect-ML-Modell die Eingabe-Pandas-Datenrahmen ändert.
- [SPARK-45034] [ SC-142959][sql] Unterstützung der deterministischen Modusfunktion
- [SPARK-45173] [SC-142931][ui] Entfernen Sie einige unnötige SourceMapping-Dateien in der Benutzeroberfläche.
-
[SPARK-45162] [SC-142781][sql] Unterstützung von Karten- und Array-Parametern, die über
call_functionerstellt wurden. - [SPARK-45143] [SC-142840][python][CONNECT] Machen Sie PySpark kompatibel mit PyArrow 13.0.0
-
[SPARK-45174] [ SC-142837][Core] Support
spark.deploy.maxDrivers -
[SPARK-45167] [ SC-142956][connect][PYTHON] Der Python-Client muss
release_allaufrufen. - [SPARK-36191] [SC-142777][sql] Behandeln von Limit und Order By in korrelierten skalaren (lateralen) Unterabfragen
- [SPARK-45159] [ SC-142829][python] Behandeln benannter Argumente nur bei Bedarf
- [SPARK-45133] [SC-142512][connect] Stellen Sie sicher, dass Spark Connect-Abfragen abgeschlossen werden, wenn die letzte Ergebnisaufgabe abgeschlossen ist.
- [SPARK-44801] [SC-140802][sql][UI] Erfassen der Analyse fehlgeschlagener Abfragen in Listener und UI
- [SPARK-45139] [SC-142527][sql] Hinzufügen von DatabricksDialect zur Verarbeitung der SQL-Typkonvertierung
-
[SPARK-45157] [ SC-142546][sql] Vermeidung wiederholter
ifÜberprüfungen[On|Off|HeapColumnVector - [SPARK-45077] Rückgängig machen von “[SC-142069][ui] Upgrade dagre-d3.js von 04.3 auf 0.6.4”
- [SPARK-45145] [SC-142521][Beispiel] JavaSparkSQLCli-Beispiel hinzufügen
-
[SPARK-43295] Rückgängig machen von "[SC-142254][ps] Unterstützung von Zeichenfolgen-Typenspalten für
DataFrameGroupBy.sum" - [SPARK-44915] [SC-142383][Kern] Überprüfen der Prüfsumme der neu montierten PVC-Shuffle-Daten vor der Wiederherstellung
-
[SPARK-45147] [SC-142524][Kern] Verwendung entfernen
System.setSecurityManager -
[SPARK-45104] [ SC-142206][ui] Upgrade
graphlib-dot.min.jsauf 1.0.2 -
[SPARK-44238] [SC-141606][core][SQL] Führen Sie eine neue
readFromMethode mit Byte-Array-Eingabe fürBloomFilterein. -
[SPARK-45060] [SC-141742][sql] Beheben eines internen Fehlers im
to_char()NULLFormat -
[SPARK-43252] [SC-142381][sql] Ersetzen Sie die Fehlerklasse
_LEGACY_ERROR_TEMP_2016durch einen internen Fehler. - [SPARK-45069] [SC-142279][sql] SQL-Variable sollte immer nach äußerem Verweis aufgelöst werden
- [SPARK-44911] [SC-142388][sql] Erstellen einer Hive-Tabelle mit ungültiger Spalte sollte einen Fehler der Klasse zurückgeben
- [SPARK-42754] [SC-125567][sql][UI] Beheben des Abwärtskompatibilitätsproblems bei der geschachtelten SQL-Ausführung
-
[SPARK-45121] [SC-142375][connect][PS] Unterstützung
Series.emptyfür Spark Connect. - [SPARK-44805] [SC-142203][sql] getBytes/getShorts/getInts/usw. sollte in einem Spaltenvektor mit einem Wörterbuch funktionieren.
-
[SPARK-45027] [ SC-142248][python] Interne Funktionen/Variablen bei der Autovervollständigung
pyspark.sql.functionsausblenden -
[SPARK-45073] [SC-141791][ps][CONNECT] Ersetzen durch
LastNotNullLast(ignoreNulls=True) - [SPARK-44901] [SC-141676][sql] Manueller Backport: API in der 'analyze'-Methode der Python-UDTF hinzufügen, um Partitions-/Ordnungs-Ausdrücke zurückzugeben.
-
[SPARK-45076] [ SC-141795][ps] Wechseln zur integrierten
repeatFunktion - [SPARK-44162] [SC-141605][core] Unterstützung von G1GC in den Spark-Metriken
- [SPARK-45053] [SC-141733][Python][KLEIN] Protokollverbesserung bei Versionsunterschied in Python
-
[SPARK-44866] [SC-142221][sql] Hinzufügen von
SnowflakeDialectzur korrekten Behandlung des BOOLESCHEN Typs -
[SPARK-45064] [ SC-141775][python][CONNECT] Fügen Sie den fehlenden
scaleParameter inceil/ceiling -
[SPARK-45059] [SC-141757][connect][PYTHON] Hinzufügen von
try_reflectFunktionen zu Scala und Python -
[SPARK-43251] [SC-142280][sql] Ersetzen Sie die Fehlerklasse
_LEGACY_ERROR_TEMP_2015durch einen internen Fehler. - [SPARK-45052] [SC-141736][sql][PYTHON][connect] Funktionsalias-Ausgabespaltennamen mit SQL konsistent gestalten
- [SPARK-44239] [SC-141502][sql] Freier Speicher, der von großen Vektoren zugewiesen wird, wenn Vektoren zurückgesetzt werden
-
[SPARK-43295] [SC-142254][ps] Unterstützung von String-Typ-Spalten für
DataFrameGroupBy.sum - [SPARK-45080] [ SC-142062][ss] Ruft explizit die Unterstützung für spaltenförmige Formate in DSv2-Streamingdatenquellen auf
- [SPARK-45036] [SC-141768][sql] SPJ: Vereinfachen der Logik für die Behandlung teilweise gruppierter Verteilung
- [SPARK-45077] [SC-142069][ui] Upgrade dagre-d3.js von 0.4.3 auf 0.6.4.4
-
[SPARK-45091] [ SC-142020][python][CONNECT][sql] Funktion
floor/round/broundakzeptiert den Spaltentypenscale -
[SPARK-45090] [ SC-142019][python][CONNECT]
DataFrame.{cube, rollup}unterstützt Spaltennummern -
[SPARK-44743] [SC-141625][sql] Funktion hinzufügen
try_reflect - [SPARK-45086] [SC-142052][ui] Hexadezimale für Threadsperrhashcode anzeigen
- [SPARK-44952] [SC-141644][sql][PYTHON] Unterstützung benannter Argumente in aggregierten Pandas UDFs
-
[SPARK-44987] [ SC-141552][sql] Weisen Sie der Fehlerklasse einen Namen zu.
_LEGACY_ERROR_TEMP_1100 -
[SPARK-45032] [SC-141730][connect] Beheben von Kompilierungswarnungen im Zusammenhang mit
Top-level wildcard is not allowed and will error under -Xsource:3 - [SPARK-45048] [ SC-141629][connect] Hinzufügen zusätzlicher Tests für Python-Client und anbindbare Ausführung
- [SPARK-45072] [SC-141807][connect] Korrektur von äußeren Gültigkeitsbereichen für Ammonite-Klassen
-
[SPARK-45033] [SC-141759][sql] Unterstützung von Karten durch parametrisierte
sql() -
[SPARK-45066] [SC-141772][sql][PYTHON][connect] Funktion soll Spaltentyp
repeatakzeptierenn - [SPARK-44860] [SC-141103][sql] Funktion SESSION_USER hinzufügen
- [SPARK-45074] [SC-141796][python][CONNECT] Unterstützung für Spaltenindizes
-
[SPARK-45047] [SC-141774][python][CONNECT]
DataFrame.groupByUnterstützung von Ordnungszahlen - [SPARK-44863] [SC-140798][Ui] Hinzufügen einer Schaltfläche zum Herunterladen des Threadabbilds als txt in der Spark-Ui
-
[SPARK-45026] [SC-141604][connect]
spark.sqlsollte Datentypen unterstützen, die nicht mit pfeilkompatibel sind -
[SPARK-44999] [SC-141145][core]
ExternalSorterumgestalten, um Überprüfungen vonshouldPartitionbeim Aufrufen vongetPartitionzu reduzieren -
[SPARK-42304] [ SC-141501][sql] Umbenennen
_LEGACY_ERROR_TEMP_2189inGET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION - [SPARK-43781] [SC-139450][sql] Fix IllegalStateException beim Gemeinsamen Gruppieren von zwei Datasets, die von derselben Quelle abgeleitet wurden
- [SPARK-45018] [SC-141516][python][CONNECT] Hinzufügen von CalendarIntervalType zu Python-Client
- [SPARK-45024] [SC-141513][python][CONNECT] Filtern einiger Konfigurationen in der Sitzungserstellung
-
[SPARK-45017] [SC-141508][python] Zu PySpark hinzufügen
CalendarIntervalType - [SPARK-44720] [SC-139375][connect] Das Dataset soll Encoder anstelle von AgnosticEncoder verwenden.
- [SPARK-44982] [ SC-141027][connect] Mark Spark Connect-Serverkonfigurationen als statisch
- [SPARK-44839] [SC-140900][ss][CONNECT] Bessere Fehlerprotokollierung, wenn der Benutzer versucht, Spark-Sitzung zu serialisieren
- [SPARK-44865] [SC-140905][ss] StreamingRelationV2 unterstützt die Metadatenspalte
- [SPARK-45001] [SC-141141][python][CONNECT] DataFrame.foreachPartition implementieren
- [SPARK-44497] [ SC-141017][webui] Aufgabenpartitions-ID in der Aufgabentabelle anzeigen
- [SPARK-45006] [SC-141143][ui] Verwenden Sie das gleiche Datumsformat anderer UI-Datumselemente für die X-Achse von Zeitachsen.
- [SPARK-45000] [SC-141135][python][CONNECT] Implementieren von DataFrame.foreach
- [SPARK-44967] [SC-141137][sql][CONNECT] Einheit sollte zuerst berücksichtigt werden, bevor Boolescher Wert für TreeNodeTag verwendet wird.
-
[SPARK-44993] [ SC-141088][core] Hinzufügen von
ShuffleChecksumUtils.compareChecksumsdurch Wiederverwenden vonShuffleChecksumTestHelp.compareChecksums - [SPARK-44807] [SC-140176][connect] Dataset.metadataColumn zum Scala-Client hinzufügen
-
[SPARK-44965] [ SC-141098][python] Interne Funktionen/Variablen ausblenden aus
pyspark.sql.functions -
[SPARK-44983] [SC-141030][sql] Konvertierung von Binärdaten in eine Zeichenfolge gemäß den Formaten:
to_char,hex,base64 - [SPARK-44980] [ DBRRM-462][sc-141024][PYTHON][connect] Korrektur von geerbten benannten Datentupeln für die Arbeit in createDataFrame
- [SPARK-44985] [SC-141033][core] Verwenden Sie toString anstelle der Stack-Spur für den task reaper threadDump
-
[SPARK-44984] [SC-141028][python][CONNECT] Entfernen von
_get_aliasaus dem DataFrame - [SPARK-44975] [SC-141013][sql] Entfernen unnötige Überschreibung von BinaryArithmetic aufgelöst
-
[SPARK-44969] [ SC-140957][sql] Wiederverwendung
ArrayInsertinArrayAppend - [SPARK-44549] [SC-140714][sql] Unterstützen von Fensterfunktionen in korrelierten skalaren Unterabfragen
-
[SPARK-44938] [SC-140811][sql] Standardwert von
spark.sql.maxSinglePartitionBytesauf 128m ändern - [SPARK-44918] [SC-140816][sql][PYTHON] Unterstützung benannter Argumente in skalaren Python/Pandas UDFs
-
[SPARK-44966] [SC-140907][core][CONNECT] Ändern Sie das bisher unveränderte
varzuval - [SPARK-41471] [SC-140804][sql] Reduzierung von Spark-Shuffle, wenn nur eine Seite eines Joins KeyGroupedPartitioning ist.
- [SPARK-44214] [SC-140528][core] Unterstützung für die Spark Driver Live Log Benutzeroberfläche
- [SPARK-44861] [SC-140716][connect] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44776] [SC-140519][connect] Füge ProducedRowCount zu SparkListenerConnectOperationFinished hinzu
-
[SPARK-42017] [ SC-140765][python][CONNECT]
df['col_name']sollte den Spaltennamen überprüfen - [SPARK-40178] [SC-140433][sql][CONNECT] Unterstützung von Coalesce-Hinweisen für PySpark und R ermöglichen
-
[SPARK-44840] [ SC-140593][sql]
array_insert()1-basiert für negative Indizes - [SPARK-44939] [SC-140778][r] Unterstützung von Java 21 in SparkR SystemRequirements
- [SPARK-44936] [SC-140770][core] Vereinfachen sie das Protokoll, wenn Spark HybridStore die Speichergrenze erreicht
- [SPARK-44908] [SC-140712][ml][CONNECT] Behebe die Funktionalität des Cross-Validators für den Parameter foldCol
- [SPARK-44816] [SC-140717][connect] Fehlermeldung verbessern, wenn die UDF-Klasse nicht gefunden wird
- [SPARK-44909] [SC-140710][ml] Überspringen der Initialisierung des Protokollstreaming-Servers, wenn er nicht verfügbar ist
- [SPARK-44920] [SC-140707][core] Verwenden Sie await() anstelle von awaitUninterruptibly() in TransportClientFactory.createClient()
- [SPARK-44905] [SC-140703][sql] Stateful lastRegex verursacht NullPointerException bei der Auswertung für regexp_replace
- [SPARK-43987] [SC-139594][shuffle] Verarbeiten der finalizeShuffleMerge in separaten dedizierten Thread-Pools
- [SPARK-42768] [SC-140549][sql] Zwischengespeicherten Plan standardmäßig mit AQE anwenden
-
[SPARK-44741] [SC-139447][core] Unterstützung von regex-basierten MetricFilter in
StatsdSink - [SPARK-44751] [ SC-140532][sql] XML FileFormat Interface-Implementierung
-
[SPARK-44868] [SC-140438][sql] Datum/Uhrzeit in Zeichenfolge konvertieren nach
to_char/to_varchar - [SPARK-44748] [SC-140504][sql] Abfrageausführung für die PARTITION BY-Klausel in UDTF-Argumenten TABLE
- [SPARK-44873] [SC-140427] Unterstützung der Abänderung von Ansichten mit geschachtelten Spalten im Hive-Client
- [SPARK-44876] [SC-140431][python] Fix Arrow-optimierte Python-UDFs auf Spark Connect
- [SPARK-44520] [SC-137845][sql] Ersetzen Sie den Begriff UNSUPPORTED_DATA_SOURCE_FOR_DIRECT_QUERY durch UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY- und Offenlegungsstamm AE
-
[SPARK-42664] [ SC-139769][connect] Unterstützungsfunktion
bloomFilterfürDataFrameStatFunctions -
[SPARK-43567] [SC-139227][ps] Unterstützung von
use_na_sentinelfürfactorize - [SPARK-44859] [SC-140254][ss] Korrigieren des falschen Eigenschaftennamens in strukturierten Streaming-Dokumenten
- [SPARK-44822] [SC-140182][python][SQL] Python UDTFs standardmäßig nicht-deterministisch machen
- [SPARK-44731] [SC-139524][python][CONNECT] Make TimestampNTZ arbeitet mit Literalen in Python Spark Connect
- [SPARK-44836] [ SC-140180][python] Pfeile python UDTF umgestalten
- [SPARK-44714] [ SC-139238] Lockerung der Beschränkungen für die LCA-Auflösung in Bezug auf Abfragen mit HAVING-Klausel
- [SPARK-44749] [SC-139664][sql][PYTHON] Unterstützung benannter Argumente in Python UDTF
- [SPARK-44737] [SC-139512][sql][UI] Sollte keine JSON-Formatfehler auf der SQL-Seite für Nicht-SparkThrowables auf der SQL-Registerkarte anzeigen
- [SPARK-44665] [SC-139307][Python] Unterstützung für Pandas DataFrame assertDataFrameEqual hinzufügen
- [SPARK-44736] [ SC-139622][connect] Add Dataset.explode to Spark Connect Scala Client
- [SPARK-44732] [ SC-139422][sql] Integrierte XML-Datenquellenunterstützung
- [SPARK-44694] [SC-139213][python][CONNECT] Aktive Sitzungen umstrukturieren und als API zugänglich machen
- [SPARK-44652] [SC-138881] Auslösen eines Fehlers, wenn nur ein DF keine ist
- [SPARK-44562] [SC-138824][sql] OptimizeOneRowRelationSubquery im Batch von Unterabfragen hinzufügen
- [SPARK-44717] [SC-139319][python][PS] TimestampNTZ bei der Neustichprobe beachten
- [SPARK-42849] [ SC-139365] [SQL] Sitzungsvariablen
-
[SPARK-44236] [SC-139239][sql] WholeStageCodegen deaktivieren, wenn
spark.sql.codegen.factoryModeauf NO_CODEGEN gesetzt ist -
[SPARK-44695] [ SC-139316][python] Fehlermeldung verbessern für
DataFrame.toDF -
[SPARK-44680] [SC-139234][sql] Verbesserung des Fehlers bei Parametern in
DEFAULT - [SPARK-43402] [SC-138321][sql] FileSourceScanExec unterstützt das Herunterdrücken von Datenfiltern mit skalaren Unterabfragen
- [SPARK-44641] [SC-139216][sql] Falsches Ergebnis in bestimmten Szenarien, wenn SPJ nicht ausgelöst wird
-
[SPARK-44689] [ SC-139219][connect] Machen Sie die Ausnahmebehandlung der Funktion
SparkConnectPlanner#unpackScalarScalaUDFuniverseller -
[SPARK-41636] [SC-139061][sql] Stellen Sie sicher, dass
selectFiltersPrädikate in deterministischer Reihenfolge zurückgegeben werden. -
[SPARK-44132] [SC-139197][sql] Materialize
Streamvon Verknüpfungsspaltennamen, um Codegen-Fehler zu vermeiden -
[SPARK-42330] [SC-138838][sql] Weisen Sie der Fehlerklasse den Namen
RULE_ID_NOT_FOUNDzu._LEGACY_ERROR_TEMP_2175 - [SPARK-44683] [ SC-139214][ss] Protokollierungsebene wird nicht ordnungsgemäß an den RocksDB-Statusspeicheranbieter übergeben.
-
[SPARK-44658] [SC-138868][core]
ShuffleStatus.getMapStatussollteNonezurückgeben anstelle vonSome(null) - [SPARK-44603] [ SC-138353] Hinzufügen von pyspark.testing zu setup.py
- [SPARK-44252] [SC-137505][ss] Definieren Sie eine neue Fehlerklasse und wenden Sie sie auf den Fall an, in dem der Ladezustand von DFS fehlschlägt.
- [SPARK-29497] [DBRRM-396][sc-138477][CONNECT] Auslösen eines Fehlers, wenn UDF nicht deserialisierbar ist.
- [SPARK-44624] [DBRRM-396][sc-138900][CONNECT] Ausführungsplan erneut ausführen, falls die anfängliche Anfrage den Server nicht erreicht hat
- [SPARK-41400] [DBRRM-396][sc-138287][CONNECT] Entfernen der Connect-Client-Catalyst-Abhängigkeit
- [SPARK-44059] [SC-138833][sql] Bessere Fehlermeldungen für SQL benannte Argumente hinzufügen
-
[SPARK-44620] [SC-138831][sql][PS][connect] Dafür sorgen, dass
ResolvePivotdiePlan_ID_TAGbeibehält - [SPARK-43838] [SC-137413][sql] Korrigiere Unterabfrage für eine einzelne Tabelle mit HAVING-Klausel, die nicht optimiert werden kann.
- [SPARK-44555] [SC-138820][sql] Verwenden Sie checkError(), um Ausnahmen in der Befehlssuite zu überprüfen und einigen Fehlerklassen Namen zuzuweisen.
- [SPARK-44280] [SC-138821][sql] Add convertJavaTimestampToTimestamp in SERVERSDialect API
-
[SPARK-44602] [SC-138337][sql][CONNECT][ps] Sorgt dafür, dass
WidenSetOperationTypesdiePlan_ID_TAGbeibehalten werden. - [SPARK-42941] [ SC-138389][ss][CONNECT] Python StreamingQueryListener
- [SPARK-43838] "[SC-137413][sql] Behebt Unterabfrage bei einem einzigen Tabellenentwurf zurücknehmen"
- [SPARK-44538] [SC-138178][connect][SQL] Reinstate Row.jsonValue und Freunde
- [SPARK-44421] [SC-138434][spark-44423][CONNECT] Wiederverknüpfbare Ausführung in Spark Connect
- [SPARK-43838] [SC-137413][sql] Korrigiere Unterabfrage für eine einzelne Tabelle mit HAVING-Klausel, die nicht optimiert werden kann.
- [SPARK-44587] [SC-138315][sql][CONNECT] Erhöhen des Protobuf-Marshaller-Rekursionslimits
- [SPARK-44605] [ SC-138338][core] Interne ShuffleWriteProcessor-API verfeinern
- [SPARK-44394] [SC-138291][connect][WEBUI] Hinzufügen einer Spark UI-Seite für Spark Connect
- [SPARK-44585] [SC-138286][mllib] Warnungsbedingung in MLLib RankingMetrics ndcgAk beheben
- [SPARK-44198] [ SC-138137][Kern] Unterstützung der Verteilung der Protokollebene an die Executoren
- [SPARK-44454] [ SC-138071][sql][HIVE] HiveShim getTablesByType unterstützt Rückfalllösung
- [SPARK-44425] [SC-138135][connect] Überprüfen, ob die vom Benutzer bereitgestellte SessionId eine UUID ist
-
[SPARK-43611] [SC-138051][sql][PS][verbindung]
ExtractWindowExpressionssoll dasPLAN_ID_TAGbeibehalten - [SPARK-44560] [SC-138117][python][CONNECT] Verbessern von Tests und Dokumentationen für Arrow Python UDF
- [SPARK-44482] [SC-138067][connect] Connect-Server sollte die Bindungsadresse angeben
- [SPARK-44528] [SC-138047][connect] Unterstützung der ordnungsgemäßen Verwendung von hasattr() für Connect Dataframe
- [SPARK-44525] [SC-138043][sql] Fehlermeldung verbessern, wenn die Invoke-Methode nicht gefunden wird
- [SPARK-44355] [SC-137878][sql] Verschieben Sie WithCTE in Befehlsabfragen
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Siehe Databricks Runtime 14.1 Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 22.04.3 LTS
- Java: Zulu 8.72.0.17-CA-linux64
- Skala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.0.5 | Attrs | 22.1.0 | Backcall | 0.2.0 |
| beautifulsoup4 | 4.11.1 | schwarz | 22.6.0 | Bleichmittel | 4.1.0 |
| Blinker | 1.4 | Boto3 | 1.24.28 | Botocore | 1.27.96 |
| Zertifizieren | 2022.12.7 | CFFI | 1.15.1 | Chardet | 4.0.0 |
| Charset-Normalizer | 2.0.4 | klicken | 8.0.4 | Kommunikation | 0.1.2 |
| Contourpy | 1.0.5 | Kryptographie | 39.0.1 | Fahrradfahrer | 0.11.0 |
| Cython | 0.29.32 | Databricks-SDK | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
| Distlib | 0.3.7 | Docstring zu Markdown | 0.11 | Einstiegspunkte | 0,4 |
| ausführen | 0.8.3 | Übersicht der Facetten | 1.1.1 | fastjsonschema | 2.18.0 |
| Dateisperrung | 3.12.3 | fonttools | 4.25.0 | GCC-Laufzeitbibliothek | 1.10.0 |
| googleapis-common-protos | 1.60.0 | GRPCIO | 1.48.2 | grpcio-status | 1.48.1 |
| httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
| ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | jeepney | 0.7.1 |
| Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.17.3 | Jupyter-Client | 7.3.4 | Jupyter-Server | 1.23.4 |
| jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| Schlüsselring | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
| lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
| MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | verstimmen | 0.8.4 | more-itertools | 8.10.0 |
| mypy-Erweiterungen | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
| nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
| nodeenv | 1.8.0 | Notizbuch | 6.5.2 | Notebook-Shim | 0.2.2 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | Verpackung | 22.0 |
| Pandas | 1.5.3 | Pandocfilter | 1.5.0 | Parso | 0.8.3 |
| Pfadangabe | 0.10.3 | Sündenbock | 0.5.3 | pexpect | 4.8.0 |
| Pickleshare | 0.7.5 | Kissen | 9.4.0 | Kern | 22.3.1 |
| platformdirs | 2.5.2 | Handlung | 5.9.0 | plugin-fähig | 1.0.0 |
| prometheus-client | 0.14.1 | Prompt-Toolkit | 3.0.36 | protobuf | 4.24.0 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | Pyarrow | 8.0.0 | Pycparser | 2.21 |
| Pydantisch | 1.10.6 | Pyflakes | 3.0.1 | Pygments | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | Pyodbc | 4.0.32 |
| Pyparsing | 3.0.9 | Pyright | 1.1.294 | Pyristent | 0.18.0 |
| Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | Python-LSP-Server | 1.7.1 |
| pytoolconfig | 1.2.5 | Pytz | 2022.7 | pyzmq | 23.2.0 |
| Anforderungen | 2.28.1 | Seil | 1.7.0 | s3transfer | 0.6.2 |
| scikit-lernen | 1.1.1 | Seegeboren | 0.12.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 65.6.3 | Sechs | 1.16.0 |
| sniffio | 1.2.0 | Sieb für Suppe | 2.3.2.post1 | ssh-import-id | 5.11 |
| Stapeldaten | 0.2.0 | StatistikModelle | 0.13.5 | Hartnäckigkeit | 8.1.0 |
| terminado | 0.17.1 | Threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | Tornado | 6.1 |
| Traitlets | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
| Wadllib | 1.3.6 | wcwidth | 0.2.5 | Webkodierungen | 0.5.1 |
| WebSocket-Client | 0.58.0 | Was ist neu im Patch | 1.0.2 | Rad | 0.38.4 |
| widgetsnbextension | 3.6.1 | yapf | 0.31.0 | ZIPP | 1.0.0 |
| SciPy | 1.10.1 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus einem CRAN-Snapshot des Posit-Paket-Managers vom 10. Februar 2023 installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 12.0.1 | Askpass | 1.1 | prüfen, dass | 0.2.1 |
| Backports | 1.4.1 | Basis | 4.3.1 | base64enc | 0.1-3 |
| Bit | 4.0.5 | Bit64 | 4.0.5 | Klumpen | 1.2.4 |
| Boot | 1.3-28 | brauen | 1,0 - 8 | Brio | 1.1.3 |
| Besen | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
| Callr | 3.7.3 | Caret | 6.0-94 | CellRanger | 1.1.0 |
| Chron | 2.3-61 | Klasse | 7.3-22 | cli | 3.6.1 |
| Schermaschine | 0.8.0 | Uhr | 0.7.0 | Gruppe | 2.1.4 |
| Codetools | 0.2-19 | Farbraum | 2.1-0 | Commonmark | 1.9.0 |
| Kompilierer | 4.3.1 | Konfiguration | 0.3.1 | im Zwiespalt | 1.2.0 |
| cpp11 | 0.4.4 | Buntstift | 1.5.2 | Zugangsdaten | 1.3.2 |
| Locke | 5.0.1 | data.table | 1.14.8 | Datensätze | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | Beschreibung | 1.4.2 |
| devtools | 2.4.5 | Diagramm | 1.6.5 | diffobj | 0.3.5 |
| verdauen | 0.6.33 | Nach unten gerichtete Beleuchtung | 0.4.3 | dplyr | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | Ellipse | 0.3.2 |
| auswerten | 0,21 | Fans | 1.0.4 | Farben | 2.1.1 |
| fastmap | 1.1.1 | fontawesome | 0.5.1 | Sträflinge | 1.0.0 |
| Foreach | 1.5.2 | Fremd | 0.8-82 | schmieden | 0.2.0 |
| Fs | 1.6.2 | Zukunft | 1.33.0 | future.apply | 1.11.0 |
| gurgeln | 1.5.1 | Generika | 0.1.3 | Gert | 1.9.2 |
| ggplot2 | 3.4.2 | Gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-7 | Globale Werte | 0.16.2 | Klebstoff | 1.6.2 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| Graphik | 4.3.1 | grGeräte | 4.3.1 | Raster | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0,7 | g-Tabelle | 0.3.3 |
| Schutzhelm | 1.3.0 | Hafen | 2.5.3 | Highr | 0,10 |
| HMS | 1.1.3 | HTML-Werkzeuge | 0.5.5 | htmlwidgets | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| Ausweise | 1.0.1 | ini | 0.3.1 | IPRED | 0.9-14 |
| Isobande | 0.2.7 | Iteratoren | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | Knitr | 1,43 |
| Etikettierung | 0.4.2 | später | 1.3.1 | Gitter | 0.21-8 |
| Lava | 1.7.2.1 | Lebenszyklus | 1.0.3 | „listenv“ | 0.9.0 |
| Schmiermittel | 1.9.2 | magrittr | 2.0.3 | Abschlag | 1.7 |
| MASSE | 7.3-60 | Matrix | 1.5-4.1 | Zwischenspeichern | 2.0.1 |
| Methodik | 4.3.1 | mgcv | 1.8-42 | Mime-Kunst | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-162 | NNET | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.0.6 | parallel | 4.3.1 |
| parallel dazu | 1.36.0 | Säule | 1.9.0 | pkgbuild | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| PLOGR | 0.2.0 | plyr | 1.8.8 | loben | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.4 | Prozessx | 3.8.2 |
| prodlim | 2023.03.31 | profvis | 0.3.8 | Fortschritt | 1.2.2 |
| progressr | 0.13.0 | Versprechungen | 1.2.0.1 | Prototyp | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.7.5 | schnurren | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | Ragg | 1.2.5 |
| randomForest (Zufälliger Wald) | 4.7-1.1 | Rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrauer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| READR | 2.1.4 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.3 | Rezepte | 1.0.6 |
| Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 | fernbedienungen | 2.4.2 |
| reproduzierbares Beispiel | 2.0.2 | Umform2 | 1.4.4 | rlang | 1.1.1 |
| RMarkdown | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
| RVEST | 1.0.3 | Sass | 0.4.6 | Waage | 1.2.1 |
| Auswahl | 0.4-2 | Sitzungsinformationen | 1.2.2 | Gestalt | 1.4.6 |
| glänzend | 1.7.4.1 | sourcetools | 0.1.7-1 | Sparklyr | 1.8.1 |
| SparkR | 3.5.0 | räumlich | 7.3-15 | Splines | 4.3.1 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiken | 4.3.1 |
| Statistiken4 | 4.3.1 | Stringi | 1.7.12 | stringr | 1.5.0 |
| Überleben | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
| TCLTK | 4.3.1 | testthat | 3.1.10 | Textgestaltung | 0.3.6 |
| Tibble | 3.2.1 | Räumter | 1.3.0 | aufräumen | 1.2.0 |
| aufräumen | 2.0.0 | Zeitumstellung | 0.2.0 | timeDatum | 4022.108 |
| tinytex | 0.45 | Werkzeuge | 4.3.1 | Zeitzonendatenbank (tzdb) | 0.4.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 2.2.2 | utf8 | 1.2.3 |
| Dienstprogramme und Funktionen | 4.3.1 | Universelle eindeutige Kennung (UUID) | 1.1-0 | VCTRS | 0.6.3 |
| viridisLite | 0.4.2 | Vroom | 1.6.3 | Waldo | 0.5.1 |
| Backenbart | 0.4.1 | Withr | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML-Dateiformat | 2.3.7 | schwirren | 2.3.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | aws-java-sdk-Autoskalierung | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-db | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.390 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.7.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | Kryo-schattiert | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.coffein | Koffein | 2.9.3 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | Profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-servers | 11.2.2.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tduning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | Konfiguration | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0.25 |
| io.delta | delta-sharing-spark_2.12 | 0.7.5 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.19 |
| io.dropwizard.metrics | Metrics-Kernbibliothek | 4.2.19 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.19 |
| io.dropwizard.metrics | Metrik-Gesundheitschecks | 4.2.19 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.19 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.19 |
| io.netty | nett-all | 4.1.96.Final |
| io.netty | Netty-Buffer | 4.1.96.Final |
| io.netty | Netty Codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | Netty-Codec-Socken | 4.1.96.Final |
| io.netty | Netty-common | 4.1.96.Final |
| io.netty | Netty-Handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | Netty-Resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-Klassen | 2.0.61.Final |
| io.netty | Netty-Transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | Super-CSV | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.13.33 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | Ant-Launcher | 1.9.16 |
| org.apache.arrow | Pfeilformat | 12.0.1 |
| org.apache.arrow | Pfeilspeicherkern | 12.0.1 |
| org.apache.arrow | Arrow-Memory-Netty | 12.0.1 |
| org.apache.arrow | Pfeil-Vektor | 12.0.1 |
| org.apache.avro | avro | 1.11.2 |
| org.apache.avro | avro-ipc | 1.11.2 |
| org.apache.avro | avro-mapred | 1.11.2 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.10.0 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | Kurator-Framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-silk | 2.3.9 |
| org.apache.hive | hive-llap-Client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-speicher-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | Hive-Anpassungen-Common | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Efeu | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.9.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.1-shaded-protobuf |
| org.apache.orc | Orc-Shims | 1.9.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | Benutzergruppenanmerkungen | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.3 |
| org.apache.zookeeper | Zookeeper-Jute | 3.6.3 |
| org.checkerframework | Prüferqualifikation | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Fortsetzung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Plus | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty Server | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Util | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | Jersey-Client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | Jersey-Server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | Ruhezustands-Validator | 6.1.7.Endgültig |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.aspx | mariadb-java-client | 2.7.9 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | Objenese | 2.5.1 |
| org.postgresql | postgresql | 42.6.0 |
| org.roaringbitmap | RoaringBitmap | 0.9.45 |
| org.roaringbitmap | Klemmstücke | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.threeten | 3ten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | Katzen-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-servers | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | Schlangenyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |