Databricks Runtime 10.4 LTS
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 10.4 LTS und Databricks Runtime 10.4 LTS Photon, unterstützt von Apache Spark 3.2.1. Photon ist als Public Preview verfügbar. Diese Version wurde von Databricks im März 2022 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Neue Features und Verbesserungen
- Iceberg-zu-Delta-Tabellenkonverter (Public Preview)
- Rollbacks für die automatische Komprimierung sind jetzt standardmäßig aktiviert
- Low-Shuffle-Merge ist jetzt standardmäßig aktiviert
- Tags für die Einfügereihenfolge werden jetzt beibehalten für
UPDATE
s undDELETE
s - HikariCP ist jetzt der standardmäßige Verbindungspool des Hive-Metastores
- Azure Synapse Connector ermöglicht jetzt das Festlegen der maximalen Anzahl zulässiger abgelehnter Zeilen
- Asynchrone Zustandsprüfpunkte jetzt allgemein verfügbar
- Parameterstandardwerte können jetzt für benutzerdefinierte SQL-Funktionen angegeben werden
- Neue Spark SQL-Funktionen
- Neues Arbeitsverzeichnis für Cluster mit hoher Parallelität
- Unterstützung von Identitätsspalten in Delta-Tabellen jetzt allgemein verfügbar
Iceberg-zu-Delta-Tabellenkonverter (Public Preview)
Beim Konvertieren in Delta wird jetzt die direkte Konvertierung einer Iceberg-Tabelle in eine Delta-Tabelle unterstützt. Dazu werden die nativen Iceberg-Metadaten und -Dateimanifeste verwendet. Weitere Informationen finden Sie unter Konvertieren in Delta Lake.
Rollbacks für die automatische Komprimierung sind jetzt standardmäßig aktiviert
Diese Version verbessert das Verhalten für Delta Lake-Schreibvorgänge, die bei gleichzeitigen Transaktionen für die automatische Komprimierung committet werden. Vor dieser Version wurden solche Schreibvorgänge oft abgebrochen, wenn gleichzeitig Änderungen an einer Tabelle vorgenommen wurden. Schreibvorgänge werden jetzt auch dann erfolgreich durchgeführt, wenn gleichzeitig Transaktionen für die automatische Komprimierung stattfinden.
Low-Shuffle-Merge ist jetzt standardmäßig aktiviert
Der MERGE INTO
-Befehl verwendet jetzt immer die neue Low-Shuffle-Implementierung. Dadurch wird die Leistung des MERGE INTO
-Befehls für die meisten Workloads erheblich verbessert. Die zuvor zum Aktivieren dieses Features verwendete Konfigurationseinstellung wurde entfernt. Siehe Zusammenführung mit geringem Shuffle in Azure Databricks.
Tags für die Einfügereihenfolge werden jetzt beibehalten für UPDATE
s und DELETE
s
Die Befehle UPDATE
und DELETE
behalten jetzt die vorhandenen Clusterinformationen (einschließlich der Z-Reihenfolge) für Dateien bei, die aktualisiert oder gelöscht werden. Dies ist ein Best-Effort-Ansatz und gilt nicht für Fälle, in denen Dateien so klein sind, dass sie während der Aktualisierung oder beim Löschen kombiniert werden.
HikariCP ist jetzt der standardmäßige Verbindungspool des Hive-Metastores
HikariCP bringt eine Vielzahl von Stabilitätsverbesserungen für den Zugriff auf den Hive-Metastore, während gleichzeitig weniger Verbindungen im Vergleich zur vorherigen Implementierung des BoneCP-Verbindungspools bestehen bleiben. HikariCP ist standardmäßig auf jedem Databricks Runtime-Cluster aktiviert, der den Databricks Hive-Metastore verwendet (z. B. wenn spark.sql.hive.metastore.jars
nicht festgelegt ist). Sie können auch explizit zu anderen Verbindungspoolimplementierungen wechseln, z. B. BoneCP, indem Sie spark.databricks.hive.metastore.client.pool.type
festlegen.
Azure Synapse Connector ermöglicht jetzt das Festlegen der maximalen Anzahl zulässiger abgelehnter Zeilen
Der Azure Synapse-Connector unterstützt jetzt die Datenrahmenoption maxErrors. Mit diesem Update können Sie die maximale Anzahl abgelehnter Zeilen konfigurieren, die bei Lese- und Schreibvorgängen zulässig sind, bevor der Ladevorgang abgebrochen wird. Alle abgelehnten Zeilen werden ignoriert. Wenn z. B. zwei von zehn Datensätzen Fehler aufweisen, werden nur acht Datensätze verarbeitet.
Diese Option ist direkt mit der Option REJECT_VALUE
für die CREATE EXTERNAL TABLE
-Anweisung in PolyBase und der Option MAXERRORS
für den COPY
-Befehl des Azure Synapse-Connectors verknüpft.
Standardmäßig ist der maxErrors
-Wert auf 0
festgelegt: Es wird erwartet, dass alle Datensätze gültig sind.
Asynchrone Zustandsprüfpunkte jetzt allgemein verfügbar
Sie können die asynchrone Zustandsüberprüfung in zustandsbehafteten Streamingabfragen mit großen Statusupdates aktivieren. Dies kann die End-to-End-Latenz bei Mikrobatches verringern. Dieses Feature ist jetzt allgemein verfügbar. Weitere Informationen finden Sie unter Asynchrone Zustandsprüfpunkte für zustandsbehaftete Abfragen.
Parameterstandardwerte können jetzt für benutzerdefinierte SQL-Funktionen angegeben werden
Wenn Sie eine benutzerdefinierte SQL.Funktion (SQL-UDF) erstellen, können Sie nun Standardausdrücke für die Parameter der SQL-UDF angeben. Anschließend können Sie die SQL-UDF aufrufen, ohne Argumente für diese Parameter anzugeben. Databricks füllt die Standardwerte für diese Parameter aus. Weitere Informationen finden Sie unter CREATE FUNCTION (SQL und Python).
Neue Spark SQL-Funktionen
Die folgenden Spark SQL-Funktionen sind in diesem Release verfügbar:
- try_multiply gibt
multiplier
multipliziert durchmultiplicand
oderNULL
bei einem Überlauf zurück. - try_subtract gibt
expr1
minusexpr2
oderNULL
bei einem Überlauf zurück.
Neues Arbeitsverzeichnis für Cluster mit hoher Parallelität
Auf Clustern mit hoher Parallelität, bei denen entweder die Zugriffssteuerung für Tabellen oder der Passthrough für Anmeldeinformationen aktiviert ist, entspricht das aktuelle Arbeitsverzeichnis der Notebooks jetzt dem Basisverzeichnis des Benutzers. Zuvor war das Arbeitsverzeichnis /databricks/driver
.
Unterstützung von Identitätsspalten in Delta-Tabellen jetzt allgemein verfügbar
Delta Lake unterstützt jetzt Identitätsspalten. Wenn Sie in eine Delta-Tabelle schreiben, die eine Identitätsspalte definiert, und Sie keine Werte für diese Spalte bereitstellen, weist Delta jetzt automatisch einen eindeutigen und statistisch zu- oder abnehmenden Wert zu. Weitere Informationen finden Sie unter CREATE TABLE [USING].
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- filelock von 3.4.2 auf 3.6.0
- Aktualisierte R-Bibliotheken:
- brew von 1.0-6 auf 1.0-7
- broom von 0.7.11 auf 0.7.12
- cli von 3.1.0 auf 3.2.0
- clipr von 0.7.1 auf 0.8.0
- colorspace von 2.0-2 auf 2.0-3
- crayon von 1.4.2 auf 1.5.0
- dplyr von 1.0.7 auf 1.0.8
- dtplyr von 1.2.0 auf 1.2.1
- evaluate von 0.14 auf 0.15
- foreach von 1.5.1 auf 1.5.2
- future von 1.23.0 auf 1.24.0
- generics von 0.1.1 auf 0.1.2
- glue von 1.6.0 auf 1.6.1
- gower von 0.2.2 auf 1.0.0
- iterators von 1.0.13 auf 1.0.14
- jsonlite von 1.7.3 auf 1.8.0
- magrittr von 2.0.1 auf 2.0.2
- mgcv von 1.8-38 auf 1.8-39
- pillar von 1.6.4 auf 1.7.0
- randomForest von 4.6-14 auf 4.7-1
- readr von 2.1.1 auf 2.1.2
- recipes von 0.1.17 auf 0.2.0
- rlang von 0.4.12 auf 1.0.1
- rpart von 4.1-15 auf 4.1.16
- RSQLite von 2.2.9 auf 2.2.10
- sparklyr von 1.7.4 auf 1.7.5
- testthat von 3.1.1 auf 3.1.2
- tidyr von 1.1.4 auf 1.2.0
- tidyselect von 1.1.1 auf 1.1.2
- tinytex von 0.36 auf 0.37
- yaml von 2.2.1 auf 2.3.5
- Aktualisierte Java-Bibliotheken:
- io.delta.delta-sharing-spark_2.12 von 0.3.0 auf 0.4.0
Apache Spark
Databricks Runtime 10.4 LTS enthält Apache Spark 3.2.1. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 10.3 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-38322] [SQL] In der Supportabfragephase werden Laufzeitstatistiken im formatierten Explain-Modus angezeigt
- [SPARK-38162] [SQL] Einen Zeilenplan im normalen und AQE-Optimierer optimieren
- [SPARK-38229] [SQL] Es sollte nicht temp/external/ifNotExists mit visitReplaceTable überprüft werden, wenn der Parser
- [SPARK-34183] [SS] DataSource V2: Erforderliche Verteilung und Bestellung bei der Ausführung von Mikrobatches
- [SPARK-37932] [SQL] Auf die Auflösung der fehlenden Attribute warten, bevor Sie DeduplicateRelations anwenden
- [SPARK-37904] [SQL] RebalancePartitions in Regeln des Optimierers verbessern
- [SPARK-38236] [SQL][3.2][3.1] Prüfen Sie, ob der Speicherort der Tabelle absolut ist, indem Sie „new Path(locationUri).isAbsolute“ beim Erstellen/Ändern einer Tabelle verwenden
- [SPARK-38035] [SQL] Docker-Tests für den integrierten JDBC-Dialekt hinzufügen
- [SPARK-38042] [SQL] Sicherstellen, dass ScalaReflection.dataTypeFor bei Arraytypen mit Aliasen funktioniert
- [SPARK-38273] [SQL] Iteratoren von
decodeUnsafeRows
sollten zugrunde liegende Eingabestreams schließen - [SPARK-38311] [SQL] DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite unter ANSI-Modus beheben
- [SPARK-38305] [CORE] Explizit prüfen, ob die Quelle in unpack() existiert, bevor FileUtil-Methoden aufgerufen werden
- [SPARK-38275] [SS] Speicherauslastung von writeBatch in die Gesamtspeicherauslastung des RocksDB-Zustandspeichers einbeziehen
- [SPARK-38132] [SQL] Regel
NotPropagation
entfernen - [SPARK-38286] [SQL] maxRows und maxRowsPerPartition von Union können überlaufen
- [SPARK-38306] [SQL] ExplainSuite,StatisticsCollectionSuite und StringFunctionsSuite unter ANSI-Modus beheben
- [SPARK-38281] [SQL][Tests] AnalysisSuite unter ANSI-Modus beheben
- [SPARK-38307] [SQL][Tests] ExpressionTypeCheckingSuite und CollectionExpressionsSuite unter ANSI-Modus beheben
- [SPARK-38300] [SQL]
ByteStreams.toByteArray
verwenden, umfileToString
undresourceToBytes
in catalyst.util zu vereinfachen - [SPARK-38304] [SQL] Elt() sollte NULL zurückgeben, wenn der Index unter dem ANSI-Modus NULL ist
- [SPARK-38271] PoissonSampler kann mehr Zeilen ausgeben als MaxRows
- [SPARK-38297] [PYTHON] Rückgabewert bei DataFrame.to_numpy in POS explizit umwandeln
- [SPARK-38295] [SQL][Tests] ArithmeticExpressionSuite unter ANSI-Modus beheben
- [SPARK-38290] [SQL] JsonSuite und ParquetIOSuite unter ANSI-Modus beheben
- [SPARK-38299] [SQL] Veraltete Verwendung von
StringBuilder.newBuilder
bereinigen - [SPARK-38060] [SQL] allowNonNumericNumbers beim Analysieren von NaN- und Infinity-Werten in Anführungszeichen im JSON-Leser respektieren
- [SPARK-38276] [SQL] Genehmigte TPCDS-Pläne unter ANSI-Modus hinzufügen
- [SPARK-38206] [SS] Ignorieren der NULL-Zulässigkeit beim Vergleich des Datentyps von Joinschlüsseln beim Stream-Stream-Join
- [SPARK-37290] [SQL] - Exponentielle Planungszeit im Falle einer nicht deterministischen Funktion
- [SPARK-38232] [SQL] Erläuterung: Werte mit Formatierung sammeln keine Unterabfragen unter der Abfragephase in AQE
- [SPARK-38283] [SQL] Ungültige datetime-Analyse unter ANSI-Modus testen
- [SPARK-38140] [SQL] Statistiken der Spalte „Desc“ (min, max) für den Zeitstempeltyp stimmen aufgrund der Zeitzonendifferenz nicht mit den Werten überein
- [SPARK-38227] [SQL][SS] Strenge NULL-Zulässigkeit von geschachtelten Spalten im Zeitfenster/Sitzungsfenster anwenden
- [SPARK-38221] [SQL] Vorzeitige Iteration über groupingExpressions beim Verschieben komplexer gruppierender Ausdrücke aus einem Aggregatknoten
- [SPARK-38216] [SQL] Frühzeitiger Fehler, wenn beim Erstellen einer Hive-Tabelle alle Spalten partitionierte Spalten sind
- [SPARK-38214] [SS] Keine Notwendigkeit zum Filtern von Fenstern, wenn windowDuration ein Vielfaches von slideDuration ist
- [SPARK-38182] [SQL] NoSuchElementException beheben, wenn der gepushte Filter keine Verweise enthält
- [SPARK-38159] [SQL] Neue FileSourceMetadataAttribute-Instanz für die ausgeblendeten Dateimetadaten hinzufügen
- [SPARK-38123] [SQL] Einheitliche Verwendung von
DataType
alstargetType
vonQueryExecutionErrors#castingCauseOverflowError
- [SPARK-38118] [SQL] „Func(falscher Datentyp)“ in HAVING-Klausel sollte einen Datenkonfliktfehler auslösen
- [SPARK-35173] [SQL][PYTHON] Unterstützung für mehrere Spalten hinzufügen
- [SPARK-38177] [SQL] Falsches transformExpressions im Optimierer beheben
- [SPARK-38228] [SQL] Legacyspeicherzuweisung sollte unter ANSI-Modus keinen Fehler aufweisen
- [SPARK-38173] [SQL] In Anführungszeichen gesetzte Spalte kann nicht ordnungsgemäß erkannt werden, wenn quotedRegexColumnNa…
- [SPARK-38130] [SQL] Prüfung von bestellbaren array_sort-Einträgen entfernen
- [SPARK-38199] [SQL] Nicht verwendete
dataType
-Instanz löschen, die in der Definition vonIntervalColumnAccessor
angegeben ist - [SPARK-38203] [SQL] SQLInsertTestSuite und SchemaPruningSuite unter ANSI-Modus beheben
- [SPARK-38163] [SQL] Fehlerklasse von
SparkThrowable
beim Erstellen des Funktions-Generators beibehalten - [SPARK-38157] [SQL] ANSI in „test timestampNTZ/timestamp.sql“ und „SQLQueryTestSuite“ explizit auf „false“ festlegen, um die erwarteten goldenen Ergebnisse zu erzielen
- [SPARK-38069] [SQL][SS] Berechnung des Zeitfensters verbessern
- [SPARK-38164] [SQL] Neue SQL-Funktionen: try_subtract und try_multiply
- [SPARK-38176] [SQL] ANSI-Modus: implizites Umwandeln von String in andere einfache Typen zulassen
- [SPARK-37498] [PYTHON] test_reuse_worker_of_parallelize_range schließlich hinzufügen
- [SPARK-38198] [SQL][3.2] QueryExecution.debug#toFile beheben, das die übergebenen maxFields verwendet, wenn explainMode entsprechend CodegenMode ist
- [SPARK-38131] [SQL] Fehlerklassen nur in benutzerseitigen Ausnahmen verwenden
- [SPARK-37652] [SQL] Test für die Optimierung von verzerrtem Join durch Union hinzufügen
- [SPARK-37585] [SQL] InputMetric in DataSourceRDD mit TaskCompletionListener aktualisieren
- [SPARK-38113] [SQL] Fehlerklassen in den Ausführungsfehlern der Pivotierung verwenden
- [SPARK-38178] [SS] Logik zur Messung der Speicherauslastung von RocksDB korrigieren
- [SPARK-37969] [SQL] HiveFileFormat sollte Feldnamen prüfen
- [SPARK-37652] „[SQL] Test für die Optimierung von verzerrtem Join durch Union hinzufügen“ wiederherstellen
- [SPARK-38124] [SQL][SS] StatefulOpClusteredDistribution einführen und auf Stream-Stream-Join anwenden
- [SPARK-38030] [SQL] Kanonisierung sollte NULL-Zulässigkeit von AttributeReference dataType nicht entfernen
- [SPARK-37907] [SQL] InvokeLike unterstützt ConstantFolding
- [SPARK-37891] [CORE] Prüfung von scalastyle zum Deaktivieren von scala.concurrent.ExecutionContext.Implicits.global hinzufügen
- [SPARK-38150] [SQL] Kommentar von RelationConversions aktualisieren
- [SPARK-37943] [SQL] Fehlerklassen in den Kompilierungsfehlern der Gruppierung verwenden
- [SPARK-37652] [SQL] Test für die Optimierung von verzerrtem Join durch Union hinzufügen
- [SPARK-38056] [Web UI][3.2] Problem beheben, dass Structured Streaming auf dem Verlaufsserver nicht funktioniert, wenn LevelDB verwendet wird
- [SPARK-38144] [CORE] Nicht verwendete
spark.storage.safetyFraction
-Konfiguration entfernen - [SPARK-38120] [SQL] HiveExternalCatalog.listPartitions beheben, wenn Partitionsspaltenname groß geschrieben ist und der Partitionswert einen Punkt enthält
- [SPARK-38122] [Docs] App-Schlüssel von DocSearch aktualisieren
- [SPARK-37479] [SQL] Migrieren von DROP NAMESPACE für standardmäßige Verwendung des V2-Befehls
- [SPARK-35703] [SQL] Einschränkung für Bucket-Join lockern und HashClusteredDistribution entfernen
- [SPARK-37983] [SQL] Agg-Metriken zur Erstellungszeit aus dem Sortieraggregat zurückziehen
- [SPARK-37915] [SQL] Union-Instanzen kombinieren, wenn es ein Projekt zwischen ihnen gibt
- [SPARK-38105] [SQL] Fehlerklassen beim Analysieren von Fehlern bei Joins verwenden
- [SPARK-38073] [PYTHON] atexit-Funktion aktualisieren, um Probleme mit später Bindung zu vermeiden
- [SPARK-37941] [SQL] Fehlerklassen in den Kompilierungsfehlern der Umwandlung verwenden
- [SPARK-37937] [SQL] Fehlerklassen beim Analysieren von Fehlern bei seitlichem Join verwenden
- [SPARK-38100] [SQL] Nicht verwendete private Methode in
Decimal
entfernen - [SPARK-37987] [SS] Unzuverlässiges StreamingAggregationSuite.changing-Testschema von Zustand beim Neustart der Abfrage beheben
- [SPARK-38003] [SQL] LookupFunctions-Regel sollte nur Funktionen aus der Registrierung von Skalarfunktionen suchen
- [SPARK-38075] [SQL]
hasNext
in Prozessausgabeiterator vonHiveScriptTransformationExec
beheben - [SPARK-37965] [SQL] Prüffeldname beim Lesen/Schreiben vorhandener Daten in Orc entfernen
- [SPARK-37922] [SQL] Zu einer Umwandlung kombinieren, wenn wir sicher zwei Umwandlungen nach oben übertragen können (für dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] Überschreiben von zusammengeführten Push-Shuffle-Dateien verhindern, sobald das Mischen abgeschlossen ist
- [SPARK-38011] [SQL] Doppelte und unnötige Konfiguration in ParquetFileFormat entfernen
- [SPARK-37929] [SQL] Überlappungsmodus für
dropNamespace
-API unterstützen - [SPARK-37931] [SQL] Bei Bedarf den Spaltennamen in Anführungszeichen setzen
- [SPARK-37990] [SQL] TimestampNTZ in RowToColumnConverter unterstützen
- [SPARK-38001] [SQL] Fehlerklassen im Zusammenhang mit nicht unterstützten Features durch
UNSUPPORTED_FEATURE
ersetzen - [SPARK-37839] [SQL] DS V2 unterstützt partiellen Aggregatpushdown von
AVG
- [SPARK-37878] [SQL] SHOW CREATE TABLE zur standardmäßigen Verwendung des v2-Befehls migrieren
- [SPARK-37731] [SQL] Funktionssuche in Analysetool umgestalten und bereinigen
- [SPARK-37979] [SQL] Wechsel zu allgemeineren Fehlerklassen in AES-Funktionen
- [SPARK-37867] [SQL] Aggregatfunktionen des integrierten JDBC-Dialekts kompilieren
- [SPARK-38028] [SQL] Pfeilvektor von ArrowColumnVector verfügbar machen
- [SPARK-30062] [SQL] IMMEDIATE-Anweisung zur Implementierung von „DB2 dialect truncate“ hinzufügen
- [SPARK-36649] [SQL]
Trigger.AvailableNow
in Kafka-Datenquelle unterstützen - [SPARK-38018] [SQL] ColumnVectorUtils.populate beheben, um CalendarIntervalType ordnungsgemäß zu verarbeiten
- [SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemoved
sollteExecutorDecommission
als abgeschlossen behandeln - [SPARK-38019] [CORE]
ExecutorMonitor.timedOutExecutors
als deterministisch festlegen - [SPARK-37957] [SQL] Deterministisches Flag für V2-Skalarfunktionen ordnungsgemäß übergeben
- [SPARK-37985] [SQL] Unzuverlässigen Test für SPARK-37578 beheben
- [SPARK-37986] [SQL] TimestampNTZ in Basissortierung unterstützen
- [SPARK-37967] [SQL] Literal.create-Unterstützung für ObjectType
- [SPARK-37827] [SQL] Einige integrierte Tabelleneigenschaften in V1Table.propertie einfügen, um sie an den V2-Befehl anzupassen
- [SPARK-37963] [SQL] URI der Partition muss nach Umbenennung der Tabelle in InMemoryCatalog aktualisiert werden
- [SPARK-35442] [SQL] Weitergabe einer leeren Beziehung durch Aggregat/Union unterstützen
- [SPARK-37933] [SQL] Durchlaufmethode von V2ScanRelationPushDown-Pushdownregeln ändern
- [SPARK-37917] [SQL] Pushdowngrenzwert 1 für rechte Seite von linkem SEMI-/ANTI-Join, wenn die Joinbedingung leer ist
- [SPARK-37959] [ML] UT zur Überprüfung der Norm in KMeans und BiKMeans beheben
- [SPARK-37906] [SQL] spark-sql sollte den letzten Kommentar nicht an Back-End weitergeben
- [SPARK-37627] [SQL] Sortierte Spalte in BucketTransform hinzufügen
Wartungsupdates
Weitere Informationen finden Sie unter Wartungsupdates von Databricks Runtime 10.4 LTS.
Systemumgebung
- Betriebssystem: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.2
- Delta Lake: 1.1.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
async-generator | 1.10 | attrs | 20.3.0 | backcall | 0.2.0 |
bidict | 0.21.4 | bleach | 3.3.0 | boto3 | 1.16.7 |
botocore | 1.19.7 | certifi | 2020.12.5 | cffi | 1.14.5 |
chardet | 4.0.0 | cycler | 0.10.0 | Cython | 0.29.23 |
dbus-python | 1.2.16 | decorator | 5.0.6 | defusedxml | 0.7.1 |
distlib | 0.3.4 | distro-info | 0.23ubuntu1 | entrypoints | 0,3 |
facets-overview | 1.0.0 | filelock | 3.6.0 | idna | 2.10 |
ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.6.3 | jedi | 0.17.2 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
jupyter-client | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 | koalas | 1.8.2 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | mistune | 0.8.4 |
nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
nest-asyncio | 1.5.1 | Notebook | 6.3.0 | numpy | 1.20.1 |
Packen | 20.9 | Pandas | 1.2.4 | pandocfilters | 1.4.3 |
parso | 0.7.0 | patsy | 0.5.1 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 8.2.0 | pip | 21.0.1 |
plotly | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
pyarrow | 4.0.0 | pycparser | 2,20 | Pygments | 2.8.1 |
PyGObject | 3.36.0 | pyparsing | 2.4.7 | pyrsistent | 0.17.3 |
python-apt | 2.0.0+ubuntu0.20.4.7 | Python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
requests | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | seaborn | 0.11.1 |
Send2Trash | 1.5.0 | setuptools | 52.0.0 | sechs | 1.15.0 |
ssh-import-id | 5.10 | statsmodels | 0.12.2 | tenacity | 8.0.1 |
terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
tornado | 6.1 | traitlets | 5.0.5 | unattended-upgrades | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme am 24.02.2022 installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
base | 4.1.2 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | Blob | 1.2.2 | boot | 1.3-28 |
brew | 1.0-7 | brio | 1.1.3 | broom | 0.7.12 |
bslib | 0.3.1 | cachem | 1.0.6 | callr | 3.7.0 |
caret | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
class | 7.3-20 | cli | 3.2.0 | clipr | 0.8.0 |
cluster | 2.1.2 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.7 | compiler | 4.1.2 | config | 0.3.1 |
cpp11 | 0.4.2 | crayon | 1.5.0 | Anmeldeinformationen | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.2 |
DBI | 1.1.2 | dbplyr | 2.1.1 | desc | 1.4.0 |
devtools | 2.4.3 | diffobj | 0.3.5 | digest | 0.6.29 |
dplyr | 1.0.8 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
ellipsis | 0.3.2 | Evaluieren | 0,15 | fansi | 1.0.2 |
farver | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.24.0 |
future.apply | 1.8.1 | gargle | 1.2.0 | generics | 0.1.2 |
gert | 1.5.0 | ggplot2 | 3.3.5 | gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-3 | globals | 0.14.0 |
glue | 1.6.1 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
gower | 1.0.0 | Grafiken | 4.1.2 | grDevices | 4.1.2 |
grid | 4.1.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.0 | hardhat | 0.2.0 | haven | 2.4.3 |
highr | 0.9 | hms | 1.1.1 | htmltools | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.2 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ids | 1.0.1 |
ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
iterators | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
KernSmooth | 2.23-20 | knitr | 1.37 | labeling | 0.4.2 |
later | 1.3.0 | lattice | 0.20-45 | lava | 1.6.10 |
Lebenszyklus | 1.0.1 | listenv | 0.8.0 | lubridate | 1.8.0 |
magrittr | 2.0.2 | markdown | 1.1 | MASS | 7.3-55 |
Matrix | 1.4-0 | memoise | 2.0.1 | methods | 4.1.2 |
mgcv | 1.8-39 | mime | 0,12 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-155 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 1.4.6 |
parallel | 4.1.2 | parallelly | 1.30.0 | pillar | 1.7.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgload | 1.2.4 |
plogr | 0.2.0 | plyr | 1.8.6 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
prodlim | 2019.11.13 | Fortschritt | 1.2.2 | progressr | 0.10.0 |
promises | 1.2.0.1 | proto | 1.0.0 | proxy | 0.4-26 |
ps | 1.6.0 | purrr | 0.3.4 | r2d3 | 0.2.5 |
R6 | 2.5.1 | randomForest | 4.7-1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-2 | Rcpp | 1.0.8 |
RcppEigen | 0.3.3.9.1 | readr | 2.1.2 | readxl | 1.3.1 |
recipes | 0.2.0 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.1 | rmarkdown | 2.11 | RODBC | 1.3-19 |
roxygen2 | 7.1.2 | rpart | 4.1.16 | rprojroot | 2.0.2 |
Rserve | 1.8-10 | RSQLite | 2.2.10 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | sass | 0.4.0 |
scales | 1.1.1 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
shape | 1.4.6 | shiny | 1.7.1 | sourcetools | 0.1.7 |
sparklyr | 1.7.5 | SparkR | 3.2.0 | spatial | 7.3-11 |
splines | 4.1.2 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
stats | 4.1.2 | stats4 | 4.1.2 | stringi | 1.7.6 |
stringr | 1.4.0 | survival | 3.2-13 | sys | 3.4 |
tcltk | 4.1.2 | TeachingDemos | 2,10 | testthat | 3.1.2 |
tibble | 3.1.6 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0.37 |
tools | 4.1.2 | tzdb | 0.2.0 | usethis | 2.1.5 |
utf8 | 1.2.2 | utils | 4.1.2 | uuid | 1.0-3 |
vctrs | 0.3.8 | viridisLite | 0.4.0 | vroom | 1.5.7 |
waldo | 0.3.1 | whisker | 0,4 | withr | 2.4.3 |
xfun | 0,29 | xml2 | 1.3.3 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.3.5 | zip | 2.2.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.12.3 |
com.fasterxml.jackson.core | jackson-core | 2.12.3 |
com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.4.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.68.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.10 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 2.0.0 |
org.apache.arrow | arrow-memory-core | 2.0.0 |
org.apache.arrow | arrow-memory-netty | 2.0.0 |
org.apache.arrow | arrow-vector | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.12 |
org.apache.orc | orc-mapreduce | 1.6.12 |
org.apache.orc | orc-shims | 1.6.12 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-encoding | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-continuation | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-http | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-plus | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-security | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-server | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-webapp | 9.4.43.v20210629 |
org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-api | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-client | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-common | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-server | 9.4.43.v20210629 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | shims | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |