Databricks Runtime 13.3 LTS
Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 13.3 LTS, die von Apache Spark 3.4.1 unterstützt wird.
Diese Version wurde von Databricks im August 2023 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.
Tipp
Hinweise zu Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu Databricks Runtime am Ende des Supports. Die EoS-Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.
Neue Features und Verbesserungen
- Scala-Unterstützung für freigegebene Cluster
- Die Zulassungsliste für Initialisierungsskripts, JARs und Maven-Koordinaten in freigegebenen Unity Catalog-Clustern befindet sich in Public Preview
- Volumes unterstützen Initialisierungsskripts und JARs in Public Preview
- Sichere Umwandlungen sind für Delta Lake-Vorgänge standardmäßig aktiviert
- Einführung von Tags mit Unity Catalog
- Databricks Runtime gibt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und -aufrufung geändert wird
- Überschreiben des Blockschemas bei Verwendung von dynamischen Partitionsüberschreibungen
- Integrieren der copyFile-API in dbutils.fs.cp
- Databricks ODBC/JDBC-Treiberunterstützung
- Unterstützung für nicht benannte (positionale) Parametermarker
- Aktivieren der Bezeichnung von Zeitreihenspalten
- Neue Bitmap SQL-Funktionen
- Verbesserte Verschlüsselungsfunktionen
- Unity Catalog-Unterstützung für REFRESH FOREIGN
- INSERT BY NAME
- Freigeben materialisierter Ansichten mit Delta Sharing
Scala-Unterstützung für freigegebene Cluster
Freigegebene Cluster mit Unity Catalog-Unterstützung unterstützen jetzt Scala, wenn Databricks Runtime 13.3 und höher verwendet wird.
Die Zulassungsliste für Initialisierungsskripts, JARs und Maven-Koordinaten in freigegebenen Unity Catalog-Clustern befindet sich in Public Preview
Sie können jetzt den Unity-Katalog allowlist
verwenden, um die Installation von Initialisierungsskripts, JARs und Maven-Koordinaten auf Compute mit freigegebenem Zugriffsmodus unter Ausführung von Databricks Runtime 13.3 und höher zu steuern. Weitere Informationen finden Sie unter Positivliste von Bibliotheken und Initialisierungsskripts auf freigegebenem Compute.
Volumes unterstützen Initialisierungsskripts und JARs in Public Preview
Sie können jetzt Unity Catalog-Volumes verwenden, um Initialisierungsskripts und JARs auf Compute mit zugewiesenen oder freigegebenen Zugriffsmodi unter Ausführung von Databricks Runtime 13.3 und höher zu speichern. Siehe Wo können Initialisierungsskripts installiert? und Bibliotheken im Clusterumfang.
Sichere Umwandlungen sind für Delta Lake-Vorgänge standardmäßig aktiviert
Delta-UPDATE
- und MERGE
-Vorgänge führen jetzt zu einem Fehler, wenn Werte nicht sicher in den Typ im Schema der Zieltabelle umgewandelt werden können. Alle impliziten Umwandlungen in Delta folgen jetzt spark.sql.storeAssignmentPolicy
statt spark.sql.ansi.enabled
. Weitere Informationen finden Sie unter ANSI-Konformität in Databricks Runtime.
Einführung von Tags mit Unity Catalog
Mit Databricks Runtime 13.3 LTS und höher können Sie Tags auf Ihre sicherungsfähigen Objekte anwenden. Tags helfen Ihnen dabei, sicherungsfähige Objekte zu organisieren und die Suche und Ermittlung Ihrer Datenressourcen zu vereinfachen. Weitere Informationen finden Sie unter Anwenden von Tags auf sicherungsfähige Unity Catalog-Objekte.
Databricks Runtime gibt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und -aufrufung geändert wird
Databricks Runtime-Abfragen geben jetzt einen Fehler zurück, wenn eine Datei zwischen Abfrageplanung und Aufruf aktualisiert wird. Vor dieser Änderung las Databricks Runtime eine Datei zwischen diesen Phasen, was gelegentlich zu unvorhersehbaren Ergebnissen führte.
Überschreiben des Blockschemas bei Verwendung von dynamischen Partitionsüberschreibungen
Sie können overwriteSchema
in Kombination mit dynamischen Partitionsüberschreibungen in Delta Lake nicht auf true
festlegen. Dadurch wird eine mögliche Tabellenbeschädigung aufgrund von Schemakonflikten verhindert. Weitere Informationen finden Sie unter dynamische Partitionsüberschreibungen.
Integrieren der copyFile-API in dbutils.fs.cp
Der Befehl dbutils copy, dbutils.fs.cp
, ist jetzt für schnelleres Kopieren optimiert. Mit dieser Verbesserung können Kopiervorgänge je nach Dateigröße bis zu 100-mal schneller sein. Das Feature ist für alle Dateisysteme verfügbar, auf die in Azure Databricks zugegriffen werden kann, einschließlich für Unity-Katalogvolumes und Databricks-Dateisystembereitstellungen.
Databricks ODBC/JDBC-Treiberunterstützung
Azure Databricks unterstützt ODBC- und JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie den neuesten Treiber unter ODBC-Treiber herunterladen und JDBC-Treiber herunterladen herunter.
Unterstützung für nicht benannte (positionale) Parametermarker
Die SparkSession.sql()
-API unterstützt jetzt parametrisierte Abfragen mithilfe der ?
-Syntax zusätzlich zu parametrisierten Abfragen mithilfe der :parm
-Syntax. Weitere Informationen finden Sie unter Parametermarker.
Aktivieren der Bezeichnung von Zeitreihenspalten
Sie können jetzt Zeitreihenspalten bezeichnen, wenn Sie Primärschlüsseleinschränkungen erstellen.
Neue Bitmap SQL-Funktionen
Azure Databricks hat jetzt eine Reihe von Funktionen bereitgestellt, mit denen integrale numerische Werte einer Bitmap zugeordnet und aggregiert werden können. Dies kann verwendet werden, um die Anzahl unterschiedlicher Werte vorab zu berechnen.
Verbesserte Verschlüsselungsfunktionen
Die Funktionen aes_encrypt, aes_decrypt und try_aes_decrypt wurden mit Unterstützung für Initialisierungsvektoren (IV) und authentifizierte zusätzliche Daten (AAD) verbessert.
Unity Catalog-Unterstützung für REFRESH FOREIGN
Sie können jetzt fremde Kataloge, Schemas und Tabellen in Unity Catalog mithilfe von REFRESH FOREIGN CATALOG
, REFRESH FOREIGN SCHEMA
und REFRESH FOREIGN TABLE
aktualisieren. Weitere Informationen finden Sie unter REFRESH FOREIGN (CATALOG, SCHEMA und TABLE)
INSERT BY NAME
Beim Einfügen von Zeilen in eine Tabelle können Sie jetzt zulassen, dass Azure Databricks Spalten und Felder in der Quellabfrage automatisch den Spalten der Tabelle nach ihrem Namen zuordnet. Siehe INSERT INTO.
Freigeben materialisierter Ansichten mit Delta Sharing
Die ALTER SHARE-Anweisung unterstützt jetzt materialisierte Sichten.
Aktuelle Änderungen
Änderungen an impliziten Umwandlungen beim Speichern von Zeilen in einer Tabelle mit MERGE INTO und UPDATE
Azure Databricks folgt nun der Konfiguration „spark.sql.storeAssignmentPolicy
“ für die implizite Umwandlung beim Speichern von Zeilen in einer Tabelle. Der Standardwert „ANSI
“ löst einen Fehler aus, wenn Werte gespeichert werden, die überlaufen. Zuvor wurden Werte standardmäßig als NULL
gespeichert.
Wie im folgenden Beispiel können Sie Überläufe beheben, indem Sie die Tabelle umschreiben, um einen breiteren Typ für die Spalte zu verwenden, die den Fehler verursacht.
-- Enable column mapping
ALTER TABLE MyTable SET TBLPROPERTIES (
'delta.minReaderVersion' = '2',
'delta.minWriterVersion' = '5',
'delta.columnMapping.mode' = 'name'
)
-- Rename the old column and create a new column with the new type using the old name
ALTER TABLE MyTable RENAME ID to ID_old
ALTER TABLE MyTable ADD COLUMN ID BIGINT
-- Rewrite the entire table
UPDATE MyTable SET ID = ID_old
-- Drop the old column
ALTER TABLE MyTable DROP COLUMN ID_old
Parquet Schema Rückschlussänderungen
Beim Ableiten von Schemas aus Parquet-Dateien, die nicht von Spark geschrieben wurden, werden int64
Zeitstempelspalten, die mit isAdjustedToUTC=false
Anmerkungen versehen sind, jetzt standardmäßig als TIMESTAMP_NTZ
Typ festgelegt. Bisher wurden diese als TIMESTAMP
Typ abgeleitet. Dieses Update verbessert die Genauigkeit der Zuordnung von Parquet-Typen zu Spark SQL-Typen.
Daher kann das Lesen von Daten aus externen Parquet-Dateien in eine Delta-Tabelle zu einem Fehler führen, wenn das timestampNtz
Feature nicht aktiviert ist. Der Fehler wird wie folgt angezeigt:
Fatal exception of the update:
com.databricks.sql.transaction.tahoe.DeltaTableFeatureException
Your table schema requires manual enablement of the following table feature(s): timestampNtz.
Um das vorherige Verhalten beizubehalten und diesen Fehler zu verhindern, können Sie den Spark-Konfigurationsparameter von spark.sql.parquet.inferTimestampNTZ.enabled
auf false
setzen.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- debugpy von 1.5.1 auf 1.6.0
- distlib von 0.3.6 auf 0.3.7
- fastjsonschema von 2.16.3 auf 2.18.0
- filelock von 3.12.0 auf 3.12.2
- Aktualisierte R-Bibliotheken:
- SparkR von 3.4.0 auf 3.4.1
- Aktualisierte Java-Bibliotheken:
- org.apache.orc.orc-core von 1.8.3-shaded-protobuf auf 1.8.4-shaded-protobuf
- org.apache.orc.orc-mapreduce von 1.8.3-shaded-protobuf auf 1.8.4-shaded-protobuf
- org.apache.orc.orc-shims von 1.8.3 auf 1.8.4
- org.eclipse.jetty.jetty-client von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-continuation von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-http von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-io von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-jndi von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-plus von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-proxy von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-security von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-server von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlet von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-servlets von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-util von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-util-ajax von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-webapp von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.jetty-xml von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-api von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-client von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-common von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-server von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.eclipse.jetty.websocket.websocket-servlet von 9.4.50.v20221201 auf 9.4.51.v20230217
- org.xerial.snappy.snappy-java von 1.1.8.4 auf 1.1.10.1
Apache Spark
Databricks Runtime 13.3 enthält Apache Spark 3.4.1. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 13.2 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen, die an Spark vorgenommen wurden:
- Sie können jetzt die Clusterumgebungsvariable
SNOWFLAKE_SPARK_CONNECTOR_VERSION=2.12
festlegen, um Spark-snowflake-Connector v2.12.0 zu verwenden. - [SPARK-43380] [DBRRM-383] Wiederherstellen von „[SC-133100][SQL] Fix der Avro-Datentypkonver…
- [SPARK-44504] [Backport][13.2][13.x][13.3] Entladen des Anbieters, wodurch die DB-Instanz zum Schließen und Freigeben von Ressourcen bei Wartungsaufgabenfehler gezwungen wird
- [SPARK-44059] [SC-137023] Hinzufügen der Analyseunterstützung benannter Argumente für integrierte Funktionen
- [SPARK-44485] [SC-137653][SQL] Optimieren von TreeNode.generateTreeString
- [SPARK-42944] [SC-137164][SS][PYTHON] Streaming von ForeachBatch in Python
- [SPARK-44446] [SC-136994][PYTHON] Hinzufügen von Überprüfungen für erwartete Listentyp-Sonderfälle
- [SPARK-44439] [SC-136973][CONNECT][SS] Fix von listListeners, sodass nur IDs an den Client zurückgesendet werden
- [SPARK-44216] [SC-136941] [PYTHON] AssertSchemaEqual-API öffentlich machen
- [SPARK-44201] [SC-136778][CONNECT][SS] Hinzufügen der Unterstützung für Streaminglistener in Scala für Spark Connect
- [SPARK-43915] [SC-134766][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43798] Wiederherstellen von „[SC-133990][SQL][PYTHON] Unterstützung benutzerdefinierter Tabellenfunktionen in Python“
- [SPARK-44398] [SC-136720][CONNECT] Scala foreachBatch-API
- [SPARK-44476] [SC-137169][CORE][CONNECT] Korrigieren der Population von Artefakten für einen JobArtifactState ohne zugehörige Artefakte
- [SPARK-44269] [SC-135817][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2310-2314]
- [SPARK-44395] [SC-136744][SQL] Aktualisieren von TVF-Argumenten, sodass Klammern um den Bezeichner nach TABLE-Schlüsselwort erforderlich sind
- [SPARK-43915] [SC-134766][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43995] [SC-136794][SPARK-43996][CONNECT] Hinzufügen der Unterstützung für UDFRegistration zum Connect Scala Client
- [SPARK-44109] [SC-134755][CORE] Entfernen doppelter bevorzugter Speicherorte jeder RDD-Partition
- [SPARK-44169] [SC-135497][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-41487] [SC-135636][SQL] Name für _LEGACY_ERROR_TEMP_1020 zuweisen
- [SPARK-44398] [SC-136720][CONNECT] Scala foreachBatch-API
- [SPARK-44153] [SC-134977][CORE][UI] Unterstützung der Spalte
Heap Histogram
auf der RegisterkarteExecutors
- [SPARK-44044] [SC-135695][SS] Verbessern der Fehlermeldung für Fensterfunktionen mit Streaming
- [SPARK-43914] [SC-135414][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2433-2437]
- [SPARK-44217] [SC-136805][PYTHON] Zulassen der benutzerdefinierten Genauigkeit für fp approx.-Gleichheit
- [SPARK-44370] [SC-136575][CONNECT] Migrieren von Alpha der Buf-Remotegeneration zu Remote-Plug-Ins
- [SPARK-44410] [SC-136930][PYTHON][CONNECT] Aktive Sitzung in create festlegen, nicht nur getOrCreate
- [SPARK-44348] [SAS-1910][SC-136644][13.X][CORE][CONNECT][PYTHON] test_artifact mit relevanten Änderungen wieder herstellen
- [SPARK-44145] [SC-136698][SQL] Rückruf, wenn für Ausführung bereit
- [SPARK-44264] [SC-136870][PYTHON][ML] FunctionPickler-Klasse
- [SPARK-43986] [SC-135623][SQL] Erstellen von Fehlerklassen für HyperLogLog-Funktionsaufruffehler
- [SPARK-44139] [SC-134967][SQL] Verwerfen vollständig gedrückter Filter in gruppenbasierten MERGE-Vorgängen
- [SPARK-44338] [SC-136718][SQL] Beheben der Fehlermeldung zum Anzeigen eines Schemakonflikts
- [SPARK-44208] [SC-135505][CORE][SQL] Zuweisen klarer Fehlerklassennamen für eine Logik, die Ausnahmen direkt verwendet
- [SPARK-44364] [SC-136773] [PYTHON] Hinzufügen der Unterstützung für den Datentyp List[Row] für erwartet
- [SPARK-44180] [SC-136792][SQL] DistributionAndOrderingUtils sollte ResolveTimeZone anwenden
- [SPARK-43389] [SC-136772][SQL] Hinzufügen der Null-Überprüfung für lineSep-Option
- [SPARK-44388] [SC-136695][CONNECT] Beheben des Problems mit der Protobuf-Umwandlung, wenn UDF-Instanz aktualisiert wird
- [SPARK-44352] [SC-136373][CONNECT] Zurückversetzen von sameType und friends in DataType.
- [SPARK-43975] [SC-134265][SQL] DataSource V2: Behandeln von UPDATE-Befehlen für gruppenbasierte Quellen
- [SPARK-44360] [SC-136461][SQL] Unterstützen der Schemabereinigung in deltabasierten MERGE-Vorgängen
- [SPARK-44138] [SC-134907][SQL] Verbieten von nichtdeterministischen Ausdrücken, Unterabfragen und Aggregaten in MERGE-Bedingungen
- [SPARK-43321] [SC-136678][Connect][Followup] Bessere Namen für APIs, die in Scala Client joinWith verwendet werden
- [SPARK-44263] [SC-136447][CONNECT] Unterstützung für benutzerdefinierte Interceptors
- [SPARK-39851] [SC-123383][SQL] Verbessern der Bewertung von Joinstatistiken, wenn eine Seite die Eindeutigkeit beibehalten kann
- [SPARK-44390] [SC-136677][CORE][SQL] Umbenennen von
SparkSerDerseUtils
inSparkSerDeUtils
- [SPARK-44004] [SC-134751][SQL] Zuweisen eines Namens und Verbesserung der Fehlermeldung für häufige LEGACY-Fehler.
- [SPARK-44322] [SC-136204][CONNECT] Verwenden von Parser SqlApiConf anstelle von SQLConf.
- [SPARK-44271] [SC-136347][SQL] Verschieben von Standardwertfunktionen von StructType zu ResolveDefaultColumns
- [SPARK-44332] [SC-136413][CORE][WEBUI] Beheben des Sortierfehlers der Executor-ID-Spalte auf der Benutzeroberfläche von Executors
- [SPARK-44282] [SC-135948][CONNECT] Vorbereiten der DataType-Analyse für die Verwendung in Spark Connect Scala Client
- [SPARK-44349] [SC-136581][R] Hinzufügen von mathematischen Funktionen zu SparkR
- [SPARK-44397] [SC-136647][PYTHON] AssertDataFrameEqual in pyspark.testing.utils verfügbar machen
- [SPARK-42981] [SC-136620][CONNECT] Hinzufügen der direkten Pfeilserialisierung
- [SPARK-44373] [SC-136577][SQL] Umbrechen von withActive für Dataset-API mit Parslogik, damit parserbezogene Konfiguration funktioniert
- [SPARK-44340] [SC-136574][SQL] Definieren der Computinglogik über die PartitionEvaluator-API und Verwenden in WindowGroupLimitExec
- [SPARK-43665] [SC-136573][CONNECT][PS] Aktivieren von PandasSQLStringFormatter.vformat für die Verwendung mit Spark Connect
- [SPARK-44325] [SC-136572][SQL] Verwenden der PartitionEvaluator-API in SortMergeJoinExec
- [SPARK-44315] [SC-136171][SQL][CONNECT] Verschieben von DefinedByConstructorParams zu sql/api
- [SPARK-44275] [SC-136184][CONNECT] Hinzufügen eines konfigurierbaren Wiederholungsmechanismus zu Scala Spark Connect
- [SPARK-44326] [SC-136208][SQL][CONNECT] Verschieben von Dienstprogrammen, die vom Scala-Client verwendet werden, in die gängigen Module
- [SPARK-43321] [SC-136156][Connect] Dataset#Joinwith
- [SPARK-44343] [SC-136372][CONNECT] Vorbereiten der ScalaReflection für den Wechsel zu SQL/API
- [SPARK-44313] [SC-136081][SQL] Korrektur der Überprüfung generierter Spaltenausdrücke, wenn eine char/varchar-Spalte im Schema vorhanden ist
- [SPARK-43963] [SC-134145][SQL] DataSource V2: Behandeln von MERGE-Befehlen für gruppenbasierte Quellen
- [SPARK-44363] [SC-136433] [PYTHON] Anzeigen in Prozent der ungleichen Zeilen im DataFrame-Vergleich
- [SPARK-44251] [SC-136432][SQL] Korrektes Setzen von „Nullwerte zulassend“ bei zusammengeführtem Joinschlüssel in vollständiger äußerer USING-Verknüpfung
- [SPARK-43948] [SC-133366][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[0050|0057|0058|0059]
- [SPARK-44329] [SC-136326][CONNECT][PYTHON] Hinzufügen von hll_sketch_agg, hll_union_agg, to_varchar, try_aes_decrypt zu Scala und Python
- [SPARK-44351] [SC-136353][SQL] Syntaktische Vereinfachung
- [SPARK-44281] [SC-135963][SQL] Verschieben des QueryCompilation-Fehlers, der von DataType zu sql/api als DataTypeErrors verwendet wird
- [SPARK-44283] [SC-136109][CONNECT] Verschieben des Ursprungs zu SQL/API
- [SPARK-43926] [SC-135590][CONNECT][PYTHON] Hinzufügen von array_agg, array_size, Kardinalität, count_min_sketch,mask,named_struct,json_* zu Scala und Python
- [SPARK-44327] [SC-136187][SQL][CONNECT] Hinzufügen der Funktionen
any
undlen
zu Scala - [SPARK-44290] [SC-136300][CONNECT] Sitzungsbasierte Dateien und Archive in Spark Connect
- [SPARK-44061] [SC-136299][PYTHON] Hinzufügen der AssertDataFrameEqual util-Funktion
- [SPARK-44331] [SC-136324][CONNECT][PYTHON] Hinzufügen von Bitmapfunktionen zu Scala und Python
- [SPARK-44342] [SC-136334][SQL] Ersetzen von SQLContext durch SparkSession für GenTPCDSData
- [SPARK-42583] [SC-124190][SQL] Entfernen der äußeren Verknüpfung, wenn es sich um verschiedene Aggregatfunktionen handelt
- [SPARK-44333] [SC-136206][CONNECT][SQL] Verschieben von EnhancedLogicalPlan aus ParserUtils
- [SPARK-43824] [SC-132655][SPARK-43825] [SQL] Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_128[1-2]
- [SPARK-43939] [SC-134602][CONNECT][PYTHON] Hinzufügen von try_* Funktionen zu Scala und Python
- [SPARK-44193] [SC-135886][CONNECT] Implementieren von GRPC-Ausnahmen für die Konvertierung
- [SPARK-44284] [SC-136107][CONNECT] Erstellen eines einfachen Conf-Systems für sql/api
- [SPARK-43913] [SC-133368][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2426-2432]
- [SPARK-44291] Zurücksetzen von „[SC-135924][SPARK-43416][CONNECT] Korrigieren eines falschen Schemas für die Bereichsabfrage“
- [SPARK-44312] [SC-136185][CONNECT][PYTHON] Zulassen des Festlegens eines Benutzer-Agents mit einer Umgebungsvariable
- [SPARK-44154] [SC-136060] Implementieren von Bitmapfunktionen
- [SPARK-43885] [SC-133996][SQL] DataSource V2: Behandeln von MERGE-Befehlen für deltabasierte Quellen
- [SPARK-43924] [SC-135161][CONNECT][PYTHON] Hinzufügen von sonstigen Funktionen zu Scala und Python
- [SPARK-43969] [SC-134556][SQL] Umgestalten und Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_1170
- [SPARK-44185] [SC-135730][SQL] Korrigieren inkonsistenter Pfadqualifikation zwischen Katalog- und Datenvorgängen
- [SPARK-44073] [SC-134562][SQL][PYTHON][CONNECT] Hinzufügen von Datumszeitfunktionen zu Scala, Python und Connect – Teil 2
- [SPARK-43942] [SC-134527][CONNECT][PYTHON] Hinzufügen von Zeichenfolgenfunktionen zu Scala und Python – Teil 1
- [SPARK-44266] [SC-135813][SQL] Verschieben von Util.truncatedString zu sql/api
- [SPARK-44195] [SC-135722][R] Hinzufügen von JobTag-APIs zu SparkR SparkContext
- [SPARK-44200] [SC-135736][SQL] Unterstützung der TABLE-Argumentparserregel für TableValuedFunction
- [SPARK-44254] [SC-135709][SQL] Verschieben von QueryExecutionErrors, das von DataType zu sql/api als DataTypeErrors verwendet wird
- [SPARK-44291] [SC-135924][SPARK-43416][CONNECT] Korrigieren eines falschen Schemas für die Bereichsabfrage
- [SPARK-43922] [SC-135612][SQL] Hinzufügen der Unterstützung benannter Parameter im Parser für Funktionsaufrufe
- [SPARK-44300] [SC-135882][CONNECT] Beheben der Artefaktbereinigung, um den Löschbereich auf sitzungsspezifische Artefakte zu beschränken
- [SPARK-44293] [SC-135849][CONNECT] Beheben des ungültigen URI für benutzerdefinierte JARs in Spark Connect
- [SPARK-44215] [SC-135850][SHUFFLE] Wenn Zahlenblöcke 0 sind, sollte der Server eine RuntimeException auslösen
- [SPARK-44245] [SC-135851][PYTHON] pyspark.sql.dataframe sample() Doctests sollten nur veranschaulichend sein
- [SPARK-44274] [SC-135814][CONNECT] Verschieben von util-Funktionen, die von ArtifactManager verwendet werden, in common/utils
- [SPARK-44194] [SC-135815][PYTHON][CORE] Hinzufügen von JobTag-APIs zu PySpark SparkContext
- [SPARK-42828] [SC-135733][PYTHON][SQL] Explizitere Python-Typanmerkungen für GroupedData
- [SPARK-44079] [SC-135486][SQL] Beheben von
ArrayIndexOutOfBoundsException
, wenn Array als Struktur mit PERMISSIVE-Modus mit defektem Datensatz geparst wird - [SPARK-44255] [SC-135809][SQL] Verschieben von StorageLevel nach common/utils
- [SPARK-42169] [SC-135795] [SQL] Implementieren der Codegenerierung für to_csv-Funktion (StructsToCsv)
- [SPARK-44249] [SC-135719][SQL][PYTHON] Umgestalten von PythonUDTFRunner, um den Rückgabetyp separat zu senden
- [SPARK-43353] [SC-132734][PYTHON] Migrieren verbleibender Sitzungsfehler in die Fehlerklasse
- [SPARK-44211] [SC-135718][PYTHON][CONNECT] Implementieren von SparkSession.is_stopped
- [SPARK-42784] [SC-135691] sollte weiterhin subDir erstellen, wenn die Anzahl von subDir im Mergeverzeichnis kleiner ist als conf
- [SPARK-41599] [SC-135616] Speicherverlust in FileSystem.CACHE beim Übermitteln von Apps an einen sicheren Cluster mithilfe von InProcessLauncher
- [SPARK-44241] [SC-135613][Core] Falsches Festlegen von io.connectionTimeout/connectionCreationTimeout auf null oder negativ führt zu unaufhörlichen Executor-Konstruktionen/Zerstörungen
- [SPARK-44133] [SC-134795][13.X][PYTHON] Upgrade von MyPy von 0.920 auf 0.982
- [SPARK-42941] [SC-134707][SS][CONNECT][1/2] StreamingQueryListener – Ereignis Serde im JSON-Format
- [SPARK-44188] [SC-135173][CORE] Entfernen, sofern nicht
resetAllPartitions
-Methode inActiveJob
- [SPARK-43757] [SC-135418][CONNECT] Ändern der Clientkompatibilität von der Zulassungsliste in die Ablehnungsliste
- [SPARK-43474] [SC-135521] [SS] [CONNECT] Hinzufügen eines Spark Connect-Zugriffs auf Laufzeitdatenframes nach ID.
- [SPARK-44183] [SC-135209][PYTHON] Erhöhen der
PyArrow
-Mindestversion auf 4.0.0 - [SPARK-44248] [SC-135554][SS][SQL][Kafka] Hinzufügen des bevorzugten Standorts in Kafka Source v2
- [SPARK-43929] [SC-134510][SQL][PYTHON][CONNECT] Hinzufügen von Datumszeitfunktionen zu Scala, Python und Connect API – Teil 1
- [SPARK-44161] [SC-135326][Connect] Verarbeiten der Zeileneingabe für UDFs
- [SPARK-44227] [SC-135520][SQL] Extrahieren von SchemaUtils aus StructField
- [SPARK-44064] [SC-135116][CORE][SQL] Hinzufügen einer neuen
apply
Funktion zuNonFateSharingCache
- [SPARK-44171] [SC-135269][SQL] Zuweisen von Namen zur Fehlerklasse LEGACY_ERROR_TEMP[2279-2282] und Löschen einiger nicht verwendeter Fehlerklassen
- [SPARK-44056] [SC-134758][SQL] Einschließen des UDF-Namens in UDF-Ausführungsfehler-Fehlermeldung, wenn verfügbar
- [SPARK-44205] [SC-135422][SQL] Extrahieren des Catalyst-Codes aus DecimalType
- [SPARK-44220] [SC-135484][SQL] Verschieben von StringConcat zu sql/api
- [SPARK-44146] [SC-135230][CONNECT] Isolieren von Spark Connect-Sitzungs-JARS und -Klassendateien
- [SPARK-44206] [SC-135411][SQL] DataSet.selectExpr scope Session.active
- [SPARK-40850] [SC-135417][SQL] Beheben des Fehlers, dass als Testfall interpretierte Abfragen Codegen ausführen können
- [SPARK-44204] [SC-135253][SQL][HIVE] Hinzufügen des fehlenden recordHiveCall für getPartitionNames
- [SPARK-44237] [SC-135485][CORE] Vereinfachen der DirectByteBuffer-Konstruktorsuchlogik
- [SPARK-44189] [SC-135170][CONNECT][PYTHON] Unterstützung von Positionsparametern nach
sql()
- [SPARK-44140] [SC-134893][SQL][PYTHON] Unterstützung von Positionsparametern in Python
sql()
- [SPARK-44164] [SC-135158][SQL] Extrahieren der toAttribute-Methode aus StructField in Util-Klasse
- [SPARK-44178] [SC-135113][CONNECT] Unterstützung von Positionsparametern in
sql()
- [SPARK-43208] [SC-128955][SQL][HIVE] IsolatedClassLoader sollte die Barriereklasse InputStream nach dem Lesen schließen
- [SPARK-43063] [SC-128382][SQL]
df.show
Handle null sollte NULL statt null drucken - [SPARK-42539] [SC-124464][SQL][HIVE] Entfernen separater Klassenloader bei Verwendung der „integrierten“ Hive-Version für Metadatenclient
- [SPARK-43992] [SC-133645][SQL][PYTHON][CONNECT] Hinzufügen des optionalen Musters für Catalog.listFunctions
- [SPARK-44066] [SC-134878][SQL] Unterstützung von Positionsparametern in Scala/Java
sql()
- [SPARK-44078] [SC-134869][CONNECT][CORE] Hinzufügen der Unterstützung für Classloader/Ressourcenisolation
- [SPARK-43470] [SC-135187][CORE] Hinzufügen von Betriebssystem-, Java- und Python-Versionsinformationen zum Anwendungsprotokoll
- [SPARK-43136] [SC-135238][CONNECT][Followup] Hinzufügen von Tests für KeyAs
- [SPARK-39740] [SC-135093][UI]: Upgrade für Zeitleiste auf 7.7.2, um CVE-2020-28487 zu beheben
- [SPARK-42298] [SC-133952][SQL] Name für _LEGACY_ERROR_TEMP_2132 zuweisen
- [SPARK-43961] [SC-133459][SQL][PYTHON][CONNECT] Hinzufügen des optionalen Musters für Catalog.listTables
- [SPARK-44026] [SC-135181] Bereitstellen des Anfangswerts für SQLMetrics zulassen
- [SPARK-44202] [SC-135244][CORE] Hinzufügen von JobTag-APIs zu JavaSparkContext
- [SPARK-44030] [SC-135237][SQL] Implementieren von DataTypeExpression, um Unapply für Ausdrücke anzubieten
- [SPARK-43876] Zurücksetzen von „[SC-134603][SQL] Aktivieren einer schnellen Hashmap für verschiedene Abfragen“
- [SPARK-40082] [SC-126437] MergeFinalize planen, wenn Pushen der Zusammenführung von shuffleMapStage neu versucht wird, aber keine ausgeführten Tasks vorhanden sind
- [SPARK-43888] [SC-132893][CORE] Verschieben der Protokollierung zu commons/utils
- [SPARK-43474] [SC-134400] [SS] [CONNECT] Hinzufügen von SessionHolder zu SparkConnectPlanner
- [SPARK-43944] [SC-134490][CONNECT][PYTHON] Hinzufügen von Zeichenfolgenfunktionen zu Scala und Python – Teil 2
- [SPARK-44134] [SC-134954][CORE] Beheben des Festlegens von Ressourcen (GPU/FPGA) auf 0, wenn sie in spark-defaults.conf festgelegt sind
- [SPARK-44142] [SC-134947][PYTHON] Ersetzen von type durch tpe im Hilfsprogramm, um Python-Typen in Spark-Typen zu konvertieren
- [SPARK-43952] [SC-134695][CORE][CONNECT][SQL] Hinzufügen von SparkContext-APIs für Abfrageabbruch nach Tag
- [SPARK-44000] [SC-133634][SQL] Hinzufügen eines Hinweises zum Deaktivieren der Übertragung und Replikation einer Seite der Verknüpfung
- [SPARK-43937] [SC-134362][CONNECT][PYTHON] Hinzufügen von ifnull,isnotnull,equal_null,nullif,nvl,nvl2 zu Scala und Python
- [SPARK-43624] [13.x][SC-134557][PS][CONNECT] Hinzufügen von
EWM
zu SparkConnectPlanner. - [SPARK-44040] [SC-134366][SQL] Korrigieren von Computestatistiken beim AggregateExec-Knoten über QueryStageExec
- [SPARK-43485] [SC-131264][SQL] Beheben der Fehlermeldung für das
unit
-Argument der datetime-Add/diff-Funktionen - [SPARK-43794] [SC-132561][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1335
- [SPARK-43511] [SC-134749][CONNECT][SS]Implementierte MapGroupsWithState- und FlatMapGroupsWithState-APIs für Spark Connect
- [SPARK-43529] [SQL] Unterstützung von CREATE/REPLACE TABLE OPTIONS-Ausdrücken + Codebereinigung
- [SPARK-44106] [SC-134750][PYTHON][CONNECT] Hinzufügen von
__repr__
fürGroupedData
- [SPARK-42299] [SC-133190] Name für _LEGACY_ERROR_TEMP_2206 zuweisen
- [SPARK-43290] [SC-134388][SQL] Hinzufügen der Unterstützung für aes_encrypt IVs und AAD
- [SPARK-43932] [SC-134138][SQL][PYTHON][CONNECT] Hinzufügen von
current
-ähnlichen Funktionen zu Scala und Python - [SPARK-43934] [SC-134108][SQL][PYTHON][CONNECT] Hinzufügen von regexp_* Funktionen zu Scala und Python
- [SPARK-44107] [SC-134746][CONNECT][PYTHON] Ausblenden nicht unterstützter Column-Methoden in automatischer Vervollständigung
- [SPARK-42941] [SC-134707][SS][CONNECT][1/2] StreamingQueryListener – Ereignis-SerDe im JSON-Format
- [SPARK-43773] [SC-132659][CONNECT][PYTHON] Implementieren von "levenshtein(str1, str2[, threshold])" Funktionen in Python-Client
- [SPARK-44125] [SC-134745][R] Unterstützung von Java 21 in SparkR
- [SPARK-43919] [SC-133374][SQL] Extrahieren von JSON-Funktionen aus Zeile
- [SPARK-43769] [SC-132520][CONNECT] Implementieren von "levenshtein(str1, str2[, threshold])"-Funktionen
- [SPARK-44012] [SC-134662][SS] KafkaDataConsumer zum Drucken einiger Lesestatus
- [SPARK-43876] [SC-134603][SQL] Aktivieren einer schnellen Hashmap für verschiedene Abfragen
- [SPARK-44024] [SC-134497][SQL] Ändern der Verwendung von
map
, wennunzip
nur zum Extrahieren eines einzelnen Elements verwendet wird - [SPARK-43928] [SC-134467][SQL][PYTHON][CONNECT] Hinzufügen von Bitvorgängen zur Scala, Python und Connect API
- [SPARK-44092] [SC-134506][CORE] Hinzufügen von
Utils.isJavaVersionAtLeast21
und dascore
-Moduls mit Java 21 bestehen lassen - [SPARK-44018] [SC-134512][SQL] Verbessern von HashCode und ToString für einige DS V2-Ausdrücke
- [SPARK-44105] [SC-134582][SQL]
LastNonNull
sollte verzögert aufgelöst werden - [SPARK-44081] [SC-134434] Gewisse Vereinfachung der PartitionedFileUtil-API
- [SPARK-43791] [SC-132531][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1336
- [SPARK-44071] [SC-134435] Definieren und Verwenden von Unresolved[Leaf|Unary]Node-Eigenschaften.
- [SPARK-43852] [SC-132890][SPARK-43853][SPARK-43854][SPARK-43855][SPARK-43856] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_2418-2425
- [SPARK-43742] [SC-132684][SQL] Umgestalten der Standardspaltenwertauflösung
- [SPARK-43493] [SC-132063][SQL] Hinzufügen eines Arguments für die maximale Entfernung zur Funktion levenshtein()
- [SPARK-44075] [SC-134382][CONNECT]
transformStatCorr
verzögert machen - [SPARK-43925] [SC-134381][SQL][PYTHON][CONNECT] Hinzufügen von some, bool_or,bool_and,every zu Scala, Python und Connect
- [SPARK-43931] [SC-134158][SQL][PYTHON][CONNECT] Hinzufügen von make_* Funktionen zu Scala und Python
- [SPARK-43762] [SC-132602][SPARK-43763][SPARK-43764][SPARK-43765][SPARK-43766][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_24[06-10]
- [SPARK-43962] [SC-133367][SQL] Verbessern der Fehlermeldungen:
CANNOT_DECODE_URL
,CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
,CANNOT_PARSE_DECIMAL
,CANNOT_READ_FILE_FOOTER
,CANNOT_RECOGNIZE_HIVE_TYPE
. - [SPARK-43938] [SC-133887][CONNECT][PYTHON] Hinzufügen von to_* Funktionen zu Scala und Python
- [SPARK-44055] [SC-134321][CORE] Entfernen redundanter
override
Funktionen ausCheckpointRDD
- [SPARK-43802] [SC-132597][SQL] Beheben von codegen für unhex und unbase64 mit failOnError=true
- [SPARK-43798] [SC-133990][SQL][PYTHON] Unterstützung benutzerdefinierter Tabellenfunktionen in Python
- [SPARK-43941] [SC-134286][SQL][PYTHON][CONNECT] Hinzufügen von any_value, approx_percentile, count_if, first_value, histogram_numeric, last_value, reduce zu Scala, Python und Connect API
- [SPARK-43380] [SC-133100][SQL] Beheben von Avro-Datentypkonvertierungsproblemen, um falsche Ergebnisse zu vermeiden
- [SPARK-43803] [SC-133729] [SS] [CONNECT] Verbessern von awaitTermination(), um client disconnects () zu verarbeiten
- [SPARK-43179] [SC-129070][SHUFFLE] Zulassen, dass Apps steuern können, ob ihre Metadaten vom externen Shuffle-Dienst in der Datenbank gespeichert werden
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Siehe Databricks Runtime 13.3 Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | Klicken | 8.0.4 | cryptography | 37.0.1 |
cycler | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
dbus-python | 1.2.18 | debugpy | 1.6.0 | decorator | 5.1.1 |
defusedxml | 0.7.1 | distlib | 0.3.7 | docstring-to-markdown | 0,12 |
entrypoints | 0,4 | executing | 1.2.0 | facets-overview | 1.0.3 |
fastjsonschema | 2.18.0 | filelock | 3.12.2 | fonttools | 4.25.0 |
googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.3 | importlib-metadata | 4.6.4 |
ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | jeepney | 0.7.1 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | matplotlib | 3.5.2 |
matplotlib-inline | 0.1.6 | mccabe | 0.7.0 | mistune | 0.8.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nbclient | 0.5.13 |
nbconvert | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
nodeenv | 1.8.0 | Notebook | 6.4.12 | numpy | 1.21.5 |
oauthlib | 3.2.0 | Packen | 21,3 | Pandas | 1.4.4 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.9.0 |
patsy | 0.5.2 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.2.0 | pip | 22.2.2 | platformdirs | 2.5.2 |
plotly | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 3.19.4 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pycparser | 2.21 | pydantic | 1.10.6 |
pyflakes | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing | 3.0.9 |
pyright | 1.1.294 | pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 |
python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
pytz | 2022.1 | pyzmq | 23.2.0 | requests | 2.28.1 |
rope | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
scipy | 1.9.1 | seaborn | 0.11.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 63.4.1 | sechs | 1.16.0 |
soupsieve | 2.3.1 | ssh-import-id | 5.11 | stack-data | 0.6.2 |
statsmodels | 0.13.2 | tenacity | 8.1.0 | terminado | 0.13.1 |
testpath | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
tomli | 2.0.1 | tornado | 6.1 | traitlets | 5.1.1 |
typing_extensions | 4.3.0 | ujson | 5.4.0 | unattended-upgrades | 0,1 |
urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.2 |
wheel | 0.37.1 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
zipp | 1.0.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 10.02.2023 installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Pfeil | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | Blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0 - 8 | brio | 1.1.3 |
broom | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | class | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | Anmeldeinformationen | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
ellipsis | 0.3.2 | Evaluieren | 0,20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.6.1 | future | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | generics | 0.1.3 |
gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.1 | Grafiken | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0,10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.1 | Lebenszyklus | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1.5 |
MASS | 7.3-58.2 | Matrix | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallelly | 1.34.0 | pillar | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Fortschritt | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | recipes | 1.0.4 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.1 | spatial | 7.3-15 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | Tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0,37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.2.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.7.1 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.33 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.4-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.4-shaded-protobuf |
org.apache.orc | orc-shims | 1.8.4 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,22 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-continuation | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-http | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-security | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-server | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-webapp | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-api | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-client | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-server | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | shims | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.1 |
org.yaml | snakeyaml | 1,33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |