Freigeben über


Databricks Runtime 15.4 LTS

Die folgenden Versionshinweise enthalten Informationen zur Databricks Runtime-Version 15.4 LTS, die von Apache Spark 3.5.0 unterstützt wird.

Dieses Image wurde von Databricks im August 2024 veröffentlicht.

Hinweis

LTS bedeutet, dass diese Version langfristig unterstützt wird. Weitere Informationen finden Sie unter Databricks Runtime LTS-Versionslebenszyklus.

Tipp

Informationen zu den Versionshinweisen für Databricks-Runtime-Versionen, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zu nicht unterstützten Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.

Änderungen des Verhaltens

Die Verwendung von VARIANT als Eingabe- oder Ausgabetyp mit einem Python UDF, UDAF oder UDTF löst eine Ausnahme aus.

[Breaking change] In Databricks Runtime 15.3 und höher löst das Aufrufen einer benutzerdefinierten Funktion (UDF), einer benutzerdefinierten Aggregatfunktion (UDAF) oder einer benutzerdefinierten Tabellenfunktion (UDTF) in Python mit dem Typ VARIANT als Argument oder Rückgabewert eine Ausnahme aus. Mit dieser Änderung sollen Probleme verhindert werden, die aufgrund eines ungültigen Werts auftreten können, der von einer dieser Funktionen zurückgegeben wird. Weitere Informationen zum Typ VARIANT finden Sie unter Verwendung von VARIANTEN zum Speichern halbstrukturierter Daten.

Wechseln zum Standardschema-Bindungsmodus für Ansichten

Ansichten passen sich jetzt an Schemaänderungen in der zugrunde liegenden Abfrage an, indem sie die Schemakompensierung mit regulären Umwandlungsregeln verwenden. Dies ist eine Änderung gegenüber dem vorherigen Standardmodus BINDING, der Fehler ausgelöst hat, wenn eine sichere Umwandlung beim Verweisen auf die Ansicht nicht ausgeführt werden konnte.

Weitere Informationen finden Sie unter CREATE VIEW and cast-Funktion.

Verbieten der Verwendung der nicht dokumentierten !-Syntax anstelle von NOT außerhalb boolescher Ausdrücke

Bei dieser Version ist die Verwendung von ! als Synonym für NOT außerhalb von booleschen Ausdrücken nicht mehr zulässig. Beispiel: Anweisungen wie die folgenden: CREATE ... IF ! EXISTS, IS ! NULL, eine ! NULL-Spalteneigenschaft oder -Feldeigenschaft, ! IN und ! BETWEEN muss ersetzt werden durch: CREATE ... IF NOT EXISTS, IS NOT NULL, eine NOT NULL-Spalten- oder Feldeigenschaft, NOT IN und NOT BETWEEN.

Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und macht SQL portierbarer.

Der boolesche Präfixoperator ! (z. B. !is_mgr oder !(true AND false)) ist von dieser Änderung nicht betroffen.

Verbieten der nicht dokumentierten Spaltendefinitionssyntax in Ansichten

Databricks unterstützt CREATE VIEW mit benannten Spalten und Spaltenkommentaren. Zuvor war die Spezifikation von Spaltentypen, NOT NULL-Einschränkungen oder DEFAULT zulässig. Bei dieser Version können Sie diese Syntax nicht mehr verwenden.

Diese Änderung gewährleistet Konsistenz, entspricht dem SQL-Standard und unterstützt künftige Erweiterungen.

Konsistente Fehlerbehandlung für die Base64-Decodierung in Spark und Photon

Diese Version ändert die Art und Weise, wie Photon Base64-Dekodierungsfehler behandelt, um sie der Spark-Behandlung dieser Fehler anzupassen. Vor diesen Änderungen konnte der Photon- und Spark-Codegenerierungspfad manchmal keine Analyseausnahmen auslösen, während die Spark-Ausführung richtig IllegalArgumentException oder ConversionInvalidInputError auslöste. Mit diesem Update wird sichergestellt, dass Photon bei Base64-Decodierungsfehlern konsistent dieselben Ausnahmen auslöst, was eine vorhersehbarere und zuverlässige Fehlerbehandlung ermöglicht.

Das Hinzufügen einer CHECK Einschränkung für eine ungültige Spalte gibt jetzt UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück

Um nützlichere Fehlermeldungen bereitzustellen, gibt in Databricks Runtime 15.3 und höher eine ALTER TABLE ADD CONSTRAINT Anweisung, die eine CHECK Einschränkung enthält, die auf einen ungültigen Spaltennamen verweist, die UNRESOLVED_COLUMN.WITH_SUGGESTION Fehlerklasse zurück. Zuvor wurde ein INTERNAL_ERROR Wert zurückgegeben.

Neue Features und Verbesserungen

UTF-8-Gültigkeitsprüfungsfunktionen

In dieser Version werden die folgenden Funktionen zum Validieren von UTF-8-Zeichenketten eingeführt:

  • is_valid_utf8 überprüft, ob eine Zeichenfolge eine gültige UTF-8-Zeichenkette ist.
  • make_valid_utf8 konvertiert eine potenziell ungültige UTF-8-Zeichenkette in eine gültige UTF-8-Zeichenkette mit Ersetzungszeichen.
  • validate_utf8 löst einen Fehler aus, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.
  • try_validate_utf8 gibt NULL zurück, wenn die Eingabe keine gültige UTF-8-Zeichenkette ist.

Typisierte Dataset-APIs mit Scala-UDFs

Diese Version enthält zusätzliche Unterstützung für typisierte Dataset-APIs mit benutzerdefinierten Skala-Funktionen (mit Ausnahme von benutzerdefinierten Aggregatfunktionen) für Unity-Katalog-fähige Compute mit freigegebenem Zugriffsmodus. Weitere Informationen finden Sie unter Typisierte Dataset-APIs.

Aktivieren von UniForm Iceberg mithilfe von ALTER TABLE

Sie können UniForm Iceberg jetzt für vorhandene Tabellen aktivieren, ohne Datendateien neu zu schreiben. Weitere Informationen finden Sie unter Aktivieren durch Verändern einer vorhandenen Tabelle.

try_url_decode-Funktion

Mit diesem Release wird die try_url_decode-Funktion eingeführt, die eine mit URL verschlüsselte Zeichenfolge entschlüsselt. Wenn die Zeichenfolge nicht das richtige Format hat, gibt die Funktion NULL zurück, anstatt einen Fehler zu auslösen.

Optionales Zulassen, dass der Optimierer auf nicht erzwungenen Fremdschlüsseleinschränkungen basiert

Um die Abfrageleistung zu verbessern, können Sie jetzt das Keyword RELY für FOREIGN KEY-Einschränkungen angeben, wenn Sie CREATE oder ALTER für eine Tabelle verwenden.

Parallelisierter Auftrag wird für selektive Überschreibungen ausgeführt

Selektive Überschreibungen mit replaceWhere führen jetzt Aufträge aus, die Daten löschen und neue Daten parallel einfügen, wodurch Abfrageleistung und Clusterauslastung verbessert werden.

Verbesserte Leistung für Änderungsdatenfeeds mit selektiven Überschreibungen

Selektive Überschreibungen mithilfe von replaceWhere in Tabellen mit Änderungsdatenfeed schreiben keine separaten Änderungsdatendateien für eingefügte Daten mehr. Diese Vorgänge verwenden eine ausgeblendete _change_type-Spalte, die in den zugrunde liegenden Parquet-Datendateien vorhanden ist, um Änderungen ohne Schreibverstärkung aufzuzeichnen.

Verbesserte Abfragelatenz für den COPY INTO Befehl

Diese Version enthält eine Änderung, die die Abfragelatenz für den COPY INTO Befehl verbessert. Diese Verbesserung wird implementiert, indem das Laden des Zustands durch den RocksDB-Zustandsspeicher asynchron wird. Dank dieser Änderung sollten Sie eine Verbesserung der Startzeiten für Abfragen mit großen Zuständen feststellen,wie Abfragen mit einer großen Anzahl bereits erfasster Dateien.

Unterstützung für das Löschen der Funktion zum Überprüfen von Einschränkungen in Tabellen

Sie können jetzt das checkConstraints-Tabellenfeature aus einer Delta-Tabelle mithilfe von ALTER TABLE table_name DROP FEATURE checkConstraints trennen. Weitere Informationen finden Sie unter Deaktivieren von Überprüfungseinschränkungen.

Single-User Compute unterstützt differenzierte Zugriffssteuerung, materialisierte Ansichten und Streamingtabellen (Public Preview)

Wenn ein Arbeitsbereich für serverloses Computing aktiviert ist, fügt Databricks Runtime 15.4 LTS Unterstützung für eine differenzierte Zugriffssteuerung bei der Berechnung mit einem einzelnen Benutzer hinzu. Wenn eine Abfrage auf eines der folgenden Objekte zugreift, übergibt die Einzelbenutzer-Computeressource auf Databricks Runtime 15.4 LTS die Abfrage an das serverlose Computing, um die Datenfilterung auszuführen:

  • Ansichten, die über Tabellen definiert sind, für die der Benutzer nicht über die SELECT Berechtigungen verfügt.
  • Dynamische Ansichten.
  • Tabellen mit angewendeten Zeilenfiltern oder Spaltenformaten.
  • Materialisierte Ansichten und Streamingtabellen.

Diese Abfragen werden bei der Einzelbenutzerberechnung mit Databricks Runtime 15.3 und darunter nicht unterstützt.

Weitere Informationen finden Sie unter Feinkornierte Zugriffssteuerung für die Berechnung mit einem einzelnen Benutzer.

Erweiterte Unterstützung für Java- und Scala-Bibliotheken

Ab Databricks Runtime 15.4 LTS sind alle Java- und Scala-Bibliotheken, die mit Databricks Runtime gebündelt sind, in allen Computezugriffsmodi verfügbar, wenn Sie Unity-Katalog verwenden. Weitere Informationen zur Sprachunterstützung für Unity Catalog-fähige Compute finden Sie unter Einschränkungen des Computezugriffsmodus für Unity Catalog.

Erweiterte Unterstützung für Scala-Datasetvorgänge

Mit diesem Release unterstützen Unity Catalog-fähige Computeressourcen, die den gemeinsam genutzten Zugriffsmodus verwenden, die folgenden Dataset-Vorgänge für Scala: map, mapPartitions, foreachPartition, flatMap, reduce und filter.

Scala ist für gemeinsames Compute in Unity Catalog allgemein verfügbar

Mit dieser Version ist Scala allgemein für den freigegebenen Zugriffsmodus Unity Catalog-fähige Compute verfügbar, einschließlich Unterstützung für skalare benutzerdefinierte Funktionen (UDFs). Strukturiertes Streaming, Struktur-UDFs und benutzerdefinierte Strukturaggregatfunktionen werden nicht unterstützt. Eine umfassende Liste der Einschränkungen finden Sie unter Einschränkungen des Computezugriffsmodus für Unity Catalog.

Fehlerkorrekturen

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
    • azure-core von 1.30.1 auf 1.30.2
    • google-auth von 2.29.0 auf 2.31.0
    • google-cloud-storage von 2.16.0 auf 2.17.0
    • google-resumable-media von 2.7.0 auf 2.7.1
    • googleapis-common-protos von 1.63.0 auf 1.63.2
    • mlflow-skinny von 2.11.3 auf 2.11.4
    • proto-plus von 1.23.0 auf 1.24.0
    • s3transfer von 0.10.1 auf 0.10.2
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • com.databricks.databricks-sdk-java von 0.17.1 auf 0.27.0
    • com.ibm.icu.icu4j von 72.1 auf 75.1
    • io.delta.delta-sharing-client_2.12 von 1.0.5 bis 1.1.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider von 1.6.1-linux-x86_64 auf 1.6.2-linux-x86_64

Apache Spark

Databricks Runtime 15.4 LTS enthält Apache Spark 3.5.0. Diese Version enthält alle Spark-Fehlerbehebungen und -Verbesserungen, die in Databricks Runtime 15.3 LTS enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • [SPARK-49054] [DBRRM-1153][SQL] Spaltenstandardwert sollte current_*-Funktionen unterstützen
  • [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Gruppieren von Ausdrücken in skalaren Unterabfragen zulassen, wenn sie an äußere Zeilen gebunden sind
  • [SPARK-48873] [SC-171061][SQL] Verwenden Sie "UnsafeRow" im JSON-Parser.
  • [SPARK-48834] [BEHAVE-79][SC-170972] [SQL] Deaktivieren der Variant-Eingabe/Ausgabe für Python Skalar UDFs, UDTFs, UDAFs während der Abfragekompilierung
  • [SPARK-48441] [SC-170980][SQL][WARMFIX] Beheben des StringTrim-Verhaltens für nicht UTF8_BINARY Sortierungen
  • [SPARK-48440] [SC-170895][SQL][WARMFIX] Beheben des StringTranslate-Verhaltens für nicht UTF8_BINARY Sortierungen
  • [SPARK-48872] [SC-170866][PYTHON] Verringern des Aufwands für _capture_call_site
  • [SPARK-48862] [SC-170845][PYTHON][CONNECT] _proto_to_string Anrufe vermeiden, wenn die INFO-Ebene nicht aktiviert ist
  • [SPARK-48852] [SC-170837][CONNECT] Beheben der Zeichenfolgenkürzungsfunktion in Connect
  • [SPARK-48791] [SC-170658][CORE] Beheben der perf-Regression durch den Speicherregistrierungsaufwand mithilfe von CopyOnWriteArrayList
  • [SPARK-48118] [SQL] Support SPARK_SQL_LEGACY_CREATE_HIVE_TABLE env Variable
  • [SPARK-48241] [SC-165811][SQL] CSV-Analysefehler mit Spalten vom Typ Char/Varchar
  • [SPARK-48168] [SC-166900][SQL] Unterstützung für bitweise Verschiebungsoperatoren hinzufügen
  • [SPARK-48148] [SC-165630][CORE] JSON-Objekte sollten beim Lesen als STRING nicht geändert werden
  • [SPARK-46625] [SC-170561] CTE mit Identifier-Klausel als Referenz
  • [SPARK-48771] [SC-170546][SQL] LogicalPlanIntegrity.validateExprIdUniqueness für große Abfragepläne beschleunigen
  • [SPARK-48831] [BEHAVE-76][SC-170554][CONNECT] Standardspaltenname mit cast Spark Classic kompatibel machen
  • [SPARK-48623] [SC-170544][CORE] Strukturierte Protokollierungsmigrationen [Teil 2]
  • [SPARK-48296] [SC-166138][SQL] Codegen-Unterstützung für to_xml
  • [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter für die Verknüpfung mit mehreren Ebenen sollte den untergeordneten Verknüpfungstyp überprüfen
  • [SPARK-46957] [SC-169807][CORE][15.x][15.3][15.2] Außerbetriebnahme migrierter Shuffle-Dateien sollte in der Lage sein, vom Executor zu bereinigen
  • [SPARK-48686] [SC-170365][SQL] Verbessern der Leistung von ParserUtils.unescapeSQLString
  • [SPARK-48798] [SC-170588][PYTHON] Einführung von spark.profile.render in SparkSession-basierte Profilerstellung
  • [SPARK-48048] [SC-169099] Rückgängigmachen „[SC-164846][CONNECT] [SS] Unterstützung für clientseitige Listener für Scala hinzugefügt“
  • [SPARK-47910] [SC-168929][CORE] schließen Sie den Datenstrom, wenn DiskBlockObjectWriter closeResources schließt, um Speicherverluste zu vermeiden
  • [SPARK-48816] [SC-170547][SQL] Abkürzung für Intervallkonverter in UnivocityParser
  • [SPARK-48589] [SC-170132][SQL][SS] Hinzufügen von Option snapshotStartBatchId und snapshotPartitionId zur Zustandsdatenquelle
  • [SPARK-48280] [SC-170293][SQL] Oberfläche für Sortierungstests durch Expression Walking verbessern
  • [SPARK-48837] [SC-170540][ML] In CountVectorizer, nur einmal binären Parameter pro Transformation lesen, nicht einmal pro Zeile
  • [SPARK-48803] [SC-170541][SQL] Interner Fehler in Orc(De)Serializer auslösen, um sich an ParquetWriteSupport auszurichten
  • [SPARK-48764] [SC-170129][PYTHON] Filtern von IPython-bezogenen Frames aus dem Benutzerstapel
  • [SPARK-48818] [SC-170414][PYTHON] Vereinfachen von percentile Funktionen
  • [SPARK-48479] [SC-169079][SQL] Unterstützung beim Erstellen von Skalar- und Tabellen-SQL-UDFs im Parser
  • [SPARK-48697] [SC-170122][LC-4703][SQL] Hinzufügen von sortierfähigen Zeichenfolgenfiltern
  • [SPARK-48800] [SC-170409][CONNECT][SS] ClientStreamingQuerySuite deflaken
  • [SPARK-48738] [SC-169814] [SQL] Richtig seit Version für integrierte Funk Alias random, position, mod, cardinality, current_schema, user, session_user,char_length,character_length
  • [SPARK-48638] [SC-169575][CONNECT] Hinzufügen der ExecutionInfo-Unterstützung für DataFrame
  • [SPARK-48064] [SC-164697] [SQL] Aktualisieren von Fehlermeldungen für routinebezogene Fehlerklassen
  • [SPARK-48810] [CONNECT] Die Session Stop()-API sollte idempotent sein und nicht fehlschlagen, wenn die Sitzung bereits vom Server geschlossen wurde
  • [SPARK-48650] [15.x][PYTHON] Anzeigen der richtigen Anrufwebsite aus dem IPython-Notebook
  • [SPARK-48271] [SC-166076][SQL] Abgleichsfehler in RowEncoder in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [SPARK-48709] [SC-169603][SQL] Beheben eines Konflikts bei der Auflösung des Varchar-Typs für DataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][SQL] Regression für INSERT mit partieller Spaltenliste in eine Tabelle mit char/varchar beheben
  • [SPARK-48767] [SC-170330][SQL] Beheben einiger Fehleraufforderungen, wenn variant Typdaten ungültig sind
  • [SPARK-48719] [SC-170339] [SQL] Beheben des Berechnungsfehlers von RegrSlope & RegrIntercept wenn der erste Parameter null ist
  • [SPARK-48815] [SC-170334] [CONNECT] Aktualisieren der Umgebung beim Beenden der Verbindungssitzung
  • [SPARK-48646] [SC-169020] [PYTHON] Verfeinern von Python-Datenquellen-API-Dokumentzeichenfolgen und Typhinweisen
  • [SPARK-48806] [SC-170310] [SQL] Übergeben der tatsächlichen Ausnahme, wenn url_decode fehlschlägt
  • [SPARK-48653] [SC-169267] [PYTHON] Beheben ungültiger Python-Datenquellenfehlerklassenverweise
  • [SPARK-47777] [SC-168818] Beheben des Python-Streamingdatenquellen-Connect-Tests
  • [SPARK-48732] [SC-169793] [SQL] Veraltete API-Nutzung im Zusammenhang mit JdbcDialect.compileAggregate bereinigen
  • [SPARK-48675] [SC-169538] [SQL] Korrigieren der Cachetabelle mit sortierter Spalte
  • [SPARK-48623] [SC-169034] [CORE] Migrationen für strukturierte Protokollierung
  • [SPARK-48655] [SC-169542] [SQL] SPJ: Hinzufügen von Tests zum Überspringen von Aggregatabfragen
  • [SPARK-48586] [SC-169808] [SS] Entfernen des Lock-Erwerbs in doMaintenance() durch Erstellen einer tiefen Kopie von Dateizuordnungen in RocksDBFileManager in load()
  • [SPARK-48799] [Backport] [15.x] [SC-170283] [SS] Umgestalten der Versionsverwaltung für Operatormetadaten Lese-/Schreibzugriff und Aufrufer
  • [SPARK-48808] [SC-170309] [SQL] Beheben von NPE beim Verbinden des Thriftservers über Hive 1.2.1 und wenn Ergebnisschema leer ist
  • [SPARK-48715] [SC-170291] [SQL] Integrieren der UTF8String-Validierung in Implementierungen von sortierfähigen Zeichenfolgenfunktionen
  • [SPARK-48747] [SC-170120] [SQL] Hinzufügen eines Codepunkt-Iterators zu UTF8String
  • [SPARK-48748] [SC-170115] [SQL] Cache numChars in UTF8String
  • [SPARK-48744] [SC-169817] [Kern] Der Protokolleintrag sollte nur einmal erstellt werden
  • [SPARK-46122] [SC-164313] [SQL] Standardmäßig spark.sql.legacy.createHiveTableByDefault auf false festlegen
  • [SPARK-48765] [SC-170119] [DEPLOY] Verbessern der Standardwerteauswertung für SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128] [SQL] Hinzufügen eines Migrationsdokuments für Änderung des Verhaltens von CREATE TABLE AS SELECT seit Spark 3.4
  • [SPARK-48598] [SC-169484] [PYTHON] [CONNECT] Verteiltes zwischengespeichertes Schema in Datenframevorgängen
  • [SPARK-48766] [SC-170126] [PYTHON] Verhaltensunterschied von extraction zwischen element_at und try_element_at dokumentieren
  • [SPARK-48768] [SC-170124] [PYTHON] [CONNECT] Sollte nicht explain zwischenspeichern
  • [SPARK-48770] [Backport] [15.x] [SC-170133] [SS] Ändern Sie die Metadaten des Operators einmal auf dem Treiber, um zu überprüfen, ob wir Informationen zu numColsPrefixKey finden können, die für Sitzungsfenster-Agg-Abfragen verwendet werden
  • [SPARK-48656] [SC-169529] [CORE] Führen Sie eine Längenüberprüfung durch, und lösen Sie COLLECTION_SIZE_LIMIT_EXCEEDED Fehler in CartesianRDD.getPartitions
  • [SPARK-48597] [SC-168817] [SQL] Einführung einer Markierung für isStreaming-Eigenschaft in der Textdarstellung eines logischen Plans
  • [SPARK-48472] [SC-169044] [SQL] Aktivieren von Reflektionsausdrücken mit sortierten Zeichenfolgen
  • [SPARK-48699] [SC-169597] [SQL] Verfeinern der Sortier-API
  • [SPARK-48682] [SC-169812] [SQL] [BEHAVE-58] Verwenden von ICU im InitCap-Ausdruck für UTF8_BINARY Zeichenfolgen
  • [SPARK-48282] [SC-169813] [SQL] Ändern der Suchlogik für Zeichenfolgen für UTF8_BINARY_LCASE Sortierung (StringReplace, FindInSet)
  • [SPARK-47353] [SC-169599] [SQL] Aktivieren der Sortierunterstützung für den Modusausdruck
  • [SPARK-48320] [SPARK-48490] Synchronisieren der neuesten Protokollierungseigenschaft und Testfälle von OSS Spark
  • [SPARK-48629] [SC-169479] Migrieren des Restcodes zum strukturierten Protokollierungsframework
  • [SPARK-48681] [SC-169469] [SQL] [BEHAVE-58] Verwenden von ICU in Lower/Upper-Ausdrücken für UTF8_BINARY Zeichenfolgen
  • [SPARK-48573] [15.x] [SC-169582] [SQL] Aktualisieren der ICU-Version
  • [SPARK-48687] [Backport] [15.x] [SS] Hinzufügen einer Änderung zum Ausführen der Zustandsschemaüberprüfung und Aktualisierung des Treibers für zustandsbehaftete Abfragen
  • [SPARK-47579] [15.x] [SC-167310] [CORE] [PART4] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48008] [SC-167363] [1/2] Unterstützen von UDAFs in Spark Connect
  • [SPARK-48713] [SQL] Indexbereichsüberprüfung für "UnsafeRow.pointTo" hinzufügen, wenn baseObject -Bytearray ist
  • [SPARK-48718] [ES-1159458] [SC-169581] [SQL] Behandeln und beheben Sie den Fall, wenn der Deserialisierer in der Cogroup während der Anwendung der DeduplicateRelation-Regel aufgelöst wird
  • [SPARK-48578] [SC-169505] [SQL] Hinzufügen von UTF8-Zeichenfolgenüberprüfungsfunktionen
  • [SPARK-48670] [SC-169598] [SQL] Bereitstellen eines Vorschlags als Teil der Fehlermeldung, wenn ungültiger Sortiername angegeben wird
  • [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA… … RK-48291] Strukturiertes Protokollframework auf der Java-Seite
  • [SPARK-47599] [15.x] [SC-166000] [MLLIB] MLLib: Migrieren von logWarn mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48705] [SC-169590] [PYTHON] Verwenden Sie worker_main explizit, wenn sie mit pyspark beginnt
  • [SPARK-48706] [SC-169589] [PYTHON] Python UDF in höheren Reihenfolge Funktionen sollten keinen internen Fehler auslösen
  • [SPARK-48498] [BEHAVE-38] [SC-168060] [SQL] Zeichenabstand immer in Prädikaten ausführen
  • [SPARK-48662] [SC-169533] [SQL] StructsToXml-Ausdruck mit Sortierungen beheben
  • [SPARK-48482] [SC-167702] [PYTHON] [15.x] dropDuplicates und dropDuplicatesWIthinWatermark sollten Variablenlängenargumente akzeptieren
  • [SPARK-48678] [SC-169463] [CORE] Leistungsoptimierungen für SparkConf.get(ConfigEntry)
  • [SPARK-48576] [SQL] Umbenennen von UTF8_BINARY_LCASE in UTF8_LCASE
  • [SPARK-47927] [SC-164123] [SQL]: Nullability-Attribut im UDF-Decoder korrigieren
  • [SPARK-47579] [SC-165297] [CORE] [TEIL1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework (neu)
  • [SPARK-48695] [SC-169473] [PYTHON] TimestampNTZType.fromInternal nicht die veralteten Methoden verwenden
  • [SPARK-48431] [SC-167290] [LC-4066] [SQL] Prädikate für sortierte Spalten nicht an Dateileser weiterleiten
  • [SPARK-47579] Wiederherstellen von "[SC-165297][CORE][PART1] Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework"
  • [SPARK-47585] [SC-164306][SQL] SQL Core: Migrieren von logInfo mit Variablen zum strukturierten Logging-Framework
  • [SPARK-48466] [SC-169042] [SQL] Erstellen eines dedizierten Knotens für EmptyRelation in AQE
  • [SPARK-47579] [SC-165297][CORE][PART1] Migrieren von logInfo mit Variablen zum strukturierten Logging-Framework
  • [SPARK-48410] [SC-168320] [SQL] Korrigieren des InitCap-Ausdrucks für UTF8_BINARY_LCASE & ICU-Sortierungen
  • [SPARK-48318] [SC-167709] [SQL] Aktivieren der Hash-Join-Unterstützung für alle Sortierungen (komplexe Typen)
  • [SPARK-48435] [SC-168128] [SQL] UNICODE-Sortierung sollte keine binäre Gleichheit unterstützen
  • [SPARK-48555] [SC-169041] [SQL] [PYTHON] [CONNECT] Unterstützung der Verwendung von Spalten als Parameter für mehrere Funktionen in pyspark/scala
  • [SPARK-48591] [SC-169081] [PYTHON] Hinzufügen einer Hilfsfunktion zur Vereinfachung von Column.py
  • [SPARK-48574] [SC-169043] [SQL] Beheben der Unterstützung für StructTypes mit Sortierungen
  • [SPARK-48305] [SC-166390] [SQL] Sortierungsunterstützung für CurrentLike-Ausdrücke hinzufügen
  • [SPARK-48342] [SC-168941] [SQL] Einführung von SQL Scripting Parser
  • [SPARK-48649] [SC-169024] [SQL] Fügen Sie "ignoreInvalidPartitionPaths" und "spark.sql.files.ignoreInvalidPartitionPaths"-Konfigurationen hinzu, um zuzulassen, dass ungültige Partitionspfade ignoriert werden
  • [SPARK-48000] [SC-167194] [SQL] Aktivieren der Hashbeitrittsunterstützung für alle Sortierungen (StringType)
  • [SPARK-48459] [SC-168947] [CONNECT] [PYTHON] Implementieren von DataFrameQueryContext in Spark Connect
  • [SPARK-48602] [SC-168692] [SQL] Erstellen eines CSV-Generators zur Unterstützung unterschiedlicher Ausgabestile mit spark.sql.binaryOutputStyle
  • [SPARK-48283] [SC-168129] [SQL] Ändern des Zeichenfolgenvergleichs für UTF8_BINARY_LCASE
  • [SPARK-48610] [SC-168830] [SQL] Umgestaltung: Verwenden Sie hilfs-idMap anstelle von OP_ID_TAG
  • [SPARK-48634] [SC-169021] [PYTHON] [CONNECT] Vermeiden der statisch initialisierenden Threadpools bei ExecutePlanResponseReattachableIterator
  • [SPARK-48648] [SC-168932] [PYTHON] [CONNECT] SparkConnectClient.tags ordnungsgemäß threadlocal machen
  • [SPARK-47911] [SC-164658] [SQL] Führt einen universellen BinaryFormatter ein, um die binäre Ausgabe konsistent zu machen
  • [SPARK-48642] [SC-168889] [CORE] Falscher SparkOutOfMemoryError, verursacht durch das Beenden einer Aufgabe beim Überlaufen
  • [SPARK-48572] [SC-168844] [SQL] Korrigieren von DateSub-, DateAdd-, WindowTime-, TimeWindow- und SessionWindow-Ausdrücken
  • [SPARK-48600] [SC-168841] [SQL] Beheben von impliziten FrameLessOffsetWindowFunction-Ausdrücken
  • [SPARK-48644] [SC-168933] [SQL] Führen Sie eine Längenüberprüfung durch, und lösen Sie COLLECTION_SIZE_LIMIT_EXCEEDED Fehler in Hex.hex aus.
  • [SPARK-48587] [SC-168824] [VARIANT] Vermeiden der Speicherverstärkung beim Zugriff auf einen Sub-Variant-Wert
  • [SPARK-48647] [SC-168936] [PYTHON] [CONNECT] Verfeinern der Fehlermeldung für YearMonthIntervalType in df.collect
  • [SPARK-48307] [SC-167802] [SQL] InlineCTE sollte nicht-inline Beziehungen im ursprünglichen WithCTE-Knoten beibehalten
  • [SPARK-48596] [SC-168581] [SQL] Perf-Verbesserung für die Berechnung der Hex-Zeichenfolge für lang
  • [SPARK-48621] [SC-168726] [SQL] Korrigieren der Vereinfachung in Optimierer für sortierte Zeichenfolgen
  • [SPARK-47148] [SC-164179] [SQL] Vermeiden der Materialisierung von AQE ExchangeQueryStageExec beim Abbruch
  • [SPARK-48584] [SC-168579] [SQL] Verbesserung perf für unescapePathName
  • [SPARK-48281] [SC-167260] [SQL] Ändern der Suchlogik für Zeichenfolgen für UTF8_BINARY_LCASE Sortierung (StringInStr, SubstringIndex)
  • [SPARK-48577] [SC-168826] [SQL] Ungültiger UTF-8-Bytesequenzersetzung
  • [SPARK-48595] [SC-168580] [CORE] Veraltete API-Nutzung im Zusammenhang mit commons-compress bereinigen
  • [SPARK-48030] [SC-164303] [SQL] SPJ: cache rowOrdering und structType für InternalRowComparableWrapper
  • [SPARK-48004] [SC-164005] [SQL] WriteFilesExecBase Merkmal für v1 Schreiben hinzufügen
  • [SPARK-48551] [SC-168438] [SQL] Verbesserung perf für escapePathName
  • [SPARK-48565] [SC-168437] [UI] Beheben der Threadabbildanzeige in der Benutzeroberfläche
  • [SPARK-48364] [SC-166782] [SQL] Hinzufügen der Umwandlung des AbstractMapType-Typs und Beheben der RaiseError-Parameterzuordnung zum Arbeiten mit sortierten Zeichenfolgen
  • [SPARK-48421] [SC-168689] [SQL] SPJ: Dokumentation hinzufügen
  • [SPARK-48604] [SC-168698][SQL] Ersetzen des veralteten new ArrowType.Decimal(precision, scale)Methodenaufrufs
  • [SPARK-46947] [SC-157561] [CORE] Verzögern der Initialisierung des Speicher-Managers bis zum Laden des Treiber-Plug-Ins
  • [SPARK-48411] [SC-168576] [SS] [PYTHON] Hinzufügen des E2E-Tests für DropDuplicateWithinWatermark
  • [SPARK-48543] [SC-168697] [SS] Nachverfolgen von Fehlern bei der Überprüfung der Statuszeile mithilfe expliziter Fehlerklasse
  • [SPARK-48221] [SC-167143] [SQL] Ändern der Suchlogik für Zeichenfolgen für UTF8_BINARY_LCASE Sortierung (Contains, StartsWith, EndsWith, StringLocate)
  • [SPARK-47415] [SC-168441] [SQL] Hinzufügen der Sortierunterstützung für Levenshtein-Ausdrücke
  • [SPARK-48593] [SC-168719] [PYTHON] [CONNECT] Beheben der Zeichenfolgendarstellung der Lambda-Funktion
  • [SPARK-48622] [SC-168710] [SQL] SQLConf einmal abrufen, wenn Spaltennamen aufgelöst werden
  • [SPARK-48594] [SC-168685] [PYTHON] [CONNECT] parent Feld zu child in ColumnAlias umbenennen
  • [SPARK-48403] [SC-168319] [SQL] Korrigieren von Lower & Upper-Ausdrücken für UTF8_BINARY_LCASE & ICU-Sortierungen
  • [SPARK-48162] [SC-166062] [SQL] Hinzufügen der Sortierunterstützung für MISC-Ausdrücke
  • [SPARK-48518] [SC-167718] [CORE] LZF-Komprimierung parallel lauffähig machen
  • [SPARK-48474] [SC-167447] [CORE] Beheben des Klassennamens der Anmeldung SparkSubmitArguments und SparkSubmit
  • [SPARK-48012] [SC-168267] [SQL] SPJ: Unterstützen von Transfrom-Ausdrücken für einseitiges Shuffle
  • [SPARK-48552] [SC-168212] [SQL] Mehrzeiliger CSV-Schemarückschluss sollte auch FAILED_READ_FILE wiedergeben
  • [SPARK-48560] [SC-168268] [SS] [PYTHON] Festlegen von StreamingQueryListener.spark
  • [SPARK-48569] [SC-168321] [SS] [CONNECT] Behandeln von Grenzfällen in query.name
  • [SPARK-48544] [SC-168323] [SQL] Reduzieren des Speicherdrucks leerer TreeNode-BitSets
  • [SPARK-47260] [SC-167323][SQL] Zuweisen von Namen zur Fehlerklasse _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [SC-168327] [PYTHON] [CONNECT] Zwischengespeichertes Schema in Set-Vorgängen verteilen
  • [SPARK-48155] [SC-165910] [SQL] AQEPropagateEmptyRelation für die Verknüpfung sollte überprüfen, ob "Untergeordnetes Element" nur "BroadcastQueryStageExec" ist
  • [SPARK-48506] [SC-167720] [CORE] Kurznamen des Komprimierungscodecs werden mit Ausnahme der Ereignisprotokollierung nicht beachtet
  • [SPARK-48447] [SC-167607] [SS] Überprüfen der Statusspeicheranbieterklasse vor dem Aufrufen des Konstruktors
  • [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff und DateTimeUtils.timestampAdd sollten INTERNAL_ERROR Ausnahme nicht auslösen
  • [SPARK-48513] [Backport] [15.x] [SC-168085] [SS] Hinzufügen einer Fehlerklasse für die Statusschemakompatibilität und kleinere Umgestaltung
  • [SPARK-48413] [SC-167669] [SQL] ALTER COLUMN mit Sortierung
  • [SPARK-48561] [SC-168250] [PS] [CONNECT] PandasNotImplementedError für nicht unterstützte Zeichnungsfunktionen auslösen
  • [SPARK-48465] [SC-167531] [SQL] Vermeiden einer no-op leeren Beziehungsverteilung
  • [SPARK-48553] [SC-168166] [PYTHON] [CONNECT] Weitere Eigenschaften zwischenspeichern
  • [SPARK-48540] [SC-168069] [CORE] Vermeiden von Einstellungen für das Laden von Ivy-Ausgaben in Stdout
  • [SPARK-48535] [SC-168057] [SS] Aktualisieren Sie Config-Dokumente, um die Möglichkeit eines Problems mit Datenverlust/Beschädigung anzugeben, wenn Nullwerte für stream-stream joins config aktiviert sind
  • [SPARK-48536] [SC-168059] [PYTHON] [CONNECT] Zwischenspeichern des benutzerdefinierten Schemas in applyInPandas und applyInArrow
  • [SPARK-47873] [SC-163473] [SQL] Schreiben von sortierten Zeichenfolgen in den Hive-Metastore mithilfe des regulären Zeichenfolgentyps
  • [SPARK-48461] [SC-167442] [SQL] Ersetzen von NullPointerExceptions durch Fehlerklasse im AssertNotNull-Ausdruck
  • [SPARK-47833] [SC-163191] [SQL] [CORE] Stacktrace des Anrufers für checkAndGlobPathIfNecessary AnalysisException liefern
  • [SPARK-47898] [SC-163146] [SQL] Port HIVE-12270: Hinzufügen der DBTokenStore-Unterstützung zu HS2-Delegierungstoken
  • [SPARK-47578] [SC-167497] [R] Migrieren von RPackageUtils mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-47875] [SC-162935][CORE] spark.deploy.recoverySerializer entfernen
  • [SPARK-47552] [SC-160880] [CORE] spark.hadoop.fs.s3a.connection.establish.timeout bei Fehlen auf 30s festlegen
  • [SPARK-47972] [SC-167692] [SQL] Einschränken des CAST-Ausdrucks für Sortierungen
  • [SPARK-48430] [SC-167489] [SQL] Korrigieren der Zuordnungswertextraktion, wenn die Zuordnung sortierte Zeichenfolgen enthält
  • [SPARK-47318] [SC-162712] [CORE][3.5] Fügt die HKDF-Runde zu AuthEngine-Schlüsselableitung hinzu, um die Standard-KEX-Methoden zu befolgen
  • [SPARK-48503] [BEHAVE-29] [ES-1135236] [SQL] Beheben ungültiger skalarer Unterabfragen mit "Gruppieren nach" für nicht gleichwertige Spalten, die falsch zulässig waren
  • [SPARK-48508] [SC-167695] [CONNECT] [PYTHON] Vom Benutzer angegebenes Schema in DataFrame.{to, mapInPandas, mapInArrow} zwischenspeichern
  • [SPARK-23015] [SC-167188] [WINDOWS] Behebung eines Fehlers in Windows, bei dem das Starten mehrerer Spark-Instanzen innerhalb derselben Sekunde zu einem Fehler führt
  • [SPARK-45891] [SC-167608] Zurücksetzen „Schredderschema für Variante beschreiben“
  • [SPARK-48391] [SC-167554] [CORE] Verwenden von "addAll" anstelle von "add function in fromAccumulatorInfos"-Methode der TaskMetrics-Klasse
  • [SPARK-48496] [SC-167600] [CORE] Verwenden statischer regex-Musterinstanzen in JavaUtils.timeStringAs und JavaUtils.byteStringAs
  • [SPARK-48476] [SC-167488] [SQL] Beheben der NPE-Fehlermeldung für null delmiter csv
  • [SPARK-48489] [SC-167598] [SQL] Besseren Benutzerfehler auslösen, wenn Sie ein ungültiges Schema aus der Textdatenquelle lesen
  • [SPARK-48471] [SC-167324] [CORE] Verbessern der Dokumentation und des Verwendungshandbuchs für Verlaufsserver
  • [SPARK-45891] [SC-167597] Beschreiben des Streuungsschemas für Variante
  • [SPARK-47333] [SC-159043] [SQL] Verwenden von checkInputDataTypes zum Überprüfen der Parametertypen der Funktion to_xml
  • [SPARK-47387] [SC-159310] [SQL] Entfernen einiger nicht verwendeter Fehlerklassen
  • [SPARK-48265] [ES-1131440] [SQL] Infer Window-Gruppenlimit-Batch sollte konstante Faltung durchführen
  • [SPARK-47716] [SC-167444] [SQL] Vermeiden eines Ansichtsnamenkonflikts im Semantik-Testfall von SQLQueryTestSuite
  • [SPARK-48159] [SC-167141] [SQL] Erweitern der Unterstützung für sortierte Zeichenfolgen in Datetime-Ausdrücken
  • [SPARK-48462] [SC-167271] [SQL] [Tests] Verwenden von withSQLConf in Tests: Refactor HiveQuerySuite und HiveTableScanSuite
  • [SPARK-48392] [SC-167195] [CORE] spark-defaults.conf auch laden, wenn angegeben --properties-file
  • [SPARK-48468] [SC-167417] Hinzufügen der LogicalQueryStage-Schnittstelle im Katalysator
  • [SPARK-47578] [SC-164988] [CORE] Manueller Backport für Spark PR #46309: Migrieren von logWarning mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48415] [SC-167321] Rückgängigmachen von "[PYTHON] Refactor TypeName to support parametrized datatypes"
  • [SPARK-46544] [SC-151361] [SQL] Unterstützung v2 DESCRIBE TABLE EXTENDED mit Tabellenstatistiken
  • [SPARK-48325] [SC-166963] [CORE] Immer Nachrichten in ExecutorRunner.killProcess angeben
  • [SPARK-46841] [SC-167139] [SQL] Hinzufügen der Sortierunterstützung für ICU-Gebietsschemas und Sortierbezeichner
  • [SPARK-47221] [SC-157870] [SQL] Verwendet Signaturen von CsvParser zu AbstractParser
  • [SPARK-47246] [SC-158138] [SQL] InternalRow.fromSeq durch new GenericInternalRow ersetzen, um eine Sammlungskonvertierung zu speichern
  • [SPARK-47597] [SC-163932] [STREAMING] Manueller Backport für Spark PR #46192: Streaming: Migrieren von logInfo mit Variablen zum strukturierten Protokollierungsframework
  • [SPARK-48415] [SC-167130] [PYTHON] Umgestaltung TypeName zur Unterstützung parametrisierter Datentypen
  • [SPARK-48434] [SC-167132] [PYTHON] [CONNECT] printSchema zwingen, zwischengespeichertes Schema zu nutzen
  • [SPARK-48432] [ES-1097114] [SQL] Vermeiden von ganzzahligen Posteingangszahlen in UnivocityParser
  • [SPARK-47463] [SC-162840] [SQL] Verwenden von V2Predicate zum Umbrechen eines Ausdrucks mit Rückgabetyp vom Typ boolean
  • [SPARK-47781] [SC-162293] [SQL] Behandeln negativer Dezimalstellen der Skalierung für JDBC Datenquellen
  • [SPARK-48394] [SC-166966] [CORE] Bereinigen von mapIdToMapIndex bei mapoutput unregister
  • [SPARK-47072] [SC-156933] [SQL] Beheben unterstützter Intervallformate in Fehlermeldungen
  • [SPARK-47001] [SC-162487] [SQL] Pushdownüberprüfung im Optimierer
  • [SPARK-48335] [SC-166387] [PYTHON] [CONNECT] _parse_datatype_string mit Spark Connect kompatibel machen
  • [SPARK-48329] [SC-166518][SQL] Standardmäßig spark.sql.sources.v2.bucketing.pushPartValues.enabled aktivieren
  • [SPARK-48412] [SC-166898] [PYTHON] Refactoring des JSON-Datentyps
  • [SPARK-48215] [SC-166781] [SQL] Erweitern der Unterstützung für sortierte Zeichenfolgen für date_format Ausdruck
  • [SPARK-45009] [SC-166873] [SQL] [FOLLOW UP] Fehlerklasse und Tests für die Dekorrelation von Prädikat-Unterabfragen in Join-Bedingungen hinzufügen, die auf beide Join-Childs verweisen
  • [SPARK-47960] [SC-165295] [SS] [15.x] Verketten anderer zustandsbehafteter Operatoren nach transformWithState-Operator zulassen.
  • [SPARK-48340] [SC-166468] [PYTHON] Support timestampNTZ infer schema miss prefer_timestamp_ntz
  • [SPARK-48157] [SC-165902] [SQL] Hinzufügen der Sortierunterstützung für CSV-Ausdrücke
  • [SPARK-48158] [SC-165652] [SQL] Hinzufügen der Sortierunterstützung für XML-Ausdrücke
  • [SPARK-48160] [SC-166064] [SQL] Hinzufügen der Sortierunterstützung für XPATH-Ausdrücke
  • [SPARK-48229] [SC-165901] [SQL] Hinzufügen der Sortierunterstützung für inputFile-Ausdrücke
  • [SPARK-48367] [SC-166487] [CONNECT] Korrigieren Sie lint-scala für scalafmt, um Dateien zu erkennen, die ordnungsgemäß formatiert werden sollen
  • [SPARK-47858] [SC-163095] [SPARK-47852] [PYTHON] [SQL] Umgestalten der Struktur für DataFrame-Fehlerkontext
  • [SPARK-48370] [SC-166787] [CONNECT] Prüfpunkt und localCheckpoint im Scala Spark Connect-Client
  • [SPARK-48247] [SC-166028] [PYTHON] Verwenden aller Werte in einem Diktieren beim Ableiten des MapType-Schemas
  • [SPARK-48395] [SC-166794] [PYTHON] StructType.treeString für parametrisierte Type beheben
  • [SPARK-48393] [SC-166784] [PYTHON] Verschieben einer Gruppe von Konstanten in pyspark.util
  • [SPARK-48372] [SC-166776] [SPARK-45716] [PYTHON] StructType.treeString implementieren
  • [SPARK-48258] [SC-166467] [PYTHON] [CONNECT] Prüfpunkt und localCheckpoint in Spark Connect

Weitere Informationen finden Sie unter Wartungsupdates von Databricks Runtime 15.4 LTS.

Systemumgebung

  • Betriebssystem: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.78.0.19-CA-linux64
  • Scala: 2.12.18
  • Python: 3.11.0
  • R: 4.3.2
  • Delta Lake: 3.2.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.2
azure-storage-blob 12.19.1 azure-storage-file-datalake 12.14.0 backcall 0.2.0
black 23.3.0 blinker 1.4 boto3 1.34.39
botocore 1.34.39 cachetools 5.3.3 certifi 2023.7.22
cffi 1.15.1 chardet 4.0.0 charset-normalizer 2.0.4
Klicken 8.0.4 cloudpickle 2.2.1 comm 0.1.2
contourpy 1.0.5 Kryptografie 41.0.3 cycler 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 decorator 5.1.1 distlib 0.3.8
entrypoints 0,4 executing 0.8.3 facets-overview 1.1.1
filelock 3.13.4 fonttools 4.25.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth 2.31.0
google-cloud-core 2.4.1 google-cloud-storage 2.17.0 google-crc32c 1.5.0
google-resumable-media 2.7.1 googleapis-common-protos 1.63.2 grpcio 1.60.0
grpcio-status 1.60.0 httplib2 0.20.2 idna 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jedi 0.18.1 jeepney 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 keyring 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
matplotlib 3.7.2 matplotlib-inline 0.1.6 mlflow-skinny 2.11.4
more-itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 Packen 23,2
Pandas 1.5.3 parso 0.8.3 pathspec 0.10.3
patsy 0.5.3 pexpect 4.8.0 pickleshare 0.7.5
Pillow 9.4.0 pip 23.2.1 platformdirs 3.10.0
plotly 5.9.0 prompt-toolkit 3.0.36 proto-plus 1.24.0
protobuf 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.38
pyparsing 3.0.9 Python-dateutil 2.8.2 python-lsp-jsonrpc 1.1.1
pytz 2022.7 PyYAML 6,0 pyzmq 23.2.0
requests 2.31.0 rsa 4,9 s3transfer 0.10.2
scikit-learn 1.3.0 scipy 1.11.1 seaborn 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 sechs 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id 5.11
stack-data 0.2.0 statsmodels 0.14.0 tenacity 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traitlets 5.7.1 typing_extensions 4.10.0 tzdata 2022.1
ujson 5.4.0 unattended-upgrades 0,1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 wcwidth 0.2.5
wheel 0.38.4 zipp 3.11.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Momentaufnahme des Posit Package Manager CRAN installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 14.0.0.2 askpass 1.2.0 assertthat 0.2.1
backports 1.4.1 base 4.3.2 base64enc 0.1-3
bigD 0.2.0 bit 4.0.5 bit64 4.0.5
bitops 1.0-7 Blob 1.2.4 boot 1.3-28
brew 1.0-10 brio 1.1.4 broom 1.0.5
bslib 0.6.1 cachem 1.0.8 callr 3.7.3
caret 6.0-94 cellranger 1.1.0 chron 2.3-61
class 7.3-22 cli 3.6.2 clipr 0.8.0
clock 0.7.0 cluster 2.1.4 codetools 0.2-19
colorspace 2.1-0 commonmark 1.9.1 compiler 4.3.2
config 0.3.2 conflicted 1.2.0 cpp11 0.4.7
crayon 1.5.2 Anmeldeinformationen 2.0.1 curl 5.2.0
data.table 1.15.0 datasets 4.3.2 DBI 1.2.1
dbplyr 2.4.0 desc 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 digest 0.6.34
downlit 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 ellipsis 0.3.2 Evaluieren 0,23
fansi 1.0.6 farver 2.1.1 fastmap 1.1.1
fontawesome 0.5.2 forcats 1.0.0 foreach 1.5.2
foreign 0.8-85 forge 0.2.0 fs 1.6.3
future 1.33.1 future.apply 1.11.1 gargle 1.5.2
generics 0.1.3 gert 2.0.1 ggplot2 3.4.4
gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.16.2 glue 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.1
Grafiken 4.3.2 grDevices 4.3.2 grid 4.3.2
gridExtra 2.3 gsubfn 0.7 gt 0.10.1
gtable 0.3.4 hardhat 1.3.1 haven 2.5.4
highr 0,10 hms 1.1.3 htmltools 0.5.7
htmlwidgets 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 ids 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 juicyjuice 0.1.0
KernSmooth 2.23-21 knitr 1,45 labeling 0.4.3
later 1.3.2 lattice 0.21-8 lava 1.7.3
Lebenszyklus 1.0.4 listenv 0.9.1 lubridate 1.9.3
magrittr 2.0.3 markdown 1.12 MASS 7.3-60
Matrix 1.5-4.1 memoise 2.0.1 Methoden 4.3.2
mgcv 1.8-42 mime 0,12 miniUI 0.1.1.1
mlflow 2.10.0 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.0 nlme 3.1-163 nnet 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 parallel 4.3.2
parallelly 1.36.0 pillar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 praise 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 Fortschritt 1.2.3
progressr 0.14.0 promises 1.2.1 proto 1.0.0
proxy 0.4-27 ps 1.7.6 purrr 1.0.2
R6 2.5.1 ragg 1.2.7 randomForest 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reactable 0.4.4
reactR 0.5.0 readr 2.1.5 readxl 1.4.3
recipes 1.0.9 rematch 2.0.0 rematch2 2.1.2
remotes 2.4.2.1 reprex 2.1.0 reshape2 1.4.4
rlang 1.1.3 rmarkdown 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions 2.1.2 rvest 1.0.3 sass 0.4.8
scales 1.3.0 selectr 0.4-2 sessioninfo 1.2.2
shape 1.4.6 shiny 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 spatial 7.3-15 splines 4.3.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.3.2
stats4 4.3.2 stringi 1.8.3 stringr 1.5.1
survival 3.5-5 Swagger 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
textshaping 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 timechange 0.3.0
timeDate 4032.109 tinytex 0.49 tools 4.3.2
tzdb 0.4.0 urlchecker 1.0.1 usethis 2.2.2
utf8 1.2.4 utils 4.3.2 uuid 1.2-0
V8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
vroom 1.6.5 waldo 0.5.2 whisker 0.4.1
withr 3.0.0 xfun 0,41 xml2 1.3.6
xopen 1.0.0 xtable 1.8-4 yaml 2.3.8
zeallot 0.1.0 zip 2.3.1

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr 1.12.610
com.amazonaws aws-java-sdk-glacier 1.12.610
com.amazonaws aws-java-sdk-glue 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws aws-java-sdk-importexport 1.12.610
com.amazonaws aws-java-sdk-kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-machinelearning 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts 1.12.610
com.amazonaws aws-java-sdk-support 1.12.610
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.caffeine caffeine 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink tink 1.9.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 23.5.26
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,25
io.delta delta-sharing-client_2.12 1.1.1
io.dropwizard.metrics metrics-annotation 4.2.19
io.dropwizard.metrics metrics-core 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metrics-healthchecks 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metrics-json 4.2.19
io.dropwizard.metrics metrics-jvm 4.2.19
io.dropwizard.metrics metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common 4.1.96.Final
io.netty netty-handler 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty netty-resolver 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty netty-tcnative-classes 2.0.61.Final
io.netty netty-transport 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammlung 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow arrow-format 15.0.0
org.apache.arrow arrow-memory-core 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow arrow-vector 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.6
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-layout-template-json 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc orc-shims 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections eclipse-collections 11.1.0
org.eclipse.collections eclipse-collections-api 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-continuation 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty jetty-plus 9.4.52.v20230823
org.eclipse.jetty jetty-proxy 9.4.52.v20230823
org.eclipse.jetty jetty-security 9.4.52.v20230823
org.eclipse.jetty jetty-server 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty jetty-webapp 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-api 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-client 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-common 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-server 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core jersey-common 2.40
org.glassfish.jersey.core jersey-server 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator hibernate-validator 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap shims 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest scalatest-compatible 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.7.1
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1