Databricks Runtime 12.1 (nicht unterstützt)

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 12.1, unterstützt von Apache Spark 3.3.1.

Databricks hat diese Images im Januar 2023 veröffentlicht.

Neue Features und Verbesserungen

Delta Lake-Tabellenfeatures, die für die Protokollverwaltung unterstützt werden

Azure Databricks hat Support für Delta Lake-Tabellenfeatures eingeführt, die granulare Flags einführen, die angeben, welche Features von einer bestimmten Tabelle unterstützt werden. Siehe Wie verwaltet Azure Databricks die Kompatibilität von Delta Lake-Features?.

Predictive I/O für Updates befindet sich in der öffentlichen Vorschauversion

Predictive I/O beschleunigt jetzt DELETE-, MERGE-, und UPDATE-Vorgänge für Delta-Tabellen mit aktivierten Löschvektoren für Photon-fähiges Compute. Siehe Was ist Predictive I/O?.

Katalog-Explorer ist jetzt für alle Personas verfügbar.

Der Katalog-Explorer ist jetzt für alle Azure Databricks-Personas verfügbar, wenn Databricks Runtime 7.3 LTS und höher verwendet wird.

Unterstützung für mehrere zustandsbehaftete Operatoren in einer einzelnen Streamingabfrage

Benutzer können jetzt zustandsbehaftete Operatoren mit dem Anfügemodus in der Streamingabfrage verketten. Nicht alle Operatoren werden vollständig unterstützt. Die Stream-Stream-Zeitintervallverknüpfung und flatMapGroupsWithState lassen nicht zu, dass andere zustandsbehaftete Operatoren verkettet werden.

Unterstützung von Protokollpuffern in Public Preview

Sie können die Funktionen from_protobuf und to_protobuf verwenden, um Daten zwischen Binär- und Strukturtypen auszutauschen. Weitere Informationen finden Sie unter Lesen und Schreiben von Protokollpuffern.

Unterstützung der Authentifizierung per Schemaregistrierung von Confluent

Die Azure Databricks-Integration mit Confluent Schema Registry unterstützt jetzt externe Schemaregistrierungsadressen mit Authentifizierung. Dieses Feature ist für die Funktionen from_avro, to_avro, from_protobuf und to_protobuf verfügbar. Weitere Informationen finden Sie hier (für Protokollpuffer) bzw. hier (für Avro).

Unterstützung für das Freigeben des Tabellenverlaufs mit Delta Sharing-Freigaben

Sie können jetzt mithilfe von Delta Sharing eine Tabelle mit dem vollständigen Verlauf freigeben, sodass Empfänger Zeitreiseabfragen ausführen und die Tabelle mithilfe von strukturiertem Spark-Streaming abfragen können. WITH HISTORY wird anstelle von CHANGE DATA FEEDempfohlen, obwohl letzteres weiterhin unterstützt wird. Weitere Informationen finden Sie unter ALTER SHARE und Hinzufügen von Tabellen zu einer Freigabe.

Unterstützung für Streaming mit Delta Sharing-Freigaben

Strukturiertes Spark-Streaming funktioniert jetzt mit dem Format deltasharing in einer Delta Sharing-Quelltabelle, die mittels WITH HISTORY freigegeben wurde.

Tabellenversion mit Zeitstempel wird in Katalogen jetzt für Delta Sharing-Tabellen unterstützt

In SELECT-Anweisungen können Sie jetzt die SQL-Syntax TIMESTAMP AS OF verwenden, um die Version einer Delta Sharing-Tabelle anzugeben, die in einen Katalog eingebunden ist. Tabellen müssen mit WITH HISTORY freigegeben werden.

Unterstützung für WHEN NOT MATCHED BY SOURCE für MERGE INTO

Sie können jetzt WHEN NOT MATCHED BY SOURCE-Klauseln zu MERGE INTO hinzufügen, um Zeilen in der ausgewählten Tabelle zu aktualisieren oder zu löschen, die basierend auf der Merge-Bedingung keine Übereinstimmungen in der Quelltabelle aufweisen. Die neue Klausel ist in SQL, Python, Scala und Java verfügbar. Siehe MERGE INTO.

Optimierte Statistiksammlung für CONVERT TO DELTA

Die Statistiksammlung für den Vorgang CONVERT TO DELTA ist jetzt viel schneller. Dadurch verringert sich die Anzahl von Workloads, die ggf. NO STATISTICS nutzen, was die Effizienz erhöht.

Unity Catalog-Unterstützung für das Rückgängigmachen der Löschung von Tabellen

Dieses Feature wurde zunächst als Public Preview veröffentlicht. Ab dem 25. Oktober 2023 ist es allgemein verfügbar.

Sie können jetzt die Löschung einer verwalteten oder externen Tabelle innerhalb von sieben Tagen nach dem Löschen in einem vorhandenen Schema rückgängig machen. Weitere Informationen finden Sie unter UNDROP TABLE und SHOW TABLES DROPPED.

Bibliotheksupgrades

  • Aktualisierte Python-Bibliotheken:
    • filelock von 3.8.0 auf 3.8.2
    • platformdirs von 2.5.4 auf 2.6.0
    • setuptools: von 58.0.4 auf 61.2.0
  • Aktualisierte R-Bibliotheken:
  • Aktualisierte Java-Bibliotheken:
    • io.delta.delta-sharing-spark_2.12 von 0.5.2 auf 0.6.2
    • org.apache.hive.hive-storage-api von 2.7.2 auf 2.8.1
    • org.apache.parquet.parquet-column von 1.12.3-databricks-0001 auf 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common von 1.12.3-databricks-0001 auf 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding von 1.12.3-databricks-0001 auf 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures von 1.12.3-databricks-0001 auf 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop von 1.12.3-databricks-0001 auf 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson von 1.12.3-databricks-0001 auf 1.12.3-databricks-0002
    • org.tukaani.xz von 1.8 auf 1.9

Apache Spark

Databricks Runtime 12.1 enthält Apache Spark 3.3.1. Dieses Release enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 12.0 (nicht unterstützt) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen für Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Wiederherstellen von "[SC-119411][SQL] Zentralisierung der Spaltenauflösungslogik" und "[SC-117170][SPARK-41338][SQL] Auflösen äußerer Referenzen und normaler Spalten im selben Analyse-Batch"
  • [SPARK-41405] [SC-119411][SQL] Zentralisieren der Spaltenauflösungslogik
  • [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand sollte das Überschreibungsflag korrekt festlegen
  • [SPARK-41659] [SC-119526][CONNECT][12.X] Aktivieren von Doctests in pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][SQL] Korrigieren der ORC-Leser-Perf-Regression aufgrund der DEFAULT-Wertfunktion
  • [SPARK-41807] [SC-119399][CORE] Nicht vorhandene Fehlerklasse entfernen: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
  • [SPARK-41578] [12.x][SC-119273][SQL] Name für _LEGACY_ERROR_TEMP_2141 zuweisen
  • [SPARK-41571] [SC-119362][SQL] Name für _LEGACY_ERROR_TEMP_2310 zuweisen
  • [SPARK-41810] [SC-119373][CONNECT] Namen aus einer Liste von Wörterbüchern in SparkSession.createDataFrame ableiten
  • [SPARK-40993] [SC-119504][SPARK-41705][CONNECT][12.X] Verschieben der Spark Connect-Dokumentation und des Skripts zu dev/ und in die Python-Dokumentation
  • [SPARK-41534] [SC-119456][CONNECT][SQL][12.x] Einrichten des anfänglichen Clientmoduls für Spark Connect
  • [SPARK-41365] [SC-118498][UI][3.3] Stufenbenutzeroberfläche kann für den Proxy in einer bestimmten Yarn-Umgebung nicht geladen werden
  • [SPARK-41481] [SC-118150][CORE][SQL] Wiederverwenden von INVALID_TYPED_LITERAL anstelle von _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][SQL] Überarbeitung der Behandlung zustandsabhängiger Ausdrücke
  • [SPARK-41726] [SC-119248][SQL] OptimizedCreateHiveTableAsSelectCommand entfernen
  • [SPARK-41271] [SC-118648][SC-118348][SQL] Unterstützung parametrisierter SQL-Abfragen durch sql()
  • [SPARK-41066] [SC-119344][CONNECT][PYTHON] Implementieren von DataFrame.sampleBy und DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][SC-119012][SQL][ALLE TESTS] v1 herausziehen und in WriteFiles schreiben
  • [SPARK-41565] [SC-118868][SQL] Hinzufügen der Fehlerklasse UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][SQL] DECODE-Funktion gibt falsche Ergebnisse zurück, wenn NULL übergeben wurde
  • [SPARK-41554] [SC-119274] Korrektur der Änderung der Dezimalskala bei Verkleinerung der Skala um m...
  • [SPARK-41065] [SC-119324][CONNECT][PYTHON] Implementieren von DataFrame.freqItems und DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Erneute Aktivierung von Doc-Tests und Hinzufügen des fehlenden Spalten-Alias zu count()
  • [SPARK-41069] [SC-119310][CONNECT][PYTHON] Implementieren von DataFrame.approxQuantile und DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][CONNECT][PYTHON] Funktion from_json soll DataType Schema unterstützen
  • [SPARK-41804] [SC-119382][SQL] Auswahl der richtigen Elementgröße in InterpretedUnsafeProjection für ein Array von benutzerdefinierten Typen
  • [SPARK-41786] [SC-119308][CONNECT][PYTHON] Deduplizieren von Hilfsfunktionen
  • [SPARK-41745] [SC-119378][SPARK-41789][12.X] createDataFrame soll eine Liste von Zeilen unterstützen
  • [SPARK-41344] [SC-119217][SQL] Fehler klarer machen, wenn die Tabelle nicht im SupportsCatalogOptions-Katalog gefunden wurde
  • [SPARK-41803] [SC-119380][CONNECT][PYTHON] Fehlende Funktion log(arg1, arg2) hinzufügen
  • [SPARK-41808] [SC-119356][CONNECT][PYTHON] JSON-Funktionen sollen Optionen unterstützen
  • [SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] __getitem__ soll Filtern und Auswählen unterstützen
  • [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Spaltenvorgang soll None unterstützen
  • [SPARK-41440] [SC-119279][CONNECT][PYTHON] Vermeiden des Cacheoperators für allgemeine Beispiele.
  • [SPARK-41785] [SC-119290][CONNECT][PYTHON] Implementieren von GroupedData.mean
  • [SPARK-41629] [SC-119276][CONNECT] Unterstützung für Protokollerweiterungen in Beziehung und Ausdruck
  • [SPARK-41417] [SC-118000][CORE][SQL] Umbenennen von _LEGACY_ERROR_TEMP_0019 in INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][CONNECT][12.X] Ordnungsgemäße Fehlerbehandlung für Spark Connect Server/Client
  • [SPARK-41292] [SC-119357][CONNECT][12.X] Supportfenster in pyspark.sql.window
  • [SPARK-41493] [SC-119339][CONNECT][PYTHON] CSV-Funktionen sollen Optionen unterstützen
  • [SPARK-39591] [SC-118675][SS] Asynchrone Fortschrittsverfolgung
  • [SPARK-41767] [SC-119337][CONNECT][PYTHON][12.X] Implementieren von Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][CONNECT][PYTHON] Implementieren von DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][CONNECT][12.X] Aktivieren von Doctests in pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][CONNECT] ClientId im SparkSession-Cache mischen
  • [SPARK-41354] [SC-119194][CONNECT] RepartitionByExpression zu proto hinzufügen
  • [SPARK-41784] [SC-119289][CONNECT][PYTHON] Fehlende Funktion __rmod__ in Spalte hinzufügen
  • [SPARK-41778] [SC-119262][SQL] Hinzufügen eines Alias "reduce" zu ArrayAggregat
  • [SPARK-41067] [SC-119171][CONNECT][PYTHON] Implementieren von DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][CONNECT][PYTHON] Den internen Namen des Zeichenfolgenvorgangs mit FunctionRegistry konsistent machen
  • [SPARK-41734] [SC-119160][CONNECT] Hinzufügen einer übergeordneten Nachricht für Katalog
  • [SPARK-41742] [SC-119263] Unterstützung von df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][CONNECT][PYTHON] Korrigieren von mathematischen Vorgängen: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][SQL] Umbenennen von UNSUPPORTED_CORRELATED_REFERENCE in CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][CONNECT][PYTHON] Korrigieren von Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][CONNECT][PYTHON][12.X] Implementieren der Funktion unwrap_udt
  • [SPARK-41333] [SC-119195][SPARK-41737] Implementieren von GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][CONNECT][PYTHON] Korrigieren von Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][SQL] Unterstützung der impliziten Auflösung des Alias von lateralen Spalten für Aggregat
  • [SPARK-41529] [SC-119207][CONNECT][12.X] Implementieren von SparkSession.stop
  • [SPARK-41729] [SC-119205][CORE][SQL][12.X] Umbenennen von _LEGACY_ERROR_TEMP_0011 in UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][CONNECT][12.X] Drucken und repr_html bei LogicalPlan deduplizieren
  • [SPARK-41740] [SC-119169][CONNECT][PYTHON] Implementieren von Column.name
  • [SPARK-41733] [SC-119163][SQL][SS] Anwenden der baumstrukturbasierten Bereinigung für die Regel ResolveWindowTime
  • [SPARK-41732] [SC-119157][SQL][SS] Anwenden der baumstrukturbasierten Bereinigung für die Regel SessionWindowing
  • [SPARK-41498] [SC-119018] Weitergabe von Metadaten über Vereinigung
  • [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementieren des Spaltenaccessors
  • [SPARK-41736] [SC-119161][CONNECT][PYTHON] pyspark_types_to_proto_types sollte ArrayType unterstützen
  • [SPARK-41473] [SC-119092][CONNECT][PYTHON] Implementieren der Funktion format_number
  • [SPARK-41707] [SC-119141][CONNECT][12.X] Implementieren der Katalog-API in Spark Connect
  • [SPARK-41710] [SC-119062][CONNECT][PYTHON] Implementieren von Column.between
  • [SPARK-41235] [SC-119088][SQL][PYTHON] Funktion hoher Ordnung: array_compact-Implementierung
  • [SPARK-41518] [SC-118453][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][CONNECT][PYTHON] Implementieren der Funktion sequence
  • [SPARK-41703] [SC-119060][CONNECT][PYTHON] Kombinieren von NullType und typed_null in Literal
  • [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementieren von drei fehlenden Zeitfensterfunktionen
  • [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementieren von Partitionstransformationsfunktionen
  • [SPARK-41413] [SC-118968][SQL] Vermeiden von Mischvorgängen im speicherpartitionierten Join, wenn die Partitionsschlüssel nicht übereinstimmen, die Join-Ausdrücke aber kompatibel sind
  • [SPARK-41700] [SC-119046][CONNECT][PYTHON] Entfernen von FunctionBuilder
  • [SPARK-41706] [SC-119094][CONNECT][PYTHON] pyspark_types_to_proto_types sollte MapType unterstützen
  • [SPARK-41702] [SC-119049][CONNECT][PYTHON] Hinzufügen ungültiger Spaltenvorgänge
  • [SPARK-41660] [SC-118866][SQL] Metadatenspalten nur weitergeben, wenn sie verwendet werden
  • [SPARK-41637] [SC-119003][SQL] NACH ALLEN SORTIEREN
  • [SPARK-41513] [SC-118945][SQL] Implementieren eines Akkumulators zum Sammeln nach Metriken der Zuordnungszeilenanzahl
  • [SPARK-41647] [SC-119064][CONNECT][12.X] Deduplizieren von docstrings in pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][SPARK-41770][CONNECT][PYTHON] Spaltenvorgang soll decimal unterstützen
  • [SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Implementieren von rollup, cube und pivot
  • [SPARK-41635] [SC-118944][SQL] NACH ALLEN GRUPPIEREN
  • [SPARK-41645] [SC-119057][CONNECT][12.X] Deduplizieren von docstrings in pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][CONNECT][PYTHON] Verschieben von Ausdrücken nach expressions.py
  • [SPARK-41687] [SC-118949][CONNECT] Deduplizieren von docstrings in pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][CONNECT] Deduplizieren von docstrings in pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][CONNECT] GroupedData nach group.py ausklammern
  • [SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][CONNECT][PYTHON][12.X] Implementieren von Window-Funktionen
  • [SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Spaltenvorgang soll datetime unterstützen
  • [SPARK-41672] [SC-118929][CONNECT][PYTHON] Aktivieren der veralteten Funktionen
  • [SPARK-41673] [SC-118932][CONNECT][PYTHON] Implementieren von Column.astype
  • [SPARK-41364] [SC-118865][CONNECT][PYTHON] Implementieren der Funktion broadcast
  • [SPARK-41648] [SC-118914][CONNECT][12.X] Deduplizieren von docstrings in pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][CONNECT][12.X] Deduplizieren von docstrings in pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][CONNECT][12.X] Deduplizieren von docstrings in pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][CONNECT][PYTHON][12.X] Implementieren der restlichen Lambdafunktionen
  • [SPARK-41441] [SC-118557][SQL] Unterstützung von Generieren ohne erforderliche Ausgabe von untergeordneten Elementen zum Hosten äußerer Verweise
  • [SPARK-41669] [SC-118923][SQL] Frühe Bereinigung in canCollapseExpressions
  • [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Entfernen von ScalaReflectionLock aus SchemaConverters
  • [SPARK-41464] [SC-118861][CONNECT][PYTHON] Implementieren von DataFrame.to
  • [SPARK-41434] [SC-118857][CONNECT][PYTHON] Anfängliche LambdaFunction-Implementierung
  • [SPARK-41539] [SC-118802][SQL] Erneutes Zuordnen von Statistiken und Einschränkungen für die Ausgabe im logischen Plan für LogicalRDD
  • [SPARK-41396] [SC-118786][SQL][PROTOBUF] OneOf-Feldunterstützung und Rekursionsüberprüfungen
  • [SPARK-41528] [SC-118769][CONNECT][12.X] Zusammenführen der Namespaces von Spark Connect und PySpark-API
  • [SPARK-41568] [SC-118715][SQL] Name für _LEGACY_ERROR_TEMP_1236 zuweisen
  • [SPARK-41440] [SC-118788][CONNECT][PYTHON] Implementieren von DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][SC-118642][CONNECT][PROTOBUF] Hinzufügen von Spark Connect und protobuf zu setup.py mit Angabe von Abhängigkeiten
  • [SPARK-27561] [SC-101081][12.x][SQL] Unterstützung der impliziten Auflösung des Alias von lateralen Spalten für Projekt
  • [SPARK-41535] [SC-118645][SQL] Richtiges festlegen von NULL für Kalenderintervallfelder in InterpretedUnsafeProjection und InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][SQL] Unterstützung der integrierten Datenmaskierungsfunktion ‘mask’
  • [SPARK-41520] [SC-118440][SQL] Teilen des Baumstrukturmusters AND_OR, um die Baumstrukturmuster AND und OR voneinander zu trennen
  • [SPARK-41349] [SC-118668][CONNECT][PYTHON] Implementieren von DataFrame.hint
  • [SPARK-41546] [SC-118541][CONNECT][PYTHON] pyspark_types_to_proto_types sollte StructType unterstützen.
  • [SPARK-41334] [SC-118549][CONNECT][PYTHON] Verschieben des SortOrder-Proto von Beziehungen zu Ausdrücken
  • [SPARK-41387] [SC-118450][SS] Bestätigen des aktuellen Endversatzes aus der Kafka-Datenquelle für Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][CORE][SQL] Umbenennen von _LEGACY_ERROR_TEMP_1180 in UNEXPECTED_INPUT_TYPE und Entfernen von _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementieren der Spalte {when, otherwise} und der Funktion when mit UnresolvedFunction
  • [SPARK-41541] [SC-118460][SQL] Korrektur des Aufrufs der falschen Methode für untergeordnete Elemente in SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][CONNECT][PYTHON] Implementieren von DataFrame.subtract
  • [SPARK-41248] [SC-118436][SC-118303][SQL] Hinzufügen von "spark.sql.json.enablePartialResults" zum Aktivieren/Deaktivieren von JSON-Teilergebnissen
  • [SPARK-41437] Wiederherstellen von "[SC-117601][SQL] Die Eingabeabfrage nicht zweimal für v1-Schreibfallback optimieren"
  • [SPARK-41472] [SC-118352][CONNECT][PYTHON] Implementieren der restlichen Zeichenfolgen-/Binärfunktionen
  • [SPARK-41526] [SC-118355][CONNECT][PYTHON] Implementieren von Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Verbessern der Spekulation durch die Phasenaufgaben-Metriken.
  • [SPARK-41524] [SC-118399][SS] Unterscheiden von SQLConf und extraOptions in StateStoreConf für die Verwendung in RocksDBConf
  • [SPARK-41465] [SC-118381][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][SQL] LongToUnsafeRowMap-Unterstützung für ignoresDuplicatedKey
  • [SPARK-41409] [SC-118302][CORE][SQL] Umbenennen von _LEGACY_ERROR_TEMP_1043 in WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][CONNECT][PYTHON] Implementieren von DataFrame.colRegex
  • [SPARK-41437] [SC-117601][SQL] Die Eingabeabfrage nicht zweimal für v1-Schreibfallback optimieren
  • [SPARK-41314] [SC-117172][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][CONNECT][PYTHON] Umgestalten von LiteralExpression zur Unterstützung von DataType
  • [SPARK-41448] [SC-118046] Erstellen konsistenter MR-Auftrags-IDs in FileBatchWriter und FileFormatWriter
  • [SPARK-41456] [SC-117970][SQL] Verbessern der Leistung von try_cast
  • [SPARK-41495] [SC-118125][CONNECT][PYTHON] Implementieren der Funktionen P~Z von collection
  • [SPARK-41478] [SC-118167][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][SQL] Umgestaltung der Fehlermeldung für NUM_COLUMNS_MISMATCH, um sie allgemeiner zu machen
  • [SPARK-41404] [SC-118016][SQL] Umgestaltung von ColumnVectorUtils#toBatch, damit ColumnarBatchSuite#testRandomRows einen primitiveren dataType testen kann
  • [SPARK-41468] [SC-118044][SQL] Korrektur der PlanExpression-Behandlung in EquivalentExpressions
  • [SPARK-40775] [SC-118045][SQL] Korrektur von doppelten Beschreibungseinträgen für V2-Dateiüberprüfungen
  • [SPARK-41492] [SC-118042][CONNECT][PYTHON] Implementieren von MISC- Funktionen
  • [SPARK-41459] [SC-118005][SQL] Korrektur der leeren Ausgabe des Vorgangsprotokolls des Thrift-Servers
  • [SPARK-41395] [SC-117899][SQL] InterpretedMutableProjection sollte setDecimal verwenden, um NULL-Werte für Dezimalstellen in einer unsicheren Zeile festzulegen
  • [SPARK-41376] [SC-117840][CORE][3.3] Korrigieren der Netty preferDirectBufs-Prüflogik beim Executorstart
  • [SPARK-41484] [SC-118159][SC-118036][CONNECT][PYTHON][12.x] Implementieren der Funktionen E~M von collection
  • [SPARK-41389] [SC-117426][CORE][SQL] Wiederverwenden von WRONG_NUM_ARGS anstelle von _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][SQL] Datums- und Zeitstempeltyp können in TimestampNTZ umgewandelt werden
  • [SPARK-41435] [SC-117810][SQL] Änderung in Aufruf von invalidFunctionArgumentsError für curdate(), wenn expressions nicht leer ist
  • [SPARK-41187] [SC-118030][CORE] LiveExecutor MemoryLeak in AppStatusListener, wenn ExecutorLost auftritt
  • [SPARK-41360] [SC-118083][CORE] Erneute Registrierung von BlockManager vermeiden, wenn der Executor verloren gegangen ist
  • [SPARK-41378] [SC-117686][SQL] Unterstützung von Spaltenstatistiken in DS v2
  • [SPARK-41402] [SC-117910][SQL][CONNECT][12.X] Außerkraftsetzung von prettyName von StringDecode
  • [SPARK-41414] [SC-118041][CONNECT][PYTHON][12.x] Implementieren von Datums-/Zeitstempelfunktionen
  • [SPARK-41329] [SC-117975][CONNECT] Auflösen von Zirkelimporten in Spark Connect
  • [SPARK-41477] [SC-118025][CONNECT][PYTHON] Den Datentyp von literalen Ganzzahlen richtig ableiten
  • [SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] createDataFrame soll Schemata und weitere Eingabedatensatztypen unterstützen
  • [SPARK-41475] [SC-117997][CONNECT] Korrektur von Lint-scala-Befehlsfehler und Tippfehler
  • [SPARK-38277] [SC-117799][SS] Löschen des Schreibbatch nach dem Commit des RocksDB-Zustandsspeichers
  • [SPARK-41375] [SC-117801][SS] Leere neueste KafkaSourceOffset vermeiden
  • [SPARK-41412] [SC-118015][CONNECT] Implementieren von Column.cast
  • [SPARK-41439] [SC-117893][CONNECT][PYTHON] Implementieren von DataFrame.melt und DataFrame.unpivot
  • [SPARK-41399] [SC-118007][SC-117474][CONNECT] Umgestalten von Spaltentests für test_connect_column
  • [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] Spalte sollte != Operator unterstützen
  • [SPARK-40697][SC-117806][SC-112787][SQL] Hinzufügen eines leseseitigen Zeichenabstands zum Abdecken externer Datendateien
  • [SPARK-41349] [SC-117594][CONNECT][12.X] Implementieren von DataFrame.hint
  • [SPARK-41338] [SC-117170][SQL] Auflösen äußerer Verweise und normaler Spalten im selben Analysebatch
  • [SPARK-41436] [SC-117805][CONNECT][PYTHON] Implementieren der Funktionen A~C von collection
  • [SPARK-41445] [SC-117802][CONNECT] Implementieren von DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][SQL] to_char sollte NULL zurückgeben, wenn das Format NULL ist
  • [SPARK-41444] [SC-117796][CONNECT] Unterstützung von read.json()
  • [SPARK-41398] [SC-117508][SQL] Lockerung der Einschränkungen für den Speicherpartitionierungs-Join, wenn die Partitionsschlüssel nach der Laufzeitfilterung nicht übereinstimmen
  • [SPARK-41228] [SC-117169][SQL] Umbenennen und Verbessern der Fehlermeldung für COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][CONNECT][PYTHON] Implementieren der Funktionen count_distinct und sum_distinct
  • [SPARK-41433] [SC-117596][CONNECT] Max Arrow-Batchgröße konfigurierbar machen
  • [SPARK-41397] [SC-117590][CONNECT][PYTHON] Implementieren eines Teils der Zeichenfolgen-/Binärfunktionen
  • [SPARK-41382] [SC-117588][CONNECT][PYTHON] Implementieren der Funktion product
  • [SPARK-41403] [SC-117595][CONNECT][PYTHON] Implementieren von DataFrame.describe
  • [SPARK-41366] [SC-117580][CONNECT] DF.groupby.agg() sollte kompatibel sein
  • [SPARK-41369] [SC-117584][CONNECT] Hinzufügen einer allgemeinen Verbindung zur schattierten JAR-Datei des Servers
  • [SPARK-41411] [SC-117562][SS] Fehlerbehebung bei der Unterstützung des Wasserzeichens für mehrere zustandsbehaftete Operatoren
  • [SPARK-41176] [SC-116630][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][CONNECT][PYTHON][12.x] Implementieren von Aggregationsfunktionen
  • [SPARK-41363] [SC-117470][CONNECT][PYTHON][12.X] Implementieren von normalen Funktionen
  • [SPARK-41305] [SC-117411][CONNECT] Verbessern der Dokumentation für den Befehls-Proto
  • [SPARK-41372] [SC-117427][CONNECT][PYTHON] Implementieren von DataFrame TempView
  • [SPARK-41379] [SC-117420][SS][PYTHON] Bereitstellen einer geklonten Spark-Sitzung in DataFrame in der Benutzerfunktion für die foreachBatch-Senke in PySpark
  • [SPARK-41373] [SC-117405][SQL][ERROR] Umbenennen von CAST_WITH_FUN_SUGGESTION in CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][SQL] Umgestaltung der ColumnVectorUtils#populate-Methode zur Verwendung von PhysicalDataType anstelle von DataType
  • [SPARK-41355] [SC-117423][SQL] Problemumgehung bei der Überprüfung von Hive-Tabellennamen
  • [SPARK-41390] [SC-117429][SQL] Aktualisieren des Skripts zum Generieren der Funktion register in UDFRegistration
  • [SPARK-41206] [SC-117233][SC-116381][SQL] Umbenennen der Fehlerklasse _LEGACY_ERROR_TEMP_1233 in COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][CONNECT][PYTHON][12.X] Implementieren der mathematischen Funktionen
  • [SPARK-40970] [SC-117308][CONNECT][PYTHON] Unterstützung von List[Column] for Joins beim Argument
  • [SPARK-41345] [SC-117178][CONNECT] Hinzufügen eines Hinweises zum Verbinden von Proto
  • [SPARK-41226] [SC-117194][SQL][12.x] Umgestalten von Spark-Typen durch Einführung physischer Typen
  • [SPARK-41317] [SC-116902][CONNECT][PYTHON][12.X] Hinzufügen grundlegender Unterstützung für DataFrameWriter
  • [SPARK-41347] [SC-117173][CONNECT] Hinzufügen der Umwandlung in ein Ausdrucks-Proto
  • [SPARK-41323] [SC-117128][SQL] Unterstützung von current_schema
  • [SPARK-41339] [SC-117171][SQL] RocksDB-Schreibbatch schließen und neu erstellen, anstatt nur zu löschen
  • [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementieren von DataFrame cross join
  • [SPARK-41346] [SC-117176][CONNECT][PYTHON] Implementieren der Funktionen asc und desc
  • [SPARK-41343] [SC-117166][CONNECT] Verschieben der FunctionName-Analyse auf die Serverseite
  • [SPARK-41321] [SC-117163][CONNECT] Unterstützung eines Zielfelds für UnresolvedStar
  • [SPARK-41237] [SC-117167][SQL] Wiederverwenden der Fehlerklasse UNSUPPORTED_DATATYPE für _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][SQL] Wiederverwenden von INVALID_SCHEMA.NON_STRING_LITERAL anstelle von _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Optimieren der Konstruktorverwendung von StructType
  • [SPARK-41335] [SC-117135][CONNECT][PYTHON] Unterstützung von IsNull und IsNotNull in Spalten
  • [SPARK-41332] [SC-117131][CONNECT][PYTHON] Korrigieren von nullOrdering in SortOrder
  • [SPARK-41325] [SC-117132][CONNECT][12.X] Korrektur von fehlendem avg() für GroupBy in DF
  • [SPARK-41327] [SC-117137][CORE] Korrektur von SparkStatusTracker.getExecutorInfos durch Ein-/Ausschalten der HeapStorageMemory-Info
  • [SPARK-41315] [SC-117129][CONNECT][PYTHON] Implementieren von DataFrame.replace und DataFrame.na.replace
  • [SPARK-41328] [SC-117125][CONNECT][PYTHON] Hinzufügen logischer und Zeichenfolgen-API zu Spalten
  • [SPARK-41331] [SC-117127][CONNECT][PYTHON] Hinzufügen von orderBy und drop_duplicates
  • [SPARK-40987] [SC-117124][CORE] BlockManager#removeBlockInternal sollte sicherstellen, dass die Sperre ordnungsgemäß entsperrt ist
  • [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Umgestalten von "Column" für API-Kompatibilität
  • [SPARK-41312] [SC-116881][CONNECT][PYTHON][12.X] Implementieren von DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][SQL] Hinzufügen der Fehlerklasse INVALID_FORMAT
  • [SPARK-41272] [SC-116742][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][SQL] Wiederverwenden von INVALID_SCHEMA anstelle von _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Umwandeln von NumPy-Instanzen in Python-primitive Typen im GroupState-Update
  • [SPARK-41174] [SC-116609][CORE][SQL] Weitergabe einer Fehlerklasse an Benutzer wegen ungültigem format von to_binary()
  • [SPARK-41264] [SC-116971][CONNECT][PYTHON] Literal soll mehr Datentypen unterstützen
  • [SPARK-41326] [SC-116972] [CONNECT] Korrektur für fehlende Eingabe bei der Deduplizierung
  • [SPARK-41316] [SC-116900][SQL] Ermöglichen von Tail-Rekursion, wo immer möglich
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Unterstützung von Zeichenfolgenausdrücken im Filter
  • [SPARK-41256] [SC-116932][SC-116883][CONNECT] Implementieren von DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][SQL] Migrieren der Zuordnungsoptionenfehler zu Fehlerklassen
  • [SPARK-40940] [SC-115993][12.x] Entfernen mehrfach zustandsbehafteter Operatorüberprüfungen für Streamingabfragen
  • [SPARK-41310] [SC-116885][CONNECT][PYTHON] Implementieren von DataFrame.toDF
  • [SPARK-41179] [SC-116631][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti aktualisiert numOutputRows nicht, wenn codegen deaktiviert ist
  • [SPARK-41148] [SC-116878][CONNECT][PYTHON] Implementieren von DataFrame.dropna und DataFrame.na.drop
  • [SPARK-41217] [SC-116380][SQL] Hinzufügen der Fehlerklasse FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][CONNECT][PYTHON] Verbessern von DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Homogenisieren des Verhaltens für SparkSession.range()
  • [SPARK-41306] [SC-116860][CONNECT] Verbessern der Proto-Dokumentation zum Connect-Ausdruck
  • [SPARK-41280] [SC-116733][CONNECT] Implementieren von DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] Nicht gesetztes Schema wird als Schema interpretiert
  • [SPARK-41255] [SC-116730][SC-116695] [CONNECT] Umbenennen von RemoteSparkSession
  • [SPARK-41250] [SC-116788][SC-116633][CONNECT][PYTHON] DataFrame. toPandas sollte keinen optionalen Pandas-Dataframe zurückgeben
  • [SPARK-41291] [SC-116738][CONNECT][PYTHON] DataFrame.explain sollte None drucken und zurückgeben
  • [SPARK-41278] [SC-116732][CONNECT] Bereinigen von nicht verwendetem QualifiedAttribute in Expression.proto
  • [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Entfernen redundanter Sammlungskonvertierungsbasis in Scala 2.13-Code
  • [SPARK-41261] [SC-116718][PYTHON][SS] Problembehebung für applyInPandasWithState, wenn die Spalten von Gruppierungsschlüsseln nicht ab dem frühesten Zeitpunkt in der Reihenfolge platziert wurden
  • [SPARK-40872] [SC-116717][3.3] Fallback auf den ursprünglichen Shuffleblock, wenn ein push-zusammengeführter Shuffleblock die Größe Null aufweist
  • [SPARK-41114] [SC-116628][CONNECT] Unterstützung lokaler Daten für LocalRelation
  • [SPARK-41216] [SC-116678][CONNECT][PYTHON] Implementieren von DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][CONNECT][PYTHON] Unterstützung weiterer integrierter Datentypen
  • [SPARK-41230] [SC-116674][CONNECT][PYTHON] str vom Ausdruckstyp Aggregat entfernen
  • [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][CONNECT] Optimierte, Arrow-basierte Sammlungsimplementierung zum Streamen vom Server zum Client
  • [SPARK-41222] [SC-116625][CONNECT][PYTHON] Vereinheitlichen der Typdefinitionen
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Deaktivieren von nicht unterstützte Funktionen
  • [SPARK-41201] [SC-116526][CONNECT][PYTHON] Implementieren von DataFrame.SelectExpr im Python-Client
  • [SPARK-41203] [SC-116258] [CONNECT] Unterstützung von Dataframe.tansform im Python-Client
  • [SPARK-41213] [SC-116375][CONNECT][PYTHON] Implementieren von DataFrame.__repr__ und DataFrame.dtypes
  • [SPARK-41169] [SC-116378][CONNECT][PYTHON] Implementieren von DataFrame.drop
  • [SPARK-41172] [SC-116245][SQL] Migrieren des mehrdeutigen Ref-Fehlers zu einer Fehlerklasse
  • [SPARK-41122] [SC-116141][CONNECT] Explain-API kann verschiedene Modi unterstützen
  • [SPARK-41209] [SC-116584][SC-116376][PYTHON] Verbessern des PySpark-Typrückschlusses in der _merge_type-Methode
  • [SPARK-41196] [SC-116555][SC-116179] [CONNECT] Homogenisieren der Protobuf-Version auf dem Spark-Verbindungsserver, um dieselbe Hauptversion zu verwenden
  • [SPARK-35531] [SC-116409][SQL] Aktualisieren von Hive-Tabellenstatistiken ohne unnötige Konvertierung
  • [SPARK-41154] [SC-116289][SQL] Falsches Zwischenspeichern von Beziehungen für Abfragen mit Zeitreisespezifikation
  • [SPARK-41212] [SC-116554][SC-116389][CONNECT][PYTHON] Implementieren von DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][SQL] Umbenennen von UNSUPPORTED_EMPTY_LOCATION in INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][SQL] Hinzufügen einer Erweiterungs-API zum Durchführen der Plannormalisierung für die Zwischenspeicherung
  • [SPARK-41054] [SC-116447][UI][CORE] Unterstützung von RocksDB als KVStore in der Live-Benutzeroberfläche
  • [SPARK-38550] [SC-115223] Wiederherstellen von "[SQL][CORE] Verwenden eines datenträgerbasierten Speichers, um weitere Debuginformationen für die Live-Benutzeroberfläche zu speichern"
  • [SPARK-41173] [SC-116185][SQL] Verschieben von require() aus Konstruktoren von Zeichenfolgenausdrücken
  • [SPARK-41188] [SC-116242][CORE][ML] Festlegen von executorEnv OMP_NUM_THREADS auf spark.task.cpus als Standard für spark executor JVM-Prozesse
  • [SPARK-41130] [SC-116155][SQL] Umbenennen von OUT_OF_DECIMAL_TYPE_RANGE in NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][SQL] Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][SQL] Reduzieren der Sammlungskonvertierung beim Erstellen von AttributeMap
  • [SPARK-41139] [SC-115983][SQL] Fehlerklasse verbessern: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][PROTOBUF] Schattierung für Java-Klassen-JAR erforderlich machen, Verbessern der Fehlerbehandlung
  • [SPARK-40999] [SC-116168] Hinweis über Weitergabe an Unterabfragen
  • [SPARK-41017] [SC-116054][SQL] Unterstützung der Spaltenbeschneidung mit mehreren nicht deterministischen Filtern
  • [SPARK-40834] [SC-114773][SQL] Verwenden von SparkListenerSQLExecutionEnd zum Nachverfolgen des endgültigen SQL-Status auf der Benutzeroberfläche
  • [SPARK-41118] [SC-116027][SQL] to_number/try_to_number sollte null zurückgeben, wenn das Format null ist
  • [SPARK-39799] [SC-115984][SQL] DataSourceV2: Katalogschnittstelle anzeigen
  • [SPARK-40665] [SC-116210][SC-112300][CONNECT] Vermeiden des Einbettens von Spark Connect in das Apache Spark-Binärrelease
  • [SPARK-41048] [SC-116043][SQL] Verbessern der Ausgabepartitionierung und -reihenfolge mit AQE-Cache
  • [SPARK-41198] [SC-116256][SS] Korrektur von Metriken in Streamingabfragen mit CTE- und DSv1-Streamingquelle
  • [SPARK-41199] [SC-116244][SS] Beheben des Metrikproblems, wenn die DSv1- und DSv2-Streamingquellen gemeinsam verwendet werden
  • [SPARK-40957] [SC-116261][SC-114706] Hinzufügen von Speichercache in HDFSMetadataLog
  • [SPARK-40940] Wiederherstellen von “[SC-115993] Entfernen mehrfach zustandsbehafteter Operatorüberprüfungen für Streamingabfragen”
  • [SPARK-41090] [SC-116040][SQL] Auslösen einer Ausnahme für db_name.view_name beim Erstellen einer temporären Ansicht durch die Dataset-API
  • [SPARK-41133] [SC-116085][SQL] Integrieren von UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION in NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][SC-111442][CONNECT] Code-Speicherabbild 9 Commits
  • [SPARK-40448] [SC-114447][SC-111314][CONNECT] Spark Connect-Build als Treiber-Plug-In mit schattierten Abhängigkeiten
  • [SPARK-41096] [SC-115812][SQL] Unterstützung beim Lesen des Parquet-Typs FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][SQL] Umbenennen der Fehlerklasse _LEGACY_ERROR_TEMP_2440 in INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][SQL] Nichtübereinstimmung zwischen FileSourceScanExec und Orc und ParquetFileFormat bei der Erzeugung einer spaltenförmigen Ausgabe
  • [SPARK-41155] [SC-115991][SQL] Hinzufügen einer Fehlermeldung zu SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Entfernen mehrfach zustandsbehafteter Operatorüberprüfungen für Streamingabfragen
  • [SPARK-41098] [SC-115790][SQL] Umbenennen von GROUP_BY_POS_REFERS_AGG_EXPR in GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][SQL] Migrieren von Typprüfungsfehlern der Zahlenformatierung in Fehlerklassen
  • [SPARK-41059] [SC-115658][SQL] Umbenennen von _LEGACY_ERROR_TEMP_2420 in NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][SQL] Konvertieren von DATATYPE_MISMATCH. UNSPECIFIED_FRAME zu INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][SQL] Umbenennen von _LEGACY_ERROR_TEMP_0055 in UNCLOSED_BRACKETED_COMMENT

Wartungsupdates

Siehe Wartungsupdates für Databricks Runtime 12.1.

Systemumgebung

  • Betriebssystem: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 black 22.3.0 bleach 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
Klicken 8.0.4 cryptography 3.4.8 cycler 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
decorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 entrypoints 0,4 executing 0.8.3
facets-overview 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 mccabe 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
Notebook 6.4.8 numpy 1.21.5 Packen 21,3
Pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Pillow 9.0.1 pip 21.2.4
platformdirs 2.6.0 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 Python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
requests 2.27.1 requests-unixsocket 0.2.0 rope 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
sechs 1.16.0 soupsieve 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 tenacity 8.0.1
terminado 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
unattended-upgrades 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.3
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 11.11.2022 installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 10.0.0 askpass 1.1 assertthat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 Blob 1.2.3
boot 1.3-28 brew 1,0 - 8 brio 1.1.3
broom 1.0.1 bslib 0.4.1 cachem 1.0.6
callr 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 class 7.3-20 cli 3.4.1
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-18 colorspace 2.0-3 commonmark 1.8.1
compiler 4.2.2 config 0.3.1 cpp11 0.4.3
crayon 1.5.2 Anmeldeinformationen 1.3.2 curl 4.3.3
data.table 1.14.4 datasets 4.2.2 DBI 1.1.3
dbplyr 2.2.1 desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.30 downlit 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
ellipsis 0.3.2 Evaluieren 0,18 fansi 1.0.3
farver 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 foreign 0.8-82
forge 0.2.0 fs 1.5.2 future 1.29.0
future.apply 1.10.0 gargle 1.2.1 generics 0.1.3
gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globals 0.16.1
glue 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
gower 1.0.0 Grafiken 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0.7
gtable 0.3.1 hardhat 1.2.0 haven 2.5.1
highr 0.9 hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 iterators 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1.40
labeling 0.4.2 later 1.3.0 lattice 0.20-45
lava 1.7.0 Lebenszyklus 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 markdown 1.3
MASS 7.3-58 Matrix 1.5-1 memoise 2.0.1
methods 4.2.2 mgcv 1.8-41 mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
parallelly 1.32.1 pillar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 praise 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Fortschritt 1.2.2
progressr 0.11.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-27 ps 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 recipes 1.0.3
rematch 1.0.1 rematch2 2.1.2 remotes 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 sass 0.4.2 scales 1.2.1
selectr 0.4-2 sessioninfo 1.2.2 shape 1.4.6
shiny 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 spatial 7.3-11 splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
survival 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.1.1 timeDate 4021.106
tinytex 0,42 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
utils 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 vroom 1.6.0 waldo 0.4.0
whisker 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics Datenstrom 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx Sammlung 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet parquet-encoding 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark unused 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1,24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1