Databricks Runtime 11.2 (EoS)
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Den End-of-Support-Termin finden Sie im Verlauf des Supportendes. Alle unterstützten Versionen von Databricks Runtime finden Sie unter Versionshinweise, Versionen und Kompatibilität von Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 11.2, powered by Apache Spark 3.3.0. Diese Version wurde von Databricks im September 2022 veröffentlicht.
Neue Features und Verbesserungen
- Änderung an ALTER TABLE-Berechtigungen in Tabellenzugriffssteuerungen (Tabellen-ACLs)
- Dynamisches Pruning für MERGE INTO
- Verbesserte Konflikterkennung in Delta mit dynamischer Dateibereinigung
- Neue Open Source-Integrationskarte in DSE/SQL-Homepages
- Verbesserung der Partitionserkennung für CONVERT TO DELTA
- Tabellenschemata unterstützen jetzt Standardwerte für Spalten
- Neue H3-Geodatenfunktionen
- Neue Databricks Runtime-Abhängigkeit
- Bring Your Own Key: Verschlüsseln von Git-Anmeldeinformationen
- SQL: Neue Aggregatfunktion any_value
- Databricks Utilities-Dateisystembefehle, die auf mehr Clustertypen zulässig sind
- CREATE-Berechtigungen können jetzt für Unity Catalog-Metastores erteilt werden.
- Optimierte Schreibvorgänge für nicht partitionierte Tabellen in Clustern mit Photon-Unterstützung
- Photon-Unterstützung für weitere Datenquellen
- SQL: ALTER SHARE unterstützt jetzt STARTVERSION
Änderung an ALTER TABLE-Berechtigungen in Tabellenzugriffssteuerungen (Tabellen-ACLs)
Jetzt benötigen Benutzer nur noch MODIFY
-Berechtigungen, um das Schema oder die Eigenschaften einer Tabelle mit ALTER TABLE
zu ändern. Der Besitz ist weiterhin erforderlich, um Berechtigungen für eine Tabelle zu erteilen, ihren Besitzer und Standort zu ändern oder sie umzubenennen. Durch diese Änderung wird das Berechtigungsmodell für Tabellen-ACLs konsistent mit Unity Catalog. Weitere Informationen finden Sie unter ALTER TABLE.
Dynamisches Pruning für MERGE INTO
Wenn Sie Photon-fähiges Compute verwenden, verwendet MERGE INTO
jetzt bei Bedarf dynamische Datei- und Partitionsbereinigung, um die Leistung zu verbessern, z. B. wenn eine kleine Quelltabelle in eine größere Zieltabelle zusammengeführt wird.
Verbesserte Konflikterkennung in Delta mit dynamischer Dateibereinigung
Bei der Suche nach potenziellen Konflikten während Commits berücksichtigt die Konflikterkennung jetzt Dateien, die durch dynamische Dateibereinigung bereinigt wurden, aber nicht durch statische Filter bereinigt worden wären. Dies führt zu einer verringerten Anzahl fehlgeschlagener Transaktionen.
Neue Open-Source-Integrationskarte in DSE/SQL-Homepages
Einführung der neuen Karte „Open-Source-Integrationen“ auf den DSE/SQL-Homepages, die Open-Source-Integrationsoptionen wie Delta Live Tables und dbt core anzeigt.
Verbesserung der Partitionserkennung für CONVERT TO DELTA
CONVERT TO DELTA
leitet automatisch das Partitionsschema für im Hive-Metastore oder in Unity Catalog registrierte Parquet-Tabellen ab, sodass die Klausel PARTITIONED BY
nicht mehr angegeben werden muss.
CONVERT TO DELTA
nutzt Partitionsinformationen aus dem Metastore, um Dateien für eine Parquet-Tabelle zu entdecken, anstatt den gesamten Basispfad aufzulisten. Dadurch wird sichergestellt, dass gelöschte Partitionen nicht der Deltatabelle hinzugefügt werden.
Weitere Informationen finden Sie unter Konvertieren in Delta Lake.
Tabellenschemata unterstützen jetzt Standardwerte für Spalten
Tabellenschemata unterstützen jetzt das Festlegen von Standardwerten für Spalten. INSERT
, UPDATE
und DELETE
Befehle für diese Spalten können auf diese Werte mit dem DEFAULT
Schlüsselwort verweisen. Zum Beispiel fügt CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET
gefolgt von INSERT INTO t VALUES (1, DEFAULT)
die Zeile (1, 42)
an. Dieses Verhalten wird für CSV-, JSON-, Orc- und Parquet-Datenquellen unterstützt.
Neue H3-Geodatenfunktionen
Sie können jetzt 28 neue integrierte H3-Ausdrücke für die Geodatenverarbeitung in Photon-fähigen Clustern verwenden, die in SQL, Scala und Python verfügbar sind. Weitere Informationen finden Sie unter H3-Geodatenfunktionen.
Neue Databricks Runtime-Abhängigkeit
Databricks Runtime hängt jetzt von der H3-Java-Bibliothek, Version 3.7.0 ab.
Bringen Sie Ihren eigenen Schlüssel mit: Verschlüsseln von Git-Anmeldeinformationen
Sie können Azure Key Vault verwenden, um ein persönliches Git-Zugriffstoken (PAT) oder andere Git-Anmeldeinformationen zu verschlüsseln.
Siehe Einrichten von Git-Ordnern für Databricks (Repos).
SQL: Neue Aggregatfunktion any_value
Die neue any_value
Aggregatfunktion gibt einen beliebigen Zufallswert expr
für eine Gruppe von Zeilen zurück. Siehe die any_value-Aggregatfunktion.
Databricks Utilities-Dateisystembefehle, die auf mehr Clustertypen zulässig sind
dbutils.fs
x-Befehle (mit Ausnahme von Mount-bezogenen Befehlen) sind jetzt in Benutzerisolationsclustern mit Unity Catalog sowie in Legacy-Tabellen-ACL-Clustern zulässig, wenn der Benutzer über ANY FILE
-Berechtigungen verfügt.
CREATE-Berechtigungen können jetzt für Unity Catalog-Metastores erteilt werden.
Berechtigungen vom Typ „CREATE CATALOG“, „CREATE EXTERNAL LOCATION“, „CREATE SHARE“, „CREATE RECIPIENT“ und „CREATE PROVIDER“ können jetzt für Unity Catalog-Metastores erteilt werden.
Optimierte Schreibvorgänge für nicht partitionierte Tabellen in Clustern mit Photon-Unterstützung
Verwaltete Unity Catalog-Tabellen speichern jetzt automatisch Dateien einer sorgfältig abgestimmten Größe aus nicht partitionierten Tabellen, um die Abfragegeschwindigkeit zu verbessern und die Leistung zu optimieren.
Photon-Unterstützung für weitere Datenquellen
Photon unterstützt jetzt mehr Datenquellen, einschließlich CSV und Avro, und ist auch mit zwischengespeicherten Datenrahmen kompatibel. Bisher bedeutete das Scannen dieser Datenquellen, dass die gesamte Abfrage nicht photonisiert werden konnte, unabhängig von den Operatoren oder Ausdrücken der Abfrage. Jetzt können Abfragen, die diese Datenquellen scannen, photonisiert werden, was zu erheblichen Latenz- und TCO-Verbesserungen führt.
Diese Funktion ist standardmäßig durch die spark.databricks.photon.photonRowToColumnar.enabled
Konfiguration aktiviert.
Einschränkungen:
- Schemas mit verschachtelten Typen werden in dieser Version nicht unterstützt (d. h. Arrays, Maps und Strukturen).
- ORC-, RDD-, Kinesis-, Kafka- und EventHub-Quellen werden in dieser Version nicht unterstützt.
SQL: ALTER SHARE unterstützt jetzt STARTVERSION
Der ALTER SHARE
Befehl unterstützt START VERSION
jetzt , wodurch Anbieter Daten aus einer bestimmten Tabellenversion freigeben können. Siehe ALTER SHARE.
Bibliotheksupgrades
- Aktualisierte Python-Bibliotheken:
- distlib from 0.3.4 auf 0.3.5
- filelock von 3.7.1 auf 3.8.0
- plotly von 5.8.2 auf 5.9.0
- protobuf von 4.21.2 auf 4.21.5
- Aktualisierte R-Bibliotheken:
- broom von 0.8.0 auf 1.0.0
- bslib von 0.3.1 auf 0.4.0
- callr von 3.7.0 auf 3.7.1
- caret von 6.0-92 auf 6.0-93
- dbplyr von 2.2.0 auf 2.2.1
- devtools von 2.4.3 auf 2.4.4
- evaluate von 0.15 auf 0.16
- farver von 2.1.0 auf 2.1.1
- fontawesome von 0.2.2 auf 0.3.0
- future von 1.26.1 auf 1.27.0
- generics von 0.1.2 auf 0.1.3
- gert von 1.6.0 auf 1.7.0
- globals von 0.15.1 auf 0.16.0
- googlesheets4 von 1.0.0 auf 1.0.1
- hardhat von 1.1.0 auf 1.2.0
- htmltools von 0.5.2 auf 0.5.3
- parallelly von 1.32.0 auf 1.32.1
- pillar von 1.7.0 auf 1.8.0
- pkgload von 1.2.4 auf 1.3.0
- processx von 3.6.1 auf 3.7.0
- Rcpp von 1.0.8.3 auf 1.0.9
- recipes von 0.2.0 auf 1.0.1
- rlang von 1.0.2 auf 1.0.4
- roxygen2 von 7.2.0 auf 7.2.1
- RSQLite von 2.2.14 auf 2.2.15
- sass von 0.4.1 auf 0.4.2
- shiny von 1.7.1 auf 1.7.2
- stringi von 1.7.6 auf 1.7.8
- tibble von 3.1.7 auf 3.1.8
- tidyverse von 1.3.1 auf 1.3.2
- timeDate von 3043.102 auf 4021.104
- xfun von 0.31 auf 0.32
- Aktualisierte Java-Bibliotheken:
- org.apache.orc.orc-core von 1.7.4 auf 1.7.5
- org.apache.orc.orc-mapreduce von 1.7.4 auf 1.7.5
- org.apache.orc.orc-shims von 1.7.4 auf 1.7.5
Apache Spark
Databricks Runtime 11.2 enthält Apache Spark 3.3.0. Diese Version enthält alle Spark-Fixes und -Verbesserungen, die in Databricks Runtime 11.1 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerkorrekturen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-40151] [WARMFIX][SC-109002][SC-108809][SQL] Von den Perzentilfunktionen werden weiter gefasste ANSI-Intervalltypen zurückgegeben.
- [SPARK-40054] [SQL] Stellen Sie die Fehlerbehandlungssyntax von try_cast() wieder her
- [SPARK-39489] [CORE] Verbessern Sie die JsonProtocol-Leistung der Ereignisprotokollierung, indem Sie Jackson anstelle von Json4s verwenden
- [SPARK-39319] [CORE][SQL] Erstellen Sie Abfragekontexte als Teil von
SparkThrowable
- [SPARK-40085] [SQL] Verwenden Sie die Fehlerklasse INTERNAL_ERROR anstelle von IllegalStateException, um auf Fehler hinzuweisen
- [SPARK-40001] [SQL] Machen Sie NULL-Schreibvorgänge in JSON DEFAULT-Spalten, schreiben Sie „null“ in den Speicher
- [SPARK-39635] [SQL] Treibermesswerte in der benutzerdefinierten Messwert-API von DS v2 unterstützen
- [SPARK-39184] Unterdimensioniertes Ergebnisarray in Datums- und Zeitstempelsequenzen behandeln
- [SPARK-40019] [SQL] Refactoring-Kommentar von ArrayType’s containsNull und Refactoring der missverständlichen Logik im Ausdruck von collectionOperator zu
containsNull
- [SPARK-39989] [SQL] Unterstützt Schätzspaltenstatistiken, wenn es sich um einen faltbaren Ausdruck handelt
- [SPARK-39926] [SQL] Fehler in Spalte DEFAULT-Unterstützung für nicht vektorisierte Parquet-Scans behoben
- [SPARK-40052] [SQL] Behandeln Sie direkte Byte-Puffer in VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Korrigieren Sie den Zielintervalltyp in Cast-Überlauffehlern
- [SPARK-39835][SQL] Fix EliminateSorts entfernt die globale Sortierung unterhalb der lokalen Sortierung
- [SPARK-40002] [SQL] Schieben Sie das Limit nicht durch das Window mit ntile nach unten
- [SPARK-39976] [SQL] ArrayIntersect sollte null im linken Ausdruck korrekt behandeln
- [SPARK-39985] [SQL] Aktivieren Sie implizite DEFAULT-Spaltenwerte in Einfügungen von DataFrames
- [SPARK-39776] [SQL] Die ausführliche JOIN-Zeichenfolge sollte den Join-Typ hinzufügen
- [SPARK-38901] [SQL] DS V2 unterstützt verschiedene Pushdown-Funktionen
- [SPARK-40028] [SQL][FollowUp] Verbessern Sie Beispiele für Zeichenfolgenfunktionen
- [SPARK-39983] [CORE][SQL] Keine nicht serialisierten Broadcast-Beziehungen auf dem Treiber zwischenspeichern
- [SPARK-39812] [SQL] Vereinfachen Sie Code, der
AggregateExpression
mittoAggregateExpression
konstruiert - [SPARK-40028] [SQL] Fügen Sie binäre Beispiele für String-Ausdrücke hinzu
- [SPARK-39981] [SQL] Lösen Sie die Ausnahme QueryExecutionErrors.castingCauseOverflowErrorInTableInsert in Cast aus
- [SPARK-40007] [PYTHON][SQL] Fügen Sie den Funktionen „Modus“ hinzu
- [SPARK-40008] [SQL] Unterstützt die Umwandlung von Integralen in ANSI-Intervalle
- [SPARK-40003] [PYTHON][SQL] „Median“ zu Funktionen hinzufügen
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand sollte die Ergebnisbeziehung zwischenspeichern
- [SPARK-39951] [SQL] Parquet V2-Spaltenüberprüfung für geschachtelte Felder aktualisieren
- [SPARK-33236] [shuffle] Backport zu DBR 11.x: Aktivieren Sie den Push-basierten Shuffle-Dienst, um den Status in der DB auf NM-Ebene zu speichern, um den Neustart zu erhalten
- [SPARK-39836] [SQL] Vereinfachen Sie V2ExpressionBuilder, indem Sie die allgemeine Methode extrahieren.
- [SPARK-39873] [SQL]
OptimizeLimitZero
entfernen und mitEliminateLimits
zusammenführen - [SPARK-39961] [SQL] DS V2-Pushdown-Translate-Cast, wenn die Umwandlung sicher ist
- [SPARK-39872] [SQL] Änderung zur Verwendung von
BytePackerForLong#unpack8Values
mit Array-Eingabe-API inVectorizedDeltaBinaryPackedReader
- [SPARK-39858] [SQL] Entfernen Sie unnötiges
AliasHelper
oderPredicateHelper
für einige Regeln - [SPARK-39900] [SQL] Adressieren eine partielle oder negierte Bedingung im Prädikat-Pushdown des Binärformats
- [SPARK-39904] [SQL] Benennen Sie inferDate in preferredDate um, und klären Sie die Semantik der Option in der CSV-Datenquelle
- [SPARK-39958] [SQL] Fügen Sie ein Warnprotokoll hinzu, wenn das benutzerdefinierte Metrikobjekt nicht geladen werden kann
- [SPARK-39932] [SQL] WindowExec sollte den letzten Partitionspuffer löschen
- [SPARK-37194] [SQL] Vermeiden Sie unnötiges Sortieren beim Schreiben in v1, wenn es sich nicht um eine dynamische Partition handelt
- [SPARK-39902] [SQL] Fügen Sie Scan-Details zum Spark-Plan-Scan-Node in SparkUI hinzu
- [SPARK-39865] [SQL] Zeigen Sie die richtigen Fehlermeldungen zu den Überlauffehlern der Tabelleneinfügung an
- [SPARK-39940] [SS] Katalogtabelle bei Streaming-Abfrage mit DSv1-Senke aktualisieren
- [SPARK-39827] [SQL] Verwenden Sie die Fehlerklasse
ARITHMETIC_OVERFLOW
bei einem int-overflow inadd_months()
- [SPARK-39914] [SQL] DS V2-Filter zur V1-Filterkonvertierung hinzufügen
- [SPARK-39857] [SQL] Manuelle DBR 11.x-Rückportierung; V2ExpressionBuilder verwendet den falschen LiteralValue-Datentyp für In-Prädikat #43454
- [SPARK-39840] [SQL][PYTHON] Faktor PythonArrowInput out als Symmetrie zu PythonArrowOutput
- [SPARK-39651] [SQL] Filterbedingung bereinigen, wenn Vergleich mit Rand deterministisch ist
- [SPARK-39877] [PYTHON] Unpivot zur PySpark DataFrame-API hinzufügen
- [SPARK-39909] [SQL] Organisieren Sie die Prüfung von Pushdown-Informationen für JDBCV2Suite
- [SPARK-39834] [SQL][SS] Schließen Sie die Ursprungsstatistiken und Einschränkungen für LogicalRDD ein, wenn es von DataFrame stammt
- [SPARK-39849] [SQL] Dataset.as(StructType) füllt fehlende neue Spalten mit Nullwerten
- [SPARK-39860] [SQL] Weitere Ausdrücke sollten Prädikat erweitern
- [SPARK-39823] [SQL][PYTHON] Benennen Sie Dataset.as in Dataset.to um, und fügen Sie DataFrame.to in PySpark hinzu
- [SPARK-39918] [SQL][MINOR] Ersetzen Sie in der Fehlermeldung den Wortlaut „nicht vergleichbar“ durch „unvergleichlich“
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder verwendet den falschen LiteralValue-Datentyp für das In-Prädikat
- [SPARK-39862] [SQL] Manueller Backport für PR 43654 für DBR 11.x: Aktualisieren Sie SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS, um ALTER TABLE zuzulassen/zu verweigern … ADD COLUMN-Befehle separat hinzufügen.
- [SPARK-39844] [SQL] Manueller Backport für PR 43652 für DBR 11.x
- [SPARK-39899] [SQL] Korrigieren Sie die Übergabe von Nachrichtenparametern an
InvalidUDFClassException
- [SPARK-39890] [SQL] Lassen Sie TakeOrderedAndProjectExec AliasAwareOutputOrdering erben
- [SPARK-39809] [PYTHON] Unterstützung von CharType in PySpark
- [SPARK-38864] [SQL] Unpivot/Melt zum Dataset hinzufügen
- [SPARK-39864] [SQL] ExecutionListenerBus verzögert registrieren
- [SPARK-39808] [SQL] Aggregatfunktion MODE unterstützen
- [SPARK-39875] [SQL] Ändern Sie die
protected
-Methode in der Final-Klasse inprivate
oderpackage-visible
- [SPARK-39731] [SQL] Beheben eines Problems in CSV- und JSON-Datenquellen beim Analysieren von Daten im Format „jjjjMMtt“ mit der CORRECTED-Zeitparserrichtlinie
- [SPARK-39805] [SS] Veralteter Trigger.Once und Höherstufen von Trigger.AvailableNow
- [SPARK-39784] [SQL] Setzen Sie Literal-Werte auf die rechte Seite des Datenquellenfilters, nachdem Sie den Catalyst-Ausdruck in den Datenquellenfilter übersetzt haben
- [SPARK-39672] [SQL][3.1] Beheben des Entfernens des Projekts vor dem Filtern mit korrelierter Unterabfrage
- [SPARK-39552] [SQL] v1 und v2 vereinheitlichen
DESCRIBE TABLE
- [SPARK-39810] [SQL] Catalog.tableExists sollte geschachtelten Namespace behandeln
- [SPARK-37287] [SQL] Ziehen Sie die dynamische Partition und Bucket-Sortierung aus FileFormatWriter heraus
- [SPARK-39469] [SQL] Datumstyp für CSV-Schemarückschluss ableiten
- [SPARK-39148] [SQL] DS V2-Aggregat-Pushdown kann mit OFFSET oder LIMIT funktionieren
- [SPARK-39818] [SQL] Fehler in ARRAY-, STRUCT-, MAP-Typen mit DEFAULT-Werten mit NULL-Feld(ern) behoben
- [SPARK-39792] [SQL] Hinzufügen von DecimalDivideWithOverflowCheck für den dezimalen Durchschnitt
- [SPARK-39798] [SQL] Ersetze
toSeq.toArray
mit.toArray[Any]
dem Konstruktor vonGenericArrayData
- [SPARK-39759] [SQL] listIndexes in JDBC implementieren (H2-Dialekt)
- [SPARK-39385] [SQL] Unterstützt Pushdown
REGR_AVGX
undREGR_AVGY
- [SPARK-39787] [SQL] Verwenden der Fehlerklasse im Analysefehler der Funktion to_timestamp
- [SPARK-39760] [PYTHON] Unterstützen Varchar in PySpark
- [SPARK-39557] [SQL] Manueller Backport zu DBR 11.x: Unterstützen von ARRAY, STRUKTUR, MAP-Typen als DEFAULT-Werte
- [SPARK-39758] [SQL][3.3] Beheben von NPE aus den Regexp-Funktionen für ungültige Muster
- [SPARK-39749] [SQL] ANSI SQL-Modus: Verwenden einer einfachen String-Darstellung beim Umwandeln von Dezimalzeichen in String
- [SPARK-39704] [SQL] Implementieren von createIndex und dropIndex und indexExists in JDBC (H2-Dialekt)
- [SPARK-39803] [SQL] Verwendung von
LevenshteinDistance
anstelle vonStringUtils.getLevenshteinDistance
- [SPARK-39339] [SQL] Unterstützung des TimestampNTZ-Typs in der JDBC-Datenquelle
- [SPARK-39781] [ SS] Unterstützung für die Bereitstellung von max_open_files für den Statusspeicheranbieter rocksdb hinzugefügt
- [SPARK-39719] [R] Implementieren Sie databaseExists/getDatabase im SparkR-Unterstützung 3L-Namespace
- [SPARK-39751] [SQL] Umbenennen der Hash-Aggregat-Key-Probes-Metrik
- [SPARK-39772] [SQL] Namespace sollte null sein, wenn database in den alten Konstruktoren null ist
- [SPARK-39625] [SPARK-38904][SQL] Hinzufügen von Dataset.as(StructType)
- [SPARK-39384] [SQL] Kompilieren Sie integrierte lineare Regression-Aggregatfunktionen für den JDBC-Dialekt
- [SPARK-39720] [R] Implementieren von tableExists/getTable in SparkR für 3L-Namespace
- [SPARK-39744] [SQL] Fügt die Funktion
REGEXP_INSTR
hinzu - [SPARK-39716] [R] Sorgt dafür, dass currentDatabase/setCurrentDatabase/listCatalogs in SparkR den 3L-Namespace unterstützt wird
- [SPARK-39788] [SQL] Umbenennen
catalogName
indialectName
fürJdbcUtils
- [SPARK-39647] [CORE] Registrieren Sie den Executor bei ESS, bevor Sie den BlockManager registrieren
- [SPARK-39754] [CORE][SQL] Entfernen sie unbenutztes
import
oder unnötiges{}
- [SPARK-39706] [SQL] Festlegen fehlender Spalte mit defaultValue als Konstante in
ParquetColumnVector
- [SPARK-39699] [SQL] Machen Sie CollapseProject intelligenter in Bezug auf Ausdrücke zum Erstellen von Sammlungen
- [SPARK-39737] [SQL]
PERCENTILE_CONT
undPERCENTILE_DISC
sollte den Aggregatfilter unterstützen - [SPARK-39579] [SQL][PYTHON][R] Herstellen der Kompatibilität zwischen ListFunctions/getFunction/functionExists und dem dreischichtigen Namespace
- [SPARK-39627] [SQL] JDBC V2-Pushdown sollte die Kompilier-API vereinheitlichen
- [SPARK-39748] [SQL][SS] Schließen Sie den logischen Ursprungsplan für LogicalRDD ein, wenn er von DataFrame stammt
- [SPARK-39385] [SQL] Aggregatfunktionen der linearen Regression für Pushdown übersetzen
- [SPARK-39695] [SQL] Fügt die
REGEXP_SUBSTR
-Funktion hinzu - [SPARK-39667] [SQL] Fügen Sie eine weitere Problemumgehung hinzu, wenn nicht genügend Arbeitsspeicher zum Erstellen und Übertragen der Tabelle vorhanden ist
- [SPARK-39666] [ES-337834][SQL] Verwenden Sie UnsafeProjection.create, um
spark.sql.codegen.factoryMode
in ExpressionEncoder zu berücksichtigen - [SPARK-39643] [SQL] Unterabfrageausdrücke in DEFAULT-Werten verbieten
- [SPARK-38647] [SQL] SupportsReportOrdering-Mix in Schnittstelle für Scan hinzufügen (DataSourceV2)
- [SPARK-39497] [SQL] Verbessern der Analyseausnahme der fehlenden Kartenschlüsselspalte
- [SPARK-39661] [SQL] Vermeiden Sie die Erstellung unnötiger SLF4J-Logger
- [SPARK-39713] [SQL] ANSI-Modus: Hinzufügen des Vorschlags der Verwendung von try_element_at für den INVALID_ARRAY_INDEX-Fehler
- [SPARK-38899] [SQL]DS V2 unterstützt Pushdown-Datum/Uhrzeit-Funktionen
- [SPARK-39638] [SQL] Verwenden Sie jetzt
ConstantColumnVector
, um Partitionsspalten inOrcColumnarBatchReader
zu speichern - [SPARK-39653] [SQL] Bereinigen
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)
vonColumnVectorUtils
- [SPARK-39231] [SQL] Verwenden Sie
ConstantColumnVector
anstelle vonOn/OffHeapColumnVector
, um Partitionsspalten inVectorizedParquetRecordReader
zu speichern - [SPARK-39547] [SQL] V2SessionCatalog sollte keine NoSuchDatabaseException in loadNamspaceMetadata auslösen
- [SPARK-39447] [SQL] Vermeiden von AssertionError in AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] MISSING_COLUMN überarbeiten
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec sollte die untergeordnete Ausgabereihenfolge berücksichtigen
- [SPARK-39606] [SQL] Verwenden von untergeordneten Statistiken zum Schätzen des Auftragsoperators
- [SPARK-39611] [PYTHON][PS] Beheben sie falsche Aliase in array_ufunc
- [SPARK-39656] [SQL][3.3] Beheben des falschen Namespaces in DescribeNamespaceExec
- [SPARK-39675] [SQL] Schalten Sie die Konfiguration von „spark.sql.codegen.factoryMode“ von Testzwecken auf interne Zwecke um
- [SPARK-39139] [SQL] DS V2 unterstützt Pushdown-DS V2-UDF
- [SPARK-39434] [SQL] Bereitstellen des Abfragekontexts bei Laufzeitfehlern, wenn der Arrayindex außerhalb der Begrenzung liegt
- [SPARK-39479] [SQL] DS V2 unterstützt mathematische Pushdown-Funktionen (nicht ANSI)
- [SPARK-39618] [SQL] Fügt die
REGEXP_COUNT
-Funktion hinzu - [SPARK-39553] [CORE] Multi-Thread Unregister Shuffle sollte NPE nicht auslösen, wenn Scala 2.13 verwendet wird
- [SPARK-38755] [PYTHON][3.3] Datei hinzufügen, um fehlende allgemeine Panda-Funktionen zu adressieren
- [SPARK-39444] [SQL] Fügen Sie OptimizeSubqueries zur nonExcludableRules-Liste hinzu
- [SPARK-39316] [SQL] Führen Sie PromotePrecision und CheckOverflow in dezimaler binärer Arithmetik zusammen
- [SPARK-39505] [UI] Inhalt des Escape-Protokolls wird in der Benutzeroberfläche gerendert
- [SPARK-39448] [SQL] Fügen Sie
ReplaceCTERefWithRepartition
zurnonExcludableRules
-Liste hinzu - [SPARK-37961] [SQL] Überschreiben Sie maxRows/maxRowsPerPartition für einige logische Operatoren
- [SPARK-35223] IssueNavigationLink wiederherstellen
- [SPARK-39633] [SQL] Unterstützt timestamp in Sekunden für TimeTravel mit Dataframe-Optionen
- [SPARK-38796] [SQL] Aktualisieren Sie die Dokumentation für String im Zahlenformat mit den {try_}to_number-Funktionen
- [SPARK-39650] [SS] Korrigieren Sie ein falsches Werteschema bei der Streaming-Deduplizierung mit Abwärtskompatibilität
- [SPARK-39636] [CORE][UI] Mehrere Fehler in JsonProtocol behoben, die sich auf Heap StorageLevels und Task/Executor ResourceRequests auswirken
- [SPARK-39432] [SQL] Gibt ELEMENT_AT_BY_INDEX_ZERO von element_at(*, 0) zurück
- [SPARK-39349] Hinzufügen einer zentralen CheckError-Methode für die Qualitätssicherung des Fehlerpfades
- [SPARK-39453] [SQL] DS V2 unterstützt verschiedene Pushdown-Funktionen ohne Aggregation (nicht ANSI)
- [SPARK-38978] [SQL] DS V2 unterstützt den Pushdown-OFFSET-Operator
- [SPARK-39567] [SQL] Unterstützung von ANSI-Intervallen in den Perzentilfunktionen
- [SPARK-39383] [SQL] Unterstützung von DEFAULT-Spalten in ALTER TABLE ALTER COLUMNS für V2-Datenquellen
- [SPARK-39396] [SQL] LDAP-Anmeldeausnahme „Fehlercode 49 – ungültige Anmeldeinformationen“ beheben
- [SPARK-39548] [SQL] Der CreateView-Befehl mit einer Fensterklauselabfrage traf auf ein Problem mit einer falschen Fensterdefinition, die nicht gefunden wurde
- [SPARK-39575] [AVRO] Hinzufügen von ByteBuffer#rewind nach ByteBuffer#get in AvroDeserializer
- [SPARK-39543] Die Option von DataFrameWriterV2 sollte an die Speichereigenschaften übergeben werden, wenn auf v1 zurückgegriffen wird
- [SPARK-39564] [SS] Stellen Sie die Informationen der Katalogtabelle dem logischen Plan in der Streaming-Abfrage zur Verfügung
- [SPARK-39582] [SQL] Korrigieren Sie die „Seit“-Markierung für
array_agg
- [SPARK-39388] [SQL]
orcSchema
wiederverwenden, wenn Ork-Prädikate heruntergedrückt werden - [SPARK-39511] [SQL] Verbessern Sie das lokale Pushdown-Limit 1 für die rechte Seite des linken Semi-/Anti-Joins, wenn die Join-Bedingung leer ist
- [SPARK-38614] [SQL] Drücken Sie das Limit nicht durch ein Fenster, das percent_rank verwendet
- [SPARK-39551] [SQL] AQE ungültige Planprüfung hinzufügen
- [SPARK-39383] [SQL] Unterstützung von DEFAULT-Spalten in ALTER TABLE ADD COLUMNS zu V2-Datenquellen
- [SPARK-39538] [SQL] Vermeiden Sie die Erstellung unnötiger SLF4J-Logger
- [SPARK-39383] [SQL] Manueller Backport auf DBR 11.x: Überarbeiten Sie die DEFAULT-Spaltenunterstützung, um das Herumreichen des primären Analysators zu überspringen
- [SPARK-39397] [SQL] Relax AliasAwareOutputExpression zur Unterstützung von Alias mit Ausdruck
- [SPARK-39496] [SQL] Behandeln von NULL-Struktur in
Inline.eval
- [SPARK-39545] [ SQL] Überschreiben Sie die
concat
-Methode fürExpressionSet
in Scala 2.13, um die Leistung zu verbessern - [SPARK-39340] [SQL] DS v2 agg Pushdown sollte Punkte im Namen von Spalten der obersten Ebene zulassen
- [SPARK-39488] [SQL] Vereinfachen der Fehlerbehandlung von TempResolvedColumn
- [SPARK-38846] [SQL] Fügen Sie eine explizite Datenzuordnung zwischen Teradata Numeric Type und Spark DecimalType hinzu
- [SPARK-39520] [SQL] Überschreibt die
--
-Methode fürExpressionSet
in Scala 2.13 - [SPARK-39470] [SQL] Unterstützung der Umwandlung von ANSI-Intervallen in Dezimalstellen
- [SPARK-39477] [SQL] Entfernen der Informationen „Anzahl der Abfragen“ aus den goldenen Dateien von SQLQueryTestSuite
- [SPARK-39419] [SQL] ArraySort löst nun eine Ausnahme aus, wenn der Vergleichsoperator null zurückgibt
- [SPARK-39061] [SQL] Nullable für
Inline
Ausgabeattribute richtig setzen - [SPARK-39320] [SQL] Aggregatfunktion
MEDIAN
unterstützen - [SPARK-39261] [CORE] Verbessern Sie die Zeilenumbruchformatierung für Fehlermeldungen
- [SPARK-39355] [SQL] Einzelne Spalte verwendet Anführungszeichen zum Konstruieren von UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE sollte Eigenschaften redigieren
- [SPARK-37623] [SQL] Unterstützt ANSI-Aggregatfunktion: regr_intercept
- [SPARK-39374] [SQL] Verbesserte Fehlermeldung für benutzerdefinierte Spaltenliste
- [SPARK-39255] [SQL][3.3] Verbessern von Fehlermeldungen
- [SPARK-39321] [SQL] Umgestalten von TryCast zur Verwendung von RuntimeReplaceable
- [SPARK-39406] [PYTHON] Akzeptieren das NumPy-Array in createDataFrame
- [SPARK-39267] [SQL] Unnötiges dsl-Symbol bereinigen
- [SPARK-39171] [SQL] Vereinheitlichen des Cast-Ausdrucks
- [SPARK-28330] [SQL] Unterstützt ANSI SQL: Ergebnis-Offset-Klausel im Abfrageausdruck
- [SPARK-39203] [SQL] Tabellenspeicherort basierend auf Datenbank-URI in absolute URI umschreiben
- [SPARK-39313] [SQL]
toCatalystOrdering
sollte fehlschlagen, wenn V2Expression nicht übersetzt werden kann - [SPARK-39301] [SQL][PYTHON] Nutzen Sie LocalRelation und respektieren Sie die Batchgröße von Arrow in createDataFrame mit Arrow-Optimierung
- [SPARK-39400] [SQL] spark-sql sollte in jedem Fall Hive-Ressourcenverzeichnis entfernen
Wartungsupdates
Siehe Wartungsupdates für Databricks Runtime 11.2.
Systemumgebung
- Betriebssystem: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Installierte Python-Bibliotheken
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1.10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
black | 22.3.0 | bleach | 4.0.0 | boto3 | 1.21.18 |
botocore | 1.24.18 | certifi | 2021.10.8 | cffi | 1.14.6 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | Klicken | 8.0.3 |
cryptography | 3.4.8 | cycler | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | decorator | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.5 | distro-info | 0.23ubuntu1 |
entrypoints | 0,3 | facets-overview | 1.0.0 | filelock | 3.8.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
mistune | 0.8.4 | mypy-extensions | 0.4.3 | nbclient | 0.5.3 |
nbconvert | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
Notebook | 6.4.5 | numpy | 1.20.3 | Packen | 21.0 |
Pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 8.4.0 | pip | 21.2.4 |
platformdirs | 2.5.2 | plotly | 5.9.0 | prometheus-client | 0.11.0 |
prompt-toolkit | 3.0.20 | protobuf | 4.21.5 | psutil | 5.8.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
pyodbc | 4.0.31 | pyparsing | 3.0.4 | pyrsistent | 0.18.0 |
python-apt | 2.0.0+ubuntu0.20.4.7 | Python-dateutil | 2.8.2 | pytz | 2021.3 |
pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
sechs | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacity | 8.0.1 | terminado | 0.9.4 | testpath | 0.5.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.0 | typing-extensions | 3.10.0.2 |
unattended-upgrades | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | wheel | 0.37.0 |
widgetsnbextension | 3.6.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme vom 15.08.2022 installiert.
Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | Blob | 1.2.3 | boot | 1.3-28 |
brew | 1.0-7 | brio | 1.1.3 | broom | 1.0.0 |
bslib | 0.4.0 | cachem | 1.0.6 | callr | 3.7.1 |
caret | 6.0-93 | cellranger | 1.1.0 | chron | 2.3-57 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.8.0 | compiler | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | crayon | 1.5.1 | Anmeldeinformationen | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.3 |
DBI | 1.1.3 | dbplyr | 2.2.1 | desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | digest | 0.6.29 |
downlit | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
e1071 | 1.7-11 | ellipsis | 0.3.2 | Evaluieren | 0.16 |
fansi | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
fontawesome | 0.3.0 | forcats | 0.5.1 | foreach | 1.5.2 |
foreign | 0.8-82 | forge | 0.2.0 | fs | 1.5.2 |
future | 1.27.0 | future.apply | 1.9.0 | gargle | 1.2.0 |
generics | 0.1.3 | gert | 1.7.0 | ggplot2 | 3.3.6 |
gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
globals | 0.16.0 | glue | 1.6.2 | googledrive | 2.0.0 |
googlesheets4 | 1.0.1 | gower | 1.0.0 | Grafiken | 4.1.3 |
grDevices | 4.1.3 | grid | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.0 | hardhat | 1.2.0 |
haven | 2.5.0 | highr | 0.9 | hms | 1.1.1 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.3 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | isoband | 0.2.5 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
knitr | 1.39 | labeling | 0.4.2 | later | 1.3.0 |
lattice | 0.20-45 | lava | 1.6.10 | Lebenszyklus | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
markdown | 1.1 | MASS | 7.3-56 | Matrix | 1.4-1 |
memoise | 2.0.1 | methods | 4.1.3 | mgcv | 1.8-40 |
mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
parallel | 4.1.3 | parallelly | 1.32.1 | pillar | 1.8.0 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
praise | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
Fortschritt | 1.2.2 | progressr | 0.10.1 | promises | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-27 | ps | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | readr | 2.1.2 | readxl | 1.4.0 |
recipes | 1.0.1 | rematch | 1.0.1 | rematch2 | 2.1.2 |
remotes | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
rlang | 1.0.4 | rmarkdown | 2.14 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
rversions | 2.1.1 | rvest | 1.0.2 | sass | 0.4.2 |
scales | 1.2.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
shape | 1.4.6 | shiny | 1.7.2 | sourcetools | 0.1.7 |
sparklyr | 1.7.7 | SparkR | 3.3.0 | spatial | 7.3-11 |
splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
stats | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.0 | survival | 3.2-13 | sys | 3.4 |
systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
textshaping | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
tinytex | 0,40 | tools | 4.1.3 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.1.3 | uuid | 1.1-0 | vctrs | 0.4.1 |
viridisLite | 0.4.0 | vroom | 1.5.7 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0,32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
Gruppen-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | Datenstrom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hadoop3 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.5.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | Sammlung | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
mvn | hadoop3 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.9 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.5 |
org.apache.orc | orc-mapreduce | 1.7.5 |
org.apache.orc | orc-shims | 1.7.5 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-encoding | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |