Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Hinweis
Die Unterstützung für diese Databricks-Runtime-Version wurde beendet. Das Support-Enddatum finden Sie in der Supporthistorie. Eine Übersicht aller unterstützten Databricks Runtime-Versionen finden Sie unter Versionshinweise und Kompatibilität von Databricks Runtime.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 11.3 LTS, unterstützt von Apache Spark 3.3.0. Databricks hat diese Version im Oktober 2022 veröffentlicht.
Hinweis
LTS bedeutet, dass diese Version langfristig unterstützt wird. Siehe Databricks Runtime LTS-Versionslebenszyklus.
Verhaltensänderungen
[Bahnbrechende Änderung] Für die neue Python-Version ist das Aktualisieren von Databricks Connect V1 Python-Clients erforderlich.
Hinweis
Ein nachfolgendes Update verschiebt die Python-Version in Databricks Runtime 11.3 LTS auf 3.9.21. Die Version 3.9.21 führt keine Verhaltensänderungen ein.
Um erforderliche Sicherheitspatches anzuwenden, wird die Python-Version in Databricks Runtime 11.3 LTS von 3.9.5 auf 3.9.19 aktualisiert. Da diese Änderungen möglicherweise Fehler in Clients verursachen, die bestimmte PySpark-Funktionen verwenden, müssen alle Clients, die Databricks Connect V1 für Python mit Databricks Runtime 11.3 LTS verwenden, auf Python 3.9.7 oder höher aktualisiert werden.
Neue Features und Verbesserungen
- Python hat von 3.9.19 auf 3.9.21 aktualisiert
- Die einmalige Trigger-Funktion von Structured Streaming ist abgekündigt
- Ändern des Quellpfads für das automatische Laden
- Databricks Kinesis Connector unterstützt jetzt das Lesen von Kinesis-Datenströmen im EFO-Modus.
- Neue H3-Geospatialfunktionen und hinzugefügte Photon-Unterstützung für alle H3-Funktionen
- Neue Funktionen für Predictive I/O
- Erhöhen der anfänglichen Partitionen für die Suche nach selektiven Abfragen
- Visualisierung neuer AQE-Planversionen
- Neue asynchrone Statusverfolgungs- und Protokollbereinigungsmodi
-
Strukturiertes Streaming im Unity-Katalog unterstützt jetzt
display() - Pipelineereignisse werden jetzt im JSON-Format protokolliert.
- Beliebige zustandsbehaftete Verarbeitung im strukturierten Streaming mit Python
- Datumsreferenz in CSV-Dateien
- Klonunterstützung für Apache Parquet- und Apache Iceberg-Tabellen (Öffentliche Vorschau)
- Verwenden von SQL zum Angeben von Speicherorten auf Schema- und Katalogebene für verwaltete Unity Catalog-Tabellen
Python hat von 3.9.19 auf 3.9.21 aktualisiert
Die Python-Version in Databricks Runtime 11.3 LTS wird von 3.9.19 auf 3.9.21 aktualisiert.
Der "Trigger Once" für strukturiertes Streaming ist als veraltet markiert.
Die Trigger.Once Einstellung ist veraltet. Databricks empfiehlt die Nutzung von Trigger.AvailableNow. Weitere Informationen finden Sie unter Konfigurieren von Triggerintervallen für strukturiertes Streaming.
Ändern des Quellpfads für das automatische Laden
Sie können jetzt den Verzeichniseingabepfad für das automatische Ladeprogramm ändern, das mit dem Verzeichnislistenmodus konfiguriert ist, ohne ein neues Prüfpunktverzeichnis auswählen zu müssen. Weitere Informationen finden Sie unter Ändern des Quellpfads für das automatische Laden.
Databricks Kinesis Connector unterstützt jetzt das Lesen von Kinesis-Datenströmen im EFO-Modus.
Sie können jetzt die Databricks Kinesis strukturierte Streaming-Quelle in Databricks Runtime 11.3 LTS verwenden, um Abfragen zu erstellen, die von Kinesis-Datenstreams im erweiterten Fanout-Modus gelesen werden. Dies ermöglicht den dedizierten Durchsatz pro Shard, pro Consumer und Datensatzübermittlung im Pushmodus.
Neue H3-Geospatialfunktionen und hinzugefügte Photon-Unterstützung für alle H3-Funktionen
Einführung in 4 neue H3-Funktionen, h3_maxchild, , h3_minchild, h3_pointash3und h3_pointash3string. Diese Funktionen sind in SQL, Scala und Python verfügbar. Alle H3-Ausdrücke werden jetzt in Photon unterstützt. Siehe H3-Geospatialfunktionen.
Neue Funktionen für Predictive I/O
Photon unterstützt den Bereichsmodus für die Ausführung von Frames mithilfe von RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Photon unterstützt auch den Bereichsmodus für wachsende Frames mithilfe von RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.
Erhöhen der anfänglichen Partitionen zum Abtasten gezielter Abfragen
Der Wert der anfänglichen Partitionen, die gescannt werden sollen, wurde für selektive Abfragen mit take/tail/limit in Photon-fähigen Clustern und LIMIT in Databricks SQL auf 10 erhöht. Mit 10 Partitionen können Sie den Aufwand des Startens mehrerer kleiner Aufträge und einer langsamen Skalierung vermeiden. Sie können dies auch über spark.sql.limit.selectiveInitialNumPartitions.
Visualisierung neuer AQE-Planversionen
Einführung von AQE-Planversionen, mit denen Sie Ihre Laufzeitplan-Updates aus der adaptiven Abfrageausführung (AQE) visualisieren können.
Neue asynchrone Statusverfolgungs- und Protokollbereinigungsmodi
Einführung in strukturierte Streamingmodi, die als asynchrone Statusnachverfolgung und asynchrones Löschen von Protokollen bezeichnet werden. Der asynchrone Protokolllöschmodus verringert die Latenz von Streamingabfragen, indem Protokolle entfernt werden, die für die Statusnachverfolgung im Hintergrund verwendet werden.
Strukturiertes Streaming im Unity-Katalog unterstützt jetzt display()
Sie können jetzt verwenden display() , wenn Sie strukturiertes Streaming verwenden, um mit Tabellen zu arbeiten, die im Unity-Katalog registriert sind.
Pipelineereignisse werden jetzt im JSON-Format protokolliert.
Azure Databricks schreibt nun Pipeline-Ereignisse in das Treiberprotokoll im JSON-Format. Obwohl jedes Ereignis JSON-analysefähig ist, enthalten große Ereignisse möglicherweise nicht alle Felder, oder die Felder werden abgeschnitten. Jedes Ereignis wird in einer einzelnen Zeile mit dem Präfix Event received: protokolliert. Im Folgenden sehen Sie ein Beispielereignis.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Beliebige zustandsbehaftete Verarbeitung im strukturierten Streaming mit Python
Einführung der applyInPandasWithState Funktion, die verwendet werden kann, um eine beliebige zustandsbehaftete Verarbeitung in PySpark durchzuführen. Dies entspricht der flatMapGroupsWithState Funktion in der Java-API.
Datumsreferenz in CSV-Dateien
Einführung einer verbesserten Ableitung von Datumstypspalten in CSV-Dateien. Wenn das Datumsformat für die Datensätze für eine Spalte konsistent ist, können diese Spalten als DateTypeabgeleitet werden. Sie können auch eine Kombination aus Datumsformaten über verschiedene Spalten hinweg haben. Azure Databricks kann das Datumsformat für jede Spalte automatisch ableiten. Datumsspalten in CSV-Dateien vor Databricks Runtime 11.3 LTS bleiben erhalten als StringType.
Klonunterstützung für Apache-Parkett- und Apache Iceberg-Tische (Public Preview)
Clone kann jetzt verwendet werden, um Delta-Tabellen zu erstellen und inkrementell zu aktualisieren, die Apache Parquet- und Apache Iceberg-Tabellen spiegeln. Sie können ihre Quell-Parketttabelle aktualisieren und die Änderungen mit dem Klonbefehl inkrementell auf die geklonte Delta-Tabelle anwenden. Siehe Inkrementelles Klonen von Parquet- und Apache Iceberg-Tabellen auf Delta Lake.
Verwenden von SQL zum Angeben von Speicherorten auf Schema- und Katalogebene für verwaltete Tabellen im Unity-Katalog
Sie können nun den MANAGED LOCATION SQL-Befehl verwenden, um einen Cloudspeicherort für verwaltete Tabellen auf Katalog- und Schemaebene anzugeben. Siehe CREATE CATALOG und CREATE SCHEMA.
Verhaltensänderungen
Databricks Connect 11.3.2
Databricks Connect-Clientupdate 11.3.2 wird jetzt unterstützt. Siehe Databricks Connect und Versionshinweise zu Databricks Connect.
Azure Databricks Snowflake Connector aktualisiert
Der Azure Databricks Snowflake Connector wurde auf die neueste Codeversion aus dem Open-Source-Repository Snowflake Data Source für Apache Spark aktualisiert. Es ist jetzt vollständig kompatibel mit Databricks Runtime 11.3 LTS, einschließlich Prädikat-Pushdown und interner Abfrageplan-Pushdown, während alle Features der Open-Source-Version beibehalten werden.
Hadoop-Cache für S3A ist jetzt deaktiviert
Der Hadoop-Cache (FileSystem Apache Hadoop Main 3.3.4 API) für S3A ist jetzt deaktiviert. Dies dient der Angleichung an andere Cloud-Speicher-Konnektoren. Stellen Sie bei Workloads, die auf Dateisystem-Caching angewiesen sind, sicher, dass neu erstellte Dateisysteme mit den richtigen Hadoop-Konfigurationen bereitgestellt werden, einschließlich Zugangsdatenanbietern.
Das Schema der Delta Lake-Statistikensammlung entspricht jetzt der Spaltenreihenfolge in der Tabellenschema-Definition.
Diese Änderung behebt einen Fehler im Delta Lake-Protokoll, bei dem Statistiken aufgrund einer Diskrepanz in der Datenframe- und Tabellenspaltenreihenfolge nicht für Spalten gesammelt wurden. In einigen Fällen kann es vorkommen, dass aufgrund einer Statistikerhebung für zuvor nicht nachverfolgte Felder Leistungseinbußen auftreten. Weitere Informationen finden Sie unter Überspringen von Daten für Delta Lake.
applyInPandasWithState löst einen Fehler aus, wenn nach dem Operator eine Shuffle-Abfrage vorhanden ist.
Der Operator applyInPandasWithState löst einen Fehler aus, wenn die Abfrage shuffle nach dem Operator enthält. Dies geschieht, wenn der Benutzer shuffle nach dem Vorgang hinzufügt oder der Optimierer oder die Senke shuffle implizit hinzufügt.
Verbesserungen der Bibliothek
- Aktualisierte Python-Bibliotheken:
- distlib von 0.3.5 bis 0.3.6
- Aktualisierte R-Bibliotheken:
- broom von 1.0.0 auf 1.0.1
- Callr von 3.7.1 bis 3.7.2
- dplyr von 1.0.9 bis 1.0.10
- dtplyr von 1.2.1 bis 1.2.2
- forcats von Version 0.5.1 auf Version 0.5.2
- Zukunft von 1.27.0 bis 1.28.0
- future.apply von 1.9.0 bis 1.9.1
- gert von 1.7.0 bis 1.8.0
- Globals von 0.16.0 auf 0.16.1
- Update von gtable von 0.3.0 auf 0.3.1
- haven von 2.5.0 bis 2.5.1
- hms von 1.1.1 bis 1.1.2
- httr von 1.4.3 bis 1.4.4
- knitr von 1.39 bis 1.40
- modelr von Version 0.1.8 auf Version 0.1.9
- Säule von 1.8.0 bis 1.8.1
- progressr von 0.10.1 auf 0.11.0
- readxl von 1.4.0 bis 1.4.1
- Reprex von Version 2.0.1 auf 2.0.2
- rlang von 1.0.4 bis 1.0.5
- rmarkdown von Version 2.14 auf 2.16
- RSQLite von 2.2.15 bis 2.2.16
- rstudioapi von 0.13 bis 0.14
- rversions von 2.1.1 auf 2.1.2
- rvest von Version 1.0.2 auf Version 1.0.3
- skaliert von 1.2.0 auf 1.2.1
- sparklyr von 1.7.7 bis 1.7.8
- stringr von Version 1.4.0 bis Version 1.4.1
- Überleben von 3.2-13 bis 3.4-0
- Tinytex von 0,40 bis 0,41
- viridisLite von 0.4.0 bis 0.4.1
- Aktualisierte Java-Bibliotheken:
- com.fasterxml.jackson.core.jackson-annotations von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.core.jackson-core von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.core.jackson-databind von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer von 2.13.3 bis 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 von 2.13.3 bis 2.13.4
- org.apache.hadoop.hadoop-client-api von 3.3.2-databricks bis 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime von 3.3.2 bis 3.3.4
- org.apache.orc.orc-core von 1.7.5 bis 1.7.6
- org.apache.orc.orc-mapreduce von 1.7.5 bis 1.7.6
- org.apache.orc.orc-shims von 1.7.5 bis 1.7.6
- org.apache.parquet.parquet-column von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
- org.apache.parquet.parquet-common von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson von 1.12.0-databricks-0004 bis 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet von 2.34 bis 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core von 2.34 bis 2.36
- org.glassfish.jersey.core.jersey-client von 2.34 bis 2.36
- org.glassfish.jersey.core.jersey-common von 2.34 bis 2.36
- org.glassfish.jersey.core.jersey-server von 2.34 bis 2.36
- org.glassfish.jersey.inject.jersey-hk2 von 2.34 bis 2.36
Apache Spark
Databricks Runtime 11.3 LTS umfasst Apache Spark 3.3.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 11.2 (EoS) enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- [SPARK-39957][WARMFIX][sc-111425][CORE] Verzögerung bei "onDisconnected", damit der Treiber den ExecutorExitCode empfangen kann.
- [SPARK-39955] [WARMFIX][sc-111424][CORE] Verbessern des LaunchTask-Prozesses, um Phasenfehler zu vermeiden, die durch fehlzuschickende LaunchTask-Nachrichten verursacht werden
- [SPARK-40474] [SC-106248][cherry-pick] Korrigieren des CSV-Schemaableitungsverhaltens für Datumsspalten und Einführen der automatischen Erkennung für Datumsfelder
- [SPARK-40535] [SC-111243][sql] Behebung des Fehlers, dass der Puffer von AggregatingAccumulator nicht erstellt wird, wenn die Eingabezeilen leer sind
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][PYTHON] Implement applyInPandasWithState in PySpark
-
[SPARK-40460] [ SC-110832][ss] Beheben von Streamingmetriken beim Auswählen
_metadata -
[SPARK-40324] [ SC-109943][sql] Bereitstellen eines Abfragekontexts von
ParseException - [SPARK-40466] [SC-110899][ss] Verbessern Sie die Fehlermeldung, wenn DSv2 deaktiviert ist, während DSv1 nicht verfügbar ist.
- [SPARK-40456] [SC-110848][sql] PartitionIterator.hasNext sollte günstig sein, wenn es wiederholt aufgerufen wird
- [SPARK-40169] [SC-110772][sql] Parquet-Filter ohne Bezug zum Datenschema nicht pushen
- [SPARK-40467] [SC-110759][ss] Split FlatMapGroupsWithState auf mehrere Test-Suites aufteilen
- [SPARK-40468] [SC-110813][sql] Behebung des Zuschnitts von Spalten in CSV, wenn _corrupt_record ausgewählt ist
- [SPARK-40291] [SC-110085][sql] Verbesserung der Fehlermeldung für Spalten, die nicht in der GROUP BY-Klausel enthalten sind
- [SPARK-40398] [SC-110762][core][SQL] Verwenden Sie "Loop" anstelle der Arrays.stream-API.
- [SPARK-40433] [SC-110684][ss][PYTHON] Funktion zuJVMRow zu PythonSQLUtils hinzufügen, um eine gepickelte PySpark Row in eine JVM Row zu konvertieren
- [SPARK-40414] [SC-110568][SQL][PYTHON] Allgemeinerer Typ für PythonArrowInput und PythonArrowOutput
- [SPARK-40352] [SC-109945][sql] Hinzufügen von Funktionsaliasen: len, datepart, dateadd, date_diff und curdate
- [SPARK-40470] [SC-110761][sql] Handle GetArrayStructFields und GetMapValue in der Funktion "arrays_zip"
- [SPARK-40387] [ SC-110685][sql] Verbessern der Implementierung von Spark Decimal
- [SPARK-40429] [SC-110675][sql] Legt KeyGroupedPartitioning nur fest, wenn sich die spalte, auf die verwiesen wird, in der Ausgabe befindet.
- [SPARK-40432] [SC-110716][PYTHON] Einführen von GroupStateImpl und GroupStateTimeout in PySpark
- [SPARK-39915] [SC-110496][sql] Stellen Sie sicher, dass die Ausgabepartitionierung in AQE vom Benutzer angegeben ist.
-
[SPARK-29260] [SQL] Unterstützung, falls HMS unterstützt wird
ALTER DATABASE SET LOCATION - [SPARK-40185] [SC-110056][sql] Spaltenvorschlag entfernen, wenn die Kandidatenliste leer ist
- [SPARK-40362] [SC-110401][sql] Beheben der Kanonisierung von BinaryComparison
- [SPARK-40411] [SC-110381][ss] Refactor FlatMapGroupsWithStateExec für eine übergeordnete Eigenschaft
- [SPARK-40293] [SC-110084][sql] Machen Sie die V2-Tabellenfehlermeldung aussagekräftiger
-
[SPARK-38734] [SC-110383][sql] Entfernen der Fehlerklasse
INDEX_OUT_OF_BOUNDS - [SPARK-40292] [SC-110300][sql] Beheben von Spaltennamen in der Funktion "arrays_zip" beim Verweisen auf Arrays aus geschachtelten Strukturen
- [SPARK-40276] [SC-109674][core] Größe des Ergebnisses von RDD.takeOrdered verringern
- [SPARK-40197] [SC-109176][sql] Ersetzen des Abfrageplans durch Kontext für MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrieren zur
DATATYPE_MISMATCHFehlerklasse - [SPARK-40149] [SC-110055][sql] Verteilen von Metadatenspalten über Project
- [SPARK-40280] [SC-110146][sql] Fügen Sie Unterstützung für Parkettschub nach unten für kommentierte Int und long hinzu
- [SPARK-40220] [SC-110143][sc-109175][SQL] Geben Sie die leere Map der Fehlermeldungsparameter nicht aus.
- [SPARK-40295] [SC-110070][sql] Zulassen von v2-Funktionen mit Literalargumenten bei der Schreibverteilung/-sortierung
-
[SPARK-40156] [SC-109264][sql]
url_decode()sollte eine Fehlerklasse zurückgeben - [SPARK-39195] [ SQL] Spark OutputCommitCoordinator sollte das Stadium abbrechen, wenn die zugesicherte Datei nicht mit dem Vorgangsstatus übereinstimmt.
- [SPARK-40260] [SC-109424][sql] Verwenden von Fehlerklassen in den Kompilierungsfehlern GROUP BY einer Position
- [SPARK-40205] [ SC-110144][sc-109082][SQL] Geben Sie einen Abfragekontext für ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [ SC-109676][sql] Verbessern der funktion TO_BINARY()
- [SPARK-40209] [SC-109081][sql] Ändern Sie den Intervallwert von Decimal bei Fehlern nicht.
- [SPARK-40319] [SC-109873][sql] Entfernen duplizierter Abfrageausführungsfehlermethode für PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Numerische try_add/try_divide/try_subtract/try_multiply sollte fehler von ihren untergeordneten Elementen auslösen
- [SPARK-40183] [SC-108907][sql] Verwenden der Fehlerklasse NUMERIC_VALUE_OUT_OF_RANGE für den Überlauf bei der Umwandlung in Dezimalzahlen
-
[SPARK-40180] [ SC-109069][sql] Fehlermeldungen formatieren durch
spark-sql - [SPARK-40153] [SC-109165][sql] Vereinheitlichung der Resolvierfunktionen und tabellenwertigen Funktionen
-
[SPARK-40308] [SC-109880][sql] Nicht faltenbare Trennzeichenargumente für die
str_to_map-Funktion zulassen - [SPARK-40219] [SC-110052][sc-109663][SQL] Logischer Plan für aufgelöste Ansicht sollte das Schema enthalten, um redundante Suche zu vermeiden
- [SPARK-40098] [SC-109939][sc-108693][SQL] Formatieren von Fehlermeldungen im Thrift Server
- [SPARK-39917] [SC-109038][sql] Verwendung verschiedener Fehlerklassen für numerischen Überlauf/Intervallüberläufe
- [SPARK-40033] [SC-109875][sql] Geschachtelte Schemabereinigungsunterstützung durch element_at
- [SPARK-40194] [SC-109660][sql] SPLIT-Funktion für leere regex sollte nachfolgende leere Zeichenfolge abschneiden.
- [SPARK-40228] [SC-109835][sql] Vereinfachen Sie multiLike nicht, wenn das untergeordnete Element kein günstiger Ausdruck ist.
- [SPARK-40039] [SC-109896][sc-109260][SS] Einführung eines auf der Abortable-Schnittstelle von Hadoop basierenden Streaming-Checkpoint-Dateimanagers
-
[SPARK-40285] [SC-109679][sql] Vereinfachung des
roundTo[Numeric]für SparkDecimal - [SPARK-39896] [SC-109658][sql] UnwrapCastInBinaryComparison sollte funktionieren, wenn das Literal von In/InSet-Downcast fehlgeschlagen ist.
- [SPARK-40040] [SC-109662][sql] Lokale Grenze an beide Seiten pushen, wenn die Verknüpfungsbedingung leer ist
- [SPARK-40055] [SC-109075][sql] listCatalogs sollten auch spark_catalog zurückgeben, auch wenn spark_catalog Implementierung defaultSessionCatalog ist.
- [SPARK-39915] [SC-109391][sql] Dataset.repartition(N) erstellt möglicherweise keine N-Partitionen, die nicht AQE-Teil sind
- [SPARK-40207] [SC-109401][sql] Geben Sie den Spaltennamen an, wenn der Datentyp von der Datenquelle nicht unterstützt wird.
- [SPARK-40245] [SC-109295][sql] Korrektur der Gleichheitsprüfung von FileScan, wenn Partitions- oder Datenfilterspalten nicht gelesen werden
- [SPARK-40113] [SC-109405][sql] Reactor ParquetScanBuilder DataSourceV2-Schnittstellenimplementierungen
- [SPARK-40211] [SC-109226][core][SQL] Ermöglicht die Anpassung der anfänglichen Partitionsanzahl im Verhalten der take()-Funktion.
-
[SPARK-40252] [ SC-109379][sql] Ersetzen
Stream.collect(Collectors.joining)durchStringJoinerAPI - [SPARK-40247] [SC-109272][sql] Korrigieren der BitSet-Gleichheitsprüfung
- [SPARK-40067] [ SQL] Verwenden Sie Table#name() anstelle von Scan#name(), um den Tabellennamen im BatchScan-Knoten in SparkUI zu befüllen.
- [SPARK-39966] [ SQL] V2-Filter in SupportsDelete verwenden
- [SPARK-39607] [SC-109268][sql][DSV2] Verteilung und Sortierung unterstützen V2-Funktion schriftlich
- [SPARK-40224] [SC-109271][sql] Make ObjectHashAggregateExec gibt Arbeitsspeicher eifrig frei, wenn Fallback auf sortierbasierte Weise ausgeführt wird
- [SPARK-40013] [SQL] DS V2-Ausdrücke sollten den Standardwert verwenden.
- [SPARK-40214] [SC-109079][python][SQL] Hinzufügen von "Get" zu Funktionen
- [SPARK-40192] [SC-109089][sql][ML] Redundante Groupby entfernen
- [SPARK-40146] [SC-108694][sql] Einfach der Codegen zum Abrufen des Kartenwerts
- [SPARK-40109] [SQL] Neue SQL-Funktion : get()
- [SPARK-39929] [ SQL] DS V2 unterstützt Pushdown-Zeichenfolgenfunktionen (nicht ANSI)
- [SPARK-39819] [SQL] DS V2-Aggregat-Pushdown kann mit Top-N oder Paging (Sortieren mit Ausdrücken) arbeiten.
- [SPARK-40213] [SC-109077][sql] Unterstützung der ASCII-Wertkonvertierung für Latin-1-Zeichen
- [SPARK-39887] [SQL] RemoveRedundantAliases soll Aliase beibehalten, die die Ausgabe von Projektionsknoten eindeutig machen
- [SPARK-39764] [SQL] Vereinheitlichen Sie PhysicalOperation mit ScanOperation
- [SPARK-39964] [ SQL] DS V2-Pushdown sollte den Übersetzungspfad vereinheitlichen
- [SPARK-39528] [ SQL] Verwenden des V2-Filters in SupportsRuntimeFiltering
- [SPARK-40066] [SQL] ANSI-Modus: Immer NULL bei ungültigem Zugriff auf eine Map-Spalte zurückgeben.
[SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl - [SPARK-39833] [SC-108736][sql] Deaktivieren Sie den Parquet-Spaltenindex in DSv1, um ein Problem bei der Korrektheit im Falle überlappender Partitionen und Datenspalten zu beheben.
- [SPARK-39880] [SQL] V2-Befehl SHOW FUNCTIONS sollte qualifizierten Funktionsnamen wie v1 drucken
- [SPARK-39767] [SQL] Entfernen UnresolvedDBObjectName und Hinzufügen von UnresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] feat: SparkSession.config(Karte)
- [SPARK-40136] [SQL] Fragment von SQL-Abfragekontexten beheben
- [SPARK-40107] [SC-108689][sql] Herausziehen der empty2null-Konvertierung aus FileFormatWriter
- [SPARK-40121] [PYTHON][sql] Initialisierung der Projektion für Python UDF
- [SPARK-40128] [SQL] Den VectorizedColumnReader so anpassen, dass er DELTA_LENGTH_BYTE_ARRAY als eigenständige Spaltenkodierung erkennt.
- [SPARK-40132] [ ML] RawPredictionCol in MultilayerPerceptronClassifier.setParams wiederherstellen
-
[SPARK-40050] [ SC-108696][sql] Erweitern
EliminateSorts, um das Entfernen von Sortierungen durchLocalLimitzu unterstützen. - [SPARK-39629] [SQL] Support v2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Hinzufügen der Funktion 'array_sort(column, comparator)' als Überladung in DataFrame-Operationen.
- [SPARK-40117] [PYTHON][sql] Bedingung in Java in DataFrameWriterV2.overwrite konvertieren
- [SPARK-40105] [SQL] Verbesserung der Repartitionierung in ReplaceCTERefWithRepartition
- [SPARK-39503] [ SQL] Hinzufügen des Sitzungskatalognamens für v1-Datenbanktabelle und -funktion
- [SPARK-39889] [SQL] Verwenden Sie unterschiedliche Fehlerklassen für numerische Werte/Intervalle, die durch 0 geteilt werden.
- [SPARK-39741] [ SQL] Unterstützung der URL-Codierung/Decodierung als integrierte Funktion und Bereinigung der URL-bezogenen Funktionen
- [SPARK-40102] [ SQL] Verwenden Von SparkException anstelle von IllegalStateException in SparkPlan
- [SPARK-40014] [ SQL] Unterstützung für die Umwandlung von Dezimalzahlen in ANSI-Intervalle
- [SPARK-39776] [SQL][Fortsetzung] Aktualisierung des Unit-Tests von PlanStabilitySuite im ANSI-Modus
-
[SPARK-39963] [SQL] Vereinfachen
SimplifyCasts.isWiderCast
Wartungsupdates
Siehe Databricks Runtime 11.3 Wartungsupdates.
Systemumgebung
-
Betriebssystem: Ubuntu 20.04.5 LTS
- Hinweis: Dies ist die Ubuntu-Version, die von den Databricks-Runtime-Containern verwendet wird. Die DBR-Container werden auf den virtuellen Computern des Cloudanbieters ausgeführt, die möglicherweise eine andere Ubuntu-Version oder Linux-Verteilung verwenden.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.21
- R: 4.1.3
- Delta Lake: 2.1.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| argon2-cffi | 20.1.0 | asynchroner Generator | 1.10 | Attrs | 21.2.0 |
| Backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 | schwarz | 22.3.0 |
| Bleichmittel | 4.0.0 | boto3 | 1.21.18 | Botocore | 1.24.18 |
| Zertifikat | 2021.10.8 | cffi | 1.14.6 | Chardet | 4.0.0 |
| Charset-Normalizer | 2.0.4 | klicken | 8.0.3 | Kryptographie | 3.4.8 |
| Fahrradfahrer | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
| debugpy | 1.4.1 | Dekorateur | 5.1.0 | defusedxml | 0.7.1 |
| Distlib | 0.3.6 | Einstiegspunkte | 0,3 | Übersicht der Facetten | 1.0.0 |
| Dateisperrung | 3.8.0 | idna | 3.2 | ipykernel | 6.12.1 |
| ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
| Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jsonschema | 3.2.0 | Jupyter-Client | 6.1.12 |
| jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
| kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
| matplotlib-inline | 0.1.2 | mistune | 0.8.4 | mypy-Erweiterungen | 0.4.3 |
| nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | Notebook | 6.4.5 | numpy | 1.20.3 |
| Verpackung | 21.0 | Pandas | 1.3.4 | Pandocfilter | 1.4.3 |
| Parso | 0.8.2 | pathspec | 0.9.0 | patsy | 0.5.2 |
| pexpect | 4.8.0 | Pickleshare | 0.7.5 | Kissen | 8.4.0 |
| pip | 21.2.4 | platformdirs | 2.5.2 | plotly | 5.9.0 |
| prometheus-client | 0.11.0 | Prompt-Toolkit | 3.0.20 | protobuf | 4.21.5 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
| PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
| Pyristent | 0.18.0 | Python-dateutil | 2.8.2 | Pytz | 2021.3 |
| pyzmq | 22.2.1 | requests | 2.26.0 | requests-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-learn | 0.24.2 | SciPy | 1.7.1 |
| Seegeboren | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
| Sechs | 1.16.0 | ssh-import-id | 5.10 | StatistikModelle | 0.12.2 |
| Hartnäckigkeit | 8.0.1 | terminado | 0.9.4 | Testpfad | 0.5.0 |
| Threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| Tornado | 6.1 | traitlets | 5.1.0 | Erweiterungen für Typisierung | 3.10.0.2 |
| unbeaufsichtigte Aktualisierungen | 0,1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| wcwidth | 0.2.5 | Webkodierungen | 0.5.1 | Rad | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Microsoft CRAN-Momentaufnahme am 2022-09-08 installiert. Die Momentaufnahme ist nicht mehr verfügbar.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Askpass | 1.1 | prüfen, dass | 0.2.1 | backports | 1.4.1 |
| Basis | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
| Bit64 | 4.0.5 | Klumpen | 1.2.3 | boot | 1.3-28 |
| brew | 1.0-7 | brio | 1.1.3 | Besen | 1.0.1 |
| bslib | 0.4.0 | cachem | 1.0.6 | callr | 3.7.2 |
| Caret | 6.0-93 | CellRanger | 1.1.0 | Chron | 2.3-57 |
| class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
| Gruppe | 2.1.3 | Codetools | 0.2-18 | Farbraum | 2.0-3 |
| Commonmark | 1.8.0 | Kompilierer | 4.1.3 | config | 0.3.1 |
| cpp11 | 0.4.2 | Buntstift | 1.5.1 | Zugangsdaten | 1.3.2 |
| cURL | 4.3.2 | data.table | 1.14.2 | Datensätze | 4.1.3 |
| DBI | 1.1.3 | dbplyr | 2.2.1 | Beschreibung | 1.4.1 |
| devtools | 2.4.4 | diffobj | 0.3.5 | verdauen | 0.6.29 |
| downlit | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
| e1071 | 1.7-11 | Ellipse | 0.3.2 | auswerten | 0.16 |
| Fans | 1.0.3 | farver | 2.1.1 | fastmap | 1.1.0 |
| fontawesome | 0.3.0 | forcats | 0.5.2 | foreach | 1.5.2 |
| Fremd | 0.8-82 | schmieden | 0.2.0 | fs | 1.5.2 |
| Zukunft | 1.28.0 | future.apply | 1.9.1 | gargle | 1.2.0 |
| Generika | 0.1.3 | gert | 1.8.0 | ggplot2 | 3.3.6 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| globals | 0.16.1 | Klebstoff | 1.6.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.1 | gower | 1.0.0 | Graphik | 4.1.3 |
| grGeräte | 4.1.3 | grid | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0.7 | g-Tabelle | 0.3.1 | Schutzhelm | 1.2.0 |
| Hafen | 2.5.1 | highr | 0.9 | hms | 1.1.2 |
| HTML-Werkzeuge | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
| httr | 1.4.4 | Ausweise | 1.0.1 | ini | 0.3.1 |
| IPRED | 0.9-13 | Isobande | 0.2.5 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| Knitr | 1.40 | Etikettierung | 0.4.2 | later | 1.3.0 |
| lattice | 0.20-45 | lava | 1.6.10 | Lebenszyklus | 1.0.1 |
| „listenv“ | 0.8.0 | Schmiermittel | 1.8.0 | magrittr | 2.0.3 |
| markdown | 1.1 | MASS | 7.3-56 | Matrix | 1.4-1 |
| memoise | 2.0.1 | Methodik | 4.1.3 | mgcv | 1.8-40 |
| Mime-Kunst | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
| Modellierer | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
| NNET | 7.3-17 | numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.0.2 |
| parallel | 4.1.3 | parallel dazu | 1.32.1 | Säule | 1.8.1 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
| loben | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| Prozessx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
| Fortschritt | 1.2.2 | progressr | 0.11.0 | Versprechungen | 1.2.0.1 |
| proto | 1.0.0 | Stellvertreter | 0.4-27 | P.S. | 1.7.1 |
| purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | READR | 2.1.2 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.1 |
| Rezepte | 1.0.1 | Rückspiel | 1.0.1 | Rückspiel2 | 2.1.2 |
| fernbedienungen | 2.4.2 | reprex | 2.0.2 | Umform2 | 1.4.4 |
| rlang | 1.0.5 | RMarkdown | 2.16 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0.14 |
| rversions | 2.1.2 | RVEST | 1.0.3 | Sass | 0.4.2 |
| scales | 1.2.1 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.2 |
| Gestalt | 1.4.6 | glänzend | 1.7.2 | sourcetools | 0.1.7 |
| Sparklyr | 1.7.8 | SparkR | 3.3.0 | spatial | 7.3-11 |
| splines | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statistiken | 4.1.3 | Statistiken4 | 4.1.3 | Stringi | 1.7.8 |
| stringr | 1.4.1 | Überleben | 3.4-0 | sys | 3.4 |
| systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
| Textgestaltung | 0.3.6 | Tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | timeDate | 4021.104 |
| tinytex | 0,41 | Werkzeuge | 4.1.3 | Zeitzonendatenbank (tzdb) | 0.3.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 2.1.6 | utf8 | 1.2.2 |
| utils | 4.1.3 | Universelle eindeutige Kennung (UUID) | 1.1-0 | VCTRS | 0.4.1 |
| viridisLite | 0.4.1 | vroom | 1.5.7 | Waldo | 0.4.0 |
| whisker | 0.4 | Withr | 2.5.0 | xfun | 0,32 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| YAML-Dateiformat | 2.3.5 | zip | 2.2.0 |
Installierte Java- und Scala-Bibliotheken (Scala 2.12-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | AWS Java SDK für Auto Scaling | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.189 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | Datenstrom | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.3.4 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.13.4 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.caffeine | Koffein | 2.3.4 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | Kern | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | Guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | Bonecp | 0.8.0.RELEASE |
| com.lihaoyi | Quellcode_2.12 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | linsen_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 0,21 |
| io.delta | delta-sharing-spark_2.12 | 0.5.1 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | Metrics-Graphit | 4.1.1 |
| io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | Metrik-Servlets | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | Netty Codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | Netty-Resolver | 4.1.74.Final |
| io.netty | netty-tcnative-Klassen | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | Sammler | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.Schneeflocke | Snowflake-JDBC | 3.13.14 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | Pfeilformat | 7.0.0 |
| org.apache.arrow | arrow-memory-core | 7.0.0 |
| org.apache.arrow | Arrow-Memory-Netty | 7.0.0 |
| org.apache.arrow | Pfeil-Vektor | 7.0.0 |
| org.apache.avro | avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.9 |
| org.apache.curator | Kurator-Klient | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | Rezepte des Kurators | 2.13.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-Client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | ivy | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | Orc-Shims | 1.7.6 |
| org.apache.parkett | parquet-column | 1.12.0-databricks-0007 |
| org.apache.parkett | parquet-common | 1.12.0-databricks-0007 |
| org.apache.parkett | Parquet-Kodierung | 1.12.0-databricks-0007 |
| org.apache.parkett | parquet-format-structures | 1.12.0-databricks-0007 |
| org.apache.parkett | parquet-hadoop | 1.12.0-databricks-0007 |
| org.apache.parkett | parquet-jackson | 1.12.0-databricks-0007 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | audience-annotations | 0.5.0 |
| org.apache.zookeeper | Tierpfleger | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-ASL | 1.9.13 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Plus | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty Server | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
| org.glassfish.jersey.core | jersey-client | 2,36 |
| org.glassfish.jersey.core | jersey-common | 2,36 |
| org.glassfish.jersey.core | jersey-server | 2,36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.aspx | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | Klemmstücke | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | ungenutzt | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | Katzen-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |