Freigeben über


Databricks Runtime 17.3 LTS

Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.3 LTS, unterstützt von Apache Spark 4.0.0.

Azure Databricks hat diese LTS-Version im Oktober 2025 veröffentlicht.

Neue Features und Verbesserungen

EXECUTE IMMEDIATE Verwenden von Konstantenausdrücken

Sie können jetzt Konstantenausdrücke als SQL-Zeichenfolge und als Argumente an Parametermarkierungen in EXECUTE IMMEDIATE Anweisungen übergeben.

LIMIT ALL Unterstützung für rekursive CTEs

Sie können jetzt die Einschränkung der Gesamtgröße für rekursive allgemeine Tabellenausdrücke (CTEs) mit LIMIT ALL entfernen.

JDK 21 für klassische Rechenleistung (öffentliche Vorschau)

Java Development Kit (JDK) 21 befindet sich in der öffentlichen Vorschau für klassische Rechenumgebung. Informationen zum Aktivieren finden Sie unter Erstellen eines Clusters mit einer bestimmten JDK-Version.

Das Anhängen von Dateien in Unity-Katalog-Volumes gibt den korrekten Fehler zurück.

Jeder Code, der versucht, Inhalte an eine Unity Catalog-Volumedatei anzufügen, schlägt jetzt mit der Fehlermeldung "Unzulässige Suche" fehl. Zuvor trat ein fehlerhafter Fehler auf: „Vorgang nicht unterstützt“.

TABLE Argumentunterstützung für Unity Catalog Python UDTFs

Unity Catalog Python UDTFs unterstützen TABLE jetzt Argumente, sodass Funktionen ganze Tabellen als Eingabeparameter akzeptieren können, was komplexere Datentransformationen und Aggregationen für strukturierte Datasets ermöglicht. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog. Die Tabellenargumentunterstützung wurde auf Databricks Runtime 17.2 zurückportiert.

st_dump Funktionsunterstützung

Sie können nun die st_dump Funktion verwenden, um ein Array abzurufen, das die einzelnen Geometrien der Eingabegeometrie enthält. Siehe st_dump Funktion.

Polygon-Innenringfunktionen werden jetzt unterstützt

Sie können jetzt die folgenden Funktionen verwenden, um mit polygonalen Innenringen zu arbeiten:

  • st_numinteriorrings: Ruft die Anzahl der inneren Begrenzungen (Ringe) eines Polygons ab. Siehe st_numinteriorrings Funktion.
  • st_interiorringn: Extrahieren Sie die n-te innere Begrenzung eines Polygons und geben Sie sie als LineString zurück. Siehe st_interiorringn Funktion.

remote_query Tabellenwertfunktion (öffentliche Vorschau)

Sie können jetzt die remote_query Tabellenwertfunktion verwenden, um Abfragen für Remotedatenbankmodule auszuführen und tabellarische Ergebnisse zurückzugeben. Diese Funktion ruft Daten von Remotesystemen mithilfe von Anmeldeinformationen aus Unity Catalog-Verbindungen ab und unterstützt verschiedene Connectoroptionen für SQL- und NoSQL-Datenbanken. Siehe remote_query Tabellenwertfunktion.

Verhaltensänderungen

input_file_name Funktion wird nicht mehr unterstützt und unterliegt zukünftiger Entfernung

Die input_file_name Funktion ist seit Databricks Runtime 13.3 LTS veraltet, da sie unzuverlässig ist. Die Funktion wird in Databricks Runtime 17.3 LTS und höher nicht mehr unterstützt, da sie unzuverlässig ist. Verwenden Sie stattdessen _metadata.file_name .

Inkrementelle Auflistung des automatischen Ladevorgangs wurde standardmäßig geändert

Die Standardeinstellung für die veraltete Option cloudFiles.useIncrementalListing wurde von auto auf false geändert. Azure Databricks führt jetzt vollständige Verzeichnisauflistungen statt inkrementelle Auflistungen durch, um übersprungene Dateien aufgrund nicht lexikografischer Sortierung zu verhindern. Zum Beispiel kommt 10-01-2025.csv vor 8-01-2025.csv lexikografisch.

Databricks empfiehlt die Migration zu Dateiereignissen für eine schnellere und zuverlässigere Dateientdeckung.

Um das vorherige Verhalten beizubehalten, legen Sie cloudFiles.useIncrementalListing explizit auf auto fest.

Unterstützung von MV/ST-Aktualisierungsinformationen in DESCRIBE EXTENDED AS JSON

Azure Databricks generiert jetzt einen Abschnitt für materialisierte Ansichts- und Streamingtabellenaktualisierungsinformationen in der DESCRIBE EXTENDED AS JSON Ausgabe, einschließlich der letzten Aktualisierungszeit, des Aktualisierungstyps, des Status und des Zeitplans.

Hinzufügen einer Metadatenspalte zu DESCRIBE QUERY und DESCRIBE TABLE

Azure Databricks enthält jetzt eine Metadatenspalte in der Ausgabe von DESCRIBE QUERY und DESCRIBE TABLE für semantische Metadaten.

Bei DESCRIBE QUERY Beschreibung einer Abfrage mit metrischen Ansichten werden die semantischen Metadaten über die Abfrage hinweg propagiert, wenn direkt auf Dimensionen verwiesen wird und Kennzahlen die MEASURE() Funktion nutzen.

Für DESCRIBE TABLE erscheint die Metadaten-Spalte nur bei Metrikansichten, nicht bei anderen Tabellentypen.

Korrektur der Konvertierung zeitlicher Werte in Strukturliteralen im Verbindungsmodus

Im Spark Connect-Modus werden Struct-Literale in TypedLit jetzt korrekt mit temporalen Werten verarbeitet, anstatt Ausnahmen auszulösen. Früher würde der Versuch, zeitliche Werte (z. B. Datums- oder Zeitstempel) in Strukturliteralen zu verwenden, zu einer Ausnahme führen.

Ändern der Dezimalgenauigkeit und Skalierung auf SYSTEM_DEFAULT im Verbindungsmodus.

Bei Verwendung des Spark Connect-Modus in Scala werden dezimale Genauigkeit und Skalierung in Array- und Kartenliteralen jetzt in SYSTEM_DEFAULT (38, 18) geändert. Diese Änderung wirkt sich nur auf den logischen Plan aus (z. B. die Ausgabe des explain() Befehls) und wirkt sich nicht auf abfrageergebnisse aus.

Unterstützung für komplexe Typen in Beobachtungen im Spark Connect Scala-Client

Der Spark Connect Scala-Client unterstützt jetzt Array-, Karten- und Strukturtypen in Beobachtungen, wodurch das Verhalten in Einklang mit dedizierten Clustern gesetzt wird. Bisher würde der Versuch, diese komplexen Typen in Beobachtungen zu verwenden, zu einer Ausnahme führen.

Beibehalten von Nullwerten in Array-, Map- und Strukturliteralen

Im Spark Connect-Modus werden Nullwerte innerhalb von Array-, Karten- und Strukturliteralen beibehalten, anstatt durch Protobuf-Standardwerte ersetzt zu werden. Zuvor wurden Nullwerte fälschlicherweise durch Standardwerte ersetzt, z 0 . B. für ganze Zahlen, leere Zeichenfolgen für Zeichenfolgentypen und false boolesche Typen.

Beibehalten der Nullierbarkeit für typierte Literale

Der Spark Connect Scala-Client behält nun die Nullfähigkeit von Array- und Map-Typen für typisierte Literale korrekt bei. Zuvor wurden Array-Elemente und Map-Werte unabhängig von der tatsächlichen Typdefinition immer als nullable behandelt.

Konvertierung von Case-Klassen in Array- und Map-Literale beheben

Im Spark-Connect-Modus behandeln TypedLit jetzt Array- und Map-Literale korrekt Case-Class-Werte, anstatt Ausnahmen auszulösen. Zuvor würde der Versuch, Fallklassenwerte in Array- oder Kartenliteralen zu verwenden, zu einer Ausnahme führen.

Korrekte Behandlung von Null-Strukturen beim Löschen von NullType Spalten

Beim Schreiben in Delta-Tabellen bewahrt Azure Databricks die NULL-Strukturwerte ordnungsgemäß, wenn NullType-Spalten aus dem Schema entfernt werden. Zuvor wurden Null-Strukturen fälschlicherweise durch Nicht-Null-Strukturwerte ersetzt, bei denen alle Felder auf NULL festgelegt wurden. Das Einfügen eines Null-Strukturwerts würde z. B. später als Struktur mit NULL-Feldern anstelle einer NULL-Struktur gelesen.

Verbesserte Handhabung von Null-Strukturen in Parkett

Azure Databricks erkennt jetzt ordnungsgemäß NULL-Strukturen, wenn alle angeforderten Strukturfelder aus einer Parkettdatei fehlen, wodurch das Verhalten zwischen Photon- und Nicht-Photon-Lesern konsistent ist. Bisher gaben Nicht-Photon-Leser für die gesamte Struktur NULL zurück, anstelle einer Struktur mit NULL-Feldern, wenn beim Lesen von Parquet-Dateien alle angeforderten Felder fehlten, aber andere Felder vorhanden waren.

Aktualisierung der aws-msk-iam-auth-Bibliothek für Kafka

Die aws-msk-iam-auth Bibliothek wurde auf Version 2.0.1 aktualisiert, um das Festlegen eines regionalen Sicherheitstokendienst-Endpunkts (STS) für managed Streaming für Apache Kafka (MSK) IAM-Authentifizierung zu unterstützen. Die neue awsStsRegion Option ist nur verfügbar, wenn die entsprechende Spark-Konfiguration aktiviert ist. Dieses Upgrade führt keine Verhaltensänderungen für vorhandene Workloads ein.

Verbesserungen der Bibliothek

Aktualisierte Python-Bibliotheken:

In dieser Version wurden keine Python-Bibliotheken aktualisiert.

Aktualisierte R-Bibliotheken:

In dieser Version wurden keine R-Bibliotheken aktualisiert.

Aktualisierte Java-Bibliotheken:

In dieser Version wurden keine Java-Bibliotheken aktualisiert.

Apache Spark

Databricks Runtime 17.3 LTS umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Version 17.2 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:

  • SPARK-44856 Änderung rückgängig machen "[SC-195808][python] Verbesserung der Leistung des Python-UDTF-Arrow-Serialisierers"
  • SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Beheben der Behandlung von Nullwerten in LiteralValueProtoConverter
  • SPARK-53507 Signifikante Änderungen als Informationen zu Fehlern hinzufügen
  • SPARK-53574 Behebung des Problems, dass AnalysisContext während der Auflösung geschachtelter Pläne gelöscht wird.
  • SPARK-53444 Rework wird sofort ausgeführt
  • SPARK-53560 Absturzschleifen beim Wiederholen des nicht bestätigten Batches in der Kafka-Quelle und beim AvailableNow-Trigger
  • SPARK-53127 Aktivieren von LIMIT ALL zum Außerkraftsetzen des Grenzwerts für Rekursionszeilen
  • SPARK-53574 Wiederherstellen von "[SC-206548] Korrigieren Sie AnalysisContext, der zurückgesetzt wird..."
  • SPARK-53674 Behandeln von LcAs für den Single Pass Analyzer beim Zuweisen von Aliasen
  • SPARK-53492 Einen zweiten ExecutePlan mit einer Vorgangs-ID ablehnen, die bereits abgeschlossen wurde
  • SPARK-53677 Verbesserung der Debuggierbarkeit von JDBC-Datenquellen, wenn die Abfrage Syntaxfehler enthält
  • SPARK-53490 Korrektur der Protobuf-Konvertierung bei beobachteten Metriken
  • SPARK-53671 Ausschließen von 0-Args aus der Ableitung des @udf Typs "eval"
  • SPARK-53592 Überarbeitung "Vektorisiertes @udf UDF unterstützen"
  • SPARK-53654 Überarbeitung "Unterstützung von Seed in Funktion uuid"
  • SPARK-53429 Unterstützung der Direct Passthrough-Partitionierung in der PySpark Dataframe-API
  • SPARK-53372 Gemeinsames Test-Laufzeitpaket für LDP
  • SPARK-53574 Behebung des Problems, dass AnalysisContext während der Auflösung geschachtelter Pläne gelöscht wird.
  • SPARK-53654 Rückgängig machen von "[SC-207022][sql][PYTHON] Unterstützung von seed in Funktion uuid"
  • SPARK-53574 Rückgängig machen von "[SC-206548] Entfernen von AnalysisContext während der Auflösung geschachtelter Pläne"
  • SPARK-53559 Behebung von HLL-Skizzen-Updates zur Verwendung von rohen Sortierschlüssel-Bytes
  • SPARK-53654 Unterstützung seed in Funktion uuid
  • SPARK-52449 Datentypen für Expression.Literal.Map/Array optional machen
  • SPARK-53574 Behebung des Problems, dass AnalysisContext während der Auflösung geschachtelter Pläne gelöscht wird.
  • SPARK-53625 Metadatenspalten über Projektionen weiterleiten, um die Inkompatibilität von 'ApplyCharTypePadding' zu beheben.
  • SPARK-53558 Wiederherstellen von "[SC-206544][sql] Anzeigen des vollqualifizierten Tabellennamens einschließlich des Katalognamens in der Ausnahmemeldung, wenn die Tabelle nicht gefunden wird"
  • SPARK-53558 Vollqualifizierter Tabellenname einschließlich des Katalognamens in der Ausnahmemeldung anzeigen, wenn die Tabelle nicht gefunden wird
  • SPARK-53357 Aktualisieren pandas auf 2.3.2
  • SPARK-52659Irreführende Modulo-Fehlermeldung im Ansi-Modus
  • SPARK-53592 Wiederherstellen von "[SC-206971][python] Unterstützung @udf vektorisierter UDF"
  • SPARK-53592 Mache @udf Unterstützung für vektorisierte UDF
  • SPARK-52601 Unterstützen von Primitiventypen in TransformingEncoder
  • SPARK-53355 Fix für numpy 1.x repr in Typ-Tests
  • SPARK-53387 Hinzufügen von Unterstützung für Pfeil-UDTFs mit PARTITION BY
  • SPARK-52991 Implementieren MERGE INTO mit SCHEMA EVOLUTION für V2-Datenquelle
  • SPARK-53568 Beheben mehrerer kleiner Fehler in spark Connect Python-Clientfehlerbehandlungslogik
  • SPARK-43579 optimieren: Zwischenspeichern des Konverters zwischen Pfeil und Pandas zur Wiederverwendung
  • SPARK-53524 Behebung der Umwandlung temporärer Werte in LiteralValueProtoConverter
  • SPARK-53600SessionHolder Letzten Zugriffszeitprotokollnachricht überarbeiten
  • SPARK-53529 Korrigiere den pyspark Verbindungsclient zur Unterstützung von IPv6
  • SPARK-53537 Hinzufügen der Unterstützung für die Analyse des CONTINUE-HANDLERs
  • SPARK-53623 Verbesserung der Lesung großer Tabelleneigenschaften für bessere Leistung
  • SPARK-53523 Benannte Parameter respektieren spark.sql.caseSensitive
  • SPARK-53449 Einfache Optionen für integrierte Datenquellenscan-verwandte Klassen
  • SPARK-53620 SparkSubmit sollte stacktrace drucken, wenn exitFn aufgerufen wird
  • SPARK-53518 Keine Abkürzung für catalogString des benutzerdefinierten Typs
  • SPARK-53568 Wiederherstellen von "[SC-206538][connect][PYTHON] Beheben mehrerer kleiner Fehler in Spark Connect Python-Clientfehlerbehandlungslogik"
  • SPARK-53602 Verbesserung des Profil Dumps und Korrektur der Profiler-Dokumentation
  • SPARK-53402 Unterstützung der DIRECT Passthrough Partitioning Dataset-API in Spark Connect in Scala
  • SPARK-53491 Behebung der exponentiellen Formatierung von inputRowsPerSecond und processedRowsPerSecond im Fortschrittsmetriken-JSON
  • SPARK-53413 Bereinigung von Shuffle für Befehle
  • SPARK-53518 Rückgängigmachen von "[SC-205989][sql] Keine Kürzung für catalogString des Benutzerdefinierten Typs"
  • SPARK-53568 Beheben mehrerer kleiner Fehler in spark Connect Python-Clientfehlerbehandlungslogik
  • SPARK-53552 Optimieren der SQL-Funktion des Substr
  • SPARK-53527 Verbesserung des Fallbacks von analyzeExistenceDefaultValue
  • SPARK-53584 Verbesserung der Validierung von process_column_param und der Dokumentation der Spaltenparameter
  • SPARK-53498 Korrekter Verweis pyspark/pipelines/cli.py aus spark-pipelines Binärdatei
  • SPARK-53518 Keine Abkürzung für catalogString des benutzerdefinierten Typs
  • SPARK-53233 Den Code so anpassen, dass der richtige Paketname verwendet wird
  • SPARK-53598 Überprüfen des Vorhandenseins von numParts vor dem Lesen einer großen Tabelleneigenschaft
  • SPARK-53372 SDP End to End Testing Suite
  • SPARK-53563 Optimieren: sql_processor durch Vermeidung ineffizienter Zeichenfolgenverkettung
  • SPARK-53323 Aktivieren von Spark Connect-Tests für df.asTable() in Arrow UDTF
  • SPARK-53157 Entkopplung der Abfrageintervalle von Treiber und Executor
  • SPARK-53555 Korrektur: SparkML-connect kann im Legacy-Modus gespeicherte SparkML-Modelle nicht laden
  • SPARK-53361 Optimieren der JVM-Python-Kommunikation in TWS durch Gruppieren mehrerer Schlüssel in einen Pfeilbatch
  • SPARK-53233 Wiederherstellen von "[SC-203716][sql][SS][mllib][CONNECT] Stellen Sie den Code im Zusammenhang mit streaming der Verwendung des richtigen Paketnamens her"
  • SPARK-53233 Den Code so anpassen, dass der richtige Paketname verwendet wird
  • SPARK-53525 Spark Connect ArrowBatch Ergebnisstückelung
  • SPARK-53444 "[SC-206536][sql] Rework execute immediate" zurücksetzen
  • SPARK-53594 Arrow-UDF anpassen, damit er den vom Benutzer angegebenen Auswertungstyp respektiert
  • SPARK-53444 Rework wird sofort ausgeführt
  • SPARK-53582 Erweitern isExtractable, damit es auf UnresolvedExtractValue angewendet werden kann
  • SPARK-53572 Vermeiden des Auslösens von ExtractValue.isExtractable
  • SPARK-52346 Behebung der Initialisierungs- und Inkrementlogik für Zähler bei Flusswiederholungen
  • SPARK-53561 Unterbrechungsausnahme in TransformWithStateInPySparkStateServer während des outputStream.flush abfangen, um einen Absturz des Arbeiters zu vermeiden
  • SPARK-53512 Bessere Vereinheitlichung von DSv2 PushDownUtils
  • SPARK-53459 Verwenden von ReadOnlySparkConf an weiteren Orten
  • SPARK-53549 Immer den Pfeil-Allocator schließen, wenn der Listenstatusanforderungsprozess abgeschlossen ist
  • SPARK-53332 Aktivieren Sie StateDataSource mit dem Status-Checkpoint v2 (nur die Option snapshotStartBatchId)
  • SPARK-53550 Union-Ausgabepartitionierung sollte kanonische Attribute vergleichen
  • SPARK-53506 Keine Umwandlung % zwischen Dezimalzahl und Fließkommazahl gemäß ANSI zulassen
  • SPARK-52238 Umbenennen des Pipelinespezifikationsfelds "Definitionen" in "Bibliotheken"
  • SPARK-53538ExpandExec sollte die unsicheren Projektionen initialisieren
  • SPARK-53521 Umgestalten eines Starausdrucks
  • SPARK-53358 Verbesserung der Fehlermeldung bei einem Typkonflikt in der Ausgabe von Arrow Python UDTF
  • SPARK-53531 Bessere Fehlermeldung für HadoopRDD.getInputFormat
  • SPARK-53434 Das Get von ColumnarRow sollte auch isNullAt überprüfen
  • SPARK-53008 Hinzufügen der OSS SQL UDF-Datenzugriffsroutineüberprüfung
  • SPARK-44856 Verbesserung der Leistung des Python UDTF Arrow Serializer
  • SPARK-53488 Aktualisieren sie CollationTypeCoercion so, dass sie mit single-pass Analyzer-Logik kompatibel ist.
  • SPARK-53029 Unterstützung der Rückgabetypkoerzierung für Arrow Python UDTFs
  • SPARK-53479 Anpassung des ==-Verhaltens an Pandas beim Vergleich mit Skalaren unter ANSI
  • SPARK-53497 Verboten /|//|* zwischen Dezimalzahl und Gleitkommazahl gemäß ANSI.
  • SPARK-53441 Bools |/&/^ Keiner sollte unter ANSI scheitern
  • SPARK-53474 Conf-DATA_SOURCE_V2_EXPR_FOLDING hinzufügen
  • SPARK-53333 Aktivieren Sie StateDataSource mit Status-Checkpoint v2 (nur readChangeFeed lesen)
  • SPARK-53502 Verbessern der Benennung von Methoden in LiteralValueProtoConverter
  • SPARK-52694 API hinzufügen o.a.s.sql.Encoders#udt
  • SPARK-53499 from_arrow_type muss "containsNull" in "ArrayType" berücksichtigen.
  • SPARK-53515 Entfernen Sie unbenutzte private lazy val aus SchemaOfCsv/Xml
  • SPARK-53480 Refaktorisieren des Arrow-Python-Läufercodes
  • SPARK-53481 Erstellen einer Hybridwarteschlangenklasse
  • SPARK-53401 Aktivieren der Direct Passthrough-Partitionierung in der DataFrame-API
  • SPARK-52930 Verwenden Sie DataType.Array/Map für Array/Map-Literale
  • SPARK-52346 Propagieren von Partitionsspalten des Ziels für BatchTableWrite
  • SPARK-53342 Korrigiere den Arrow-Konverter, um mehrere Datenbatches in einem einzigen IPC-Stream zu verarbeiten.
  • SPARK-53421 Weitergabe der logischen Plan-ID in der SDP-Analyse
  • SPARK-53408 Entfernen nicht verwendeter Funktionen aus QueryCompilationErrors
  • SPARK-53044 Die Aliaskonvention für deklarative Pipelines von "sdp" auf "dp" ändern
  • SPARK-53450 Nullwerte werden unerwartet ausgefüllt, nachdem der Hive-Tabellenscan in eine logische Relation umgewandelt wurde.
  • SPARK-53290 Behebung des Metadatenproblems, das die Abwärtskompatibilität beeinträchtigt
  • SPARK-52982 Lateral Join mit Arrow Python UDTFs verbieten
  • SPARK-52851 Öffentliche APIs für Append-Once-Flows entfernen
  • SPARK-52511 Unterstützung des Trockenlaufmodus im Spark-Pipelines-Befehl
  • SPARK-53290 Rückgängig machen von "[SC-204277][sql][CONNECT] Beheben der Verletzung der Metadaten-Abwärtskompatibilität"
  • SPARK-53290 Behebung des Metadatenproblems, das die Abwärtskompatibilität beeinträchtigt
  • SPARK-52577 Hinzufügen von Tests für declarative Pipelines DatasetManager mit Hive-Katalog
  • SPARK-53012 Unterstützen von Arrow Python UDTF in Spark Connect
  • SPARK-53251 Aktivieren von DataFrame-API-Tests mit asTable() für Arrow Python UDTFs
  • SPARK-52432 Bereich von DataflowGraphRegistry auf Sitzung beschränken
  • SPARK-52853 Verhindern von imperativen PySpark-Methoden in deklarativen Pipelines
  • SPARK-52745 Stellen Sie sicher, dass eine der schema und columns in der Tabellenschnittstelle implementiert ist und columns bevorzugt wird.
  • SPARK-52991 Wiederherstellen von "[SC-204944][sql] Implementieren MERGE INTO mit SCHEMA EVOLUTION für V2-Datenquelle"
  • SPARK-52981 Hinzufügen der Tabellenargumentunterstützung für Arrow Python UDTFs
  • SPARK-53487 Kommentare in NormalizePlan.scala verbessern
  • SPARK-52991 Implementieren MERGE INTO mit SCHEMA EVOLUTION für V2-Datenquelle
  • SPARK-52281 Änderung, dass ALTER TABLE ALTER COLUMN TYPE STRING die Standardsortierung nicht angewendet wird, wenn der ursprüngliche Datentyp eine Instanz von StringType war.
  • SPARK-52759 Ausnahme auslösen, wenn die Pipeline keine Tabellen oder dauerhaften Ansichten enthält
  • SPARK-51575 Kombinieren von Python-Datenquellen-Pushdown- und Planlesemitarbeitern
  • SPARK-53359 Beheben Arrow-UDTF, um die Ergebnisse als Iterator zu behandeln
  • SPARK-52757 Umbenennen des Felds "plan" in DefineFlow in "relation"
  • SPARK-52431 Letzte Anpassungen am Deklarativen Pipeline-Runner
  • SPARK-52591 Validierung der Streaming-Eigenschaften der von SDP-Tabellen und eigenständigen Flussdefinitionen zurückgegebenen DFs
  • SPARK-53030 Unterstützung von Arrow Writer für das Streaming von Python-Datenquellen
  • SPARK-52980 Unterstützung von Arrow Python UDTFs
  • SPARK-42841Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_2005
  • SPARK-52423 Fehlenden Paketnamen für Golang zu pipelines.proto hinzufügen
  • SPARK-52409 Verwenden von PipelineRunEventBuffer nur in Tests
  • SPARK-52533 Unterstützung, die nur Treiberprofiler aktiviert
  • SPARK-52716 Kommentar aus Flow-Trait und -Verweisen entfernen
  • SPARK-52348 Hinzufügen von Unterstützung für Spark Connect-Handler für Pipelinebefehle
  • SPARK-52281 Zurücksetzen der "[SC-198058][sql] Änderung ALTER TABLE ALTER COLUMN TYPE STRING" damit die Standard-Kollation nicht angewendet wird, wenn der ursprüngliche Datentyp eine Instanz von StringType ist
  • SPARK-49386 Speicherbasierte Schwellenwerte für Shuffle-Spill hinzufügen
  • SPARK-52281 Änderung, dass ALTER TABLE ALTER COLUMN TYPE STRING die Standardsortierung nicht angewendet wird, wenn der ursprüngliche Datentyp eine Instanz von StringType war.
  • SPARK-53329 Verbessern der Ausnahmebehandlung beim Hinzufügen von Artefakten
  • SPARK-52772 Wiederherstellen von "[SC-202707][engrm-327][SQL] Inkonsistente Tabellenattributebehandlung während Updates"
  • SPARK-52772 Inkonsistente Tabellenattributebehandlung während aktualisierungen
  • SPARK-51739 Überprüfen des Pfeilschemas von mapInArrow & mapInPandas & DataSource
  • SPARK-53355 testen das Verhalten von Python-UDF-Typen
  • SPARK-53443 Python aktualisieren auf SPDX-license
  • SPARK-49968 Die Split-Funktion erzeugt falsche Ergebnisse mit einem leeren Regex und einem Grenzwert.
  • SPARK-52582 Verbessern der Speicherauslastung des XML-Parsers
  • SPARK-53452from_arrow_type sollte valueContainsNull berücksichtigen
  • SPARK-53103 Revert "[SC-204946][ss] Einen Fehler auslösen, wenn das Statusverzeichnis beim Start der Abfrage nicht leer ist"
  • SPARK-53103 Auslösen eines Fehlers, wenn das Statusverzeichnis beim Starten der Abfrage nicht leer ist
  • SPARK-51575 Wiederherstellen von "[SC-192406][python] Kombinieren von Python-Datenquellen-Pushdown und Planlesemitarbeitern"
  • SPARK-51575 Kombinieren von Python-Datenquellen-Pushdown- und Planlesemitarbeitern
  • SPARK-53095 Unterstützung von HMS v4.1
  • SPARK-53126 Umgestalten SparkErrorUtils#stackTraceToString, um null Eingaben zu verarbeiten und ExceptionUtils#getStackTrace zu ersetzen.
  • SPARK-49489 HMS-Client respektiert hive.thrift.client.maxmessage.size
  • SPARK-53108 Implementieren der time_diff-Funktion in Scala
  • SPARK-45265 Unterstützung für Hive 4.0 Metastore
  • SPARK-53255 Verbot org.apache.parquet.Preconditions
  • SPARK-52142 Anzeigen von Tabelleneinschränkungen in SHOW CREATE TABLE COMMAND
  • SPARK-52875 Vereinfachen der V2-Ausdrucksübersetzung, wenn die Eingabe kontextunabhängig gefaltet werden kann
  • SPARK-53240 Verbot com.google.common.collect.(ArrayList)?Multimap
  • SPARK-52875 Zurücksetzen von "[SC-201880][sql] Vereinfachen der V2-Ausdrucksübersetzung, wenn die Eingabe kontextunabhängig und faltbar ist"
  • SPARK-52141 Anzeigeeinschränkungen in DESC-Befehlen
  • SPARK-53386 Unterstützung für Abfrageparameter, die mit einem Semikolon in JDBC-Connectors enden
  • SPARK-52875 Vereinfachen der V2-Ausdrucksübersetzung, wenn die Eingabe kontextunabhängig gefaltet werden kann
  • SPARK-53437 InterpretedUnsafeProjection wird setNull4Bytes für das Feld des YearMonthIntervalTyp setzen
  • SPARK-53341 Ausbau der Goldstandard-Testabdeckung für multivariable DECLARE
  • SPARK-53156 Nachverfolgen von Treiberspeichermetriken beim Beenden der Anwendung
  • SPARK-52689 DML-Metriken an V2Write senden
  • SPARK-52641 Primärschlüsselspalten dürfen nicht null sein
  • SPARK-48547 Füge eine Opt-in-Flag hinzu, damit SparkSubmit automatisch System.exit aufruft, nachdem die Hauptmethode des Benutzercodes beendet ist.
  • SPARK-52575 Einführung des contextIndependentFoldable-Attributs für Ausdrücke
  • SPARK-52860 Unterstützung der V2-Schreibschema-Evolution in der InMemoryTable
  • SPARK-53435 Racebedingung in CachedRDDBuilder beheben
  • SPARK-51987 DSv2-Ausdrücke in Spaltenstandard beim Schreiben
  • SPARK-52235 Fügen Sie eine implizite Umwandlung zu DefaultValue V2-Ausdrücken hinzu, um sie an DSV2 zu übergeben.
  • SPARK-52236 Standardisieren von Analyse-Ausnahmen für Standardwerte
  • SPARK-53294 Aktivieren Sie StateDataSource mit State-Checkpoint v2 (nur Batch-ID-Option)
  • SPARK-52095 Änderungen an Tabellenspalten zur Übergabe von V2Expression an DSV2
  • SPARK-53415 Einfache Optionen für integrierte FileFormats
  • SPARK-53318 Unterstützung des Zeittyps durch make_timestamp_ltz()
  • SPARK-53143 Behebung des Selbst-Joins in der DataFrame-API - Der Join ist nicht die einzige erwartete Ausgabe des Analyzers.
  • SPARK-53423 Verschieben aller zugehörigen Tags für den Single-Pass-Resolver in ResolverTag
  • SPARK-52116 Ausnahme für nicht deterministische Standardwerte verbessern
  • SPARK-51906 Dsv2-Ausdrücke in ALTER TABLE ADD COLUMNS
  • SPARK-53403 Add-/Sub-Tests unter ANSI verbessern
  • SPARK-53418 Unterstützung von TimeType in ColumnAccessor
  • SPARK-52777 Konfiguration für Shuffle-Bereinigungsmodus in Spark SQL aktivieren
  • SPARK-52485 Deklarative Pipelines-Codebereinigung
  • SPARK-53236 Verwenden Sie Java-Konstruktoren ArrayList anstelle von Lists.newArrayList im Java-Code
  • SPARK-53392 Verschieben der spezialisierten Array-Behandlung zu Connect-common
  • SPARK-53176 Spark-Launcher sollte --load-spark-defaults respektieren.
  • SPARK-53237 Verwenden von Java Base64 anstelle von org.apache.commons.codec.binary.Base64 Instanzen
  • SPARK-53390 Fehler auslösen, wenn Boolesche mit 'None' in Integer unter ANSI umgewandelt werden
  • SPARK-53109 Unterstützung des TIME-Funktionsparameters in make_timestamp_ntz und try_make_timestamp_ntz in Scala
  • SPARK-53393 Deaktivieren des Speicherprofilers für Arrow Scalar Iterator UDFs
  • SPARK-53367 Hinzufügen der Typumwandlung von Int zu Dezimal für Arrow UDFs
  • SPARK-53365 Vereinheitlichung des Codes zum Persistieren von Konfigurationen in Ansichten und UDFs
  • SPARK-53228 Verwenden von Java-Konstruktoren Map anstelle von Maps.new*HashMap()
  • SPARK-53197 Anstelle java.util.Objects#requireNonNull von com.google.common.base.Preconditions#checkNotNull
  • SPARK-53216 Wechseln is*(Blank|Empty) von object SparkStringUtils zu trait SparkStringUtils
  • SPARK-53385 Bewertung der Identifier-Auswertung auslagern
  • SPARK-53384 Umgestalten der Variablenauflösung
  • SPARK-53195 Verwenden von Java InputStream.readNBytes anstelle von ByteStreams.read
  • SPARK-53205 Support von createParentDirs in SparkFileUtils
  • SPARK-53196 Verwenden von Java OutputStream.nullOutputStream anstelle von ByteStreams.nullOutputStream
  • SPARK-53381 Vermeiden Des Erstellens temporärer Sammlungen in toCatalystStruct
  • SPARK-53275 Umgang mit statusbehafteten Ausdrücken beim Anordnen im interpretierten Modus
  • SPARK-51585 Oracle-Dialekt unterstützt Pushdown-Datetime-Funktionen
  • SPARK-53200 Verwenden von Java Files.newInputStream anstelle von Files.asByteSource().openStream()
  • SPARK-53190 Verwenden von Java InputStream.transferTo anstelle von ByteStreams.copy
  • SPARK-53188 Support readFully in SparkStreamUtils und JavaUtils
  • SPARK-53354 Vereinfachen von LiteralValueProtoConverter.toCatalystStruct
  • SPARK-52873 Weiter einschränken, wann die SHJ-Semi-/Anti-Verknüpfung doppelte Schlüssel auf der Build-Seite ignorieren kann
  • SPARK-53180 Verwenden von Java InputStream.skipNBytes anstelle von ByteStreams.skipFully
  • SPARK-53369 Fehlermeldung für UDFs mit CHAR/VARCHAR Rückgabetyp beheben
  • SPARK-53330 Beheben Arrow UDF mit DayTimeIntervalType (Grenzen != Anfang/Ende)
  • SPARK-53366 Anwenden von Formatierungsregeln auf sql/connect/shims
  • SPARK-53348 Beim Erstellen einer Ansicht immer den ANSI-Wert speichern oder annehmen, falls er nicht gespeichert wird.
  • SPARK-53119 Unterstützung touch in SparkFileUtils
  • SPARK-52592 Unterstützung beim Erstellen einer PS. Serie von ps. Reihe
  • SPARK-53360 Die Strategie im Zusammenhang mit der Idempotenz von ConstantFolding sollte nicht gebrochen werden
  • SPARK-53135 Support copyURLToFile in SparkFileUtils und JavaUtils
  • SPARK-53150 Verbessern list(File|Path)s um nicht existierende, nicht Verzeichnis und Symlink-Eingaben zu behandeln.
  • SPARK-53135 Rückgängig machen "[SC-203164][core][SQL] Support copyURLToFile in SparkFileUtils und JavaUtils"
  • SPARK-53137 Support forceDeleteOnExit in SparkFileUtils und JavaUtils
  • SPARK-53352 Verfeinern der Fehlermeldung für den nicht unterstützten Rückgabetyp
  • SPARK-53353 Fehler bei Skalarem Iterator Arrow UDF mit 0-Argumenten
  • SPARK-53135 Support copyURLToFile in SparkFileUtils und JavaUtils
  • SPARK-53101 Unterstützung (left|right)Pad in SparkStringUtils
  • SPARK-53117 Support moveDirectory in SparkFileUtils und JavaUtils
  • SPARK-53121 Anstelle deleteRecursively von FileUtils.forceDelete
  • SPARK-53100 Verwenden von Java String.substring anstelle von StringUtils.substring
  • SPARK-53092 Verbot org.apache.commons.lang3.SystemUtils
  • SPARK-53328 Verbessern der Debuggierbarkeit für SparkML-connect
  • SPARK-52065 Erstellen einer weiteren Planstruktur mit Ausgabespalten (Name, Datentyp, Nullierbarkeit) in der Planänderungsprotokollierung
  • SPARK-51182 DataFrameWriter sollte dataPathNotSpecifiedError auslösen, wenn der Pfad nicht angegeben ist.
  • SPARK-52410 Als veraltet markieren PipelineConf und SqlConf direkt verwenden
  • SPARK-52852 Nicht verwendete spark_conf in create_streaming_table entfernen
  • SPARK-52714 Nicht verwendete Kommentarargumente in append_flow Dekorateur entfernen
  • SPARK-52663 Einführung eines Namensfelds zur Pipelinespezifikation
  • SPARK-53091 Verbot org.apache.commons.lang3.Strings
  • SPARK-52393 Registrierung von SQL-Graph-Pipeline-Elementen
  • SPARK-52912SparkStringUtils verbessern, um is(Not)?(Blank|Empty) zu unterstützen
  • SPARK-53307 Entfernen des Fehlers "RetriesExceededed" aus Spark Connect Python- und Scala-Clients
  • SPARK-52346 Deklarative Pipelineausführung DataflowGraph und Ereignisprotokollierung
  • SPARK-52877 Verbessern der Leistung von Python-UDF-Pfeil serialisierer
  • SPARK-51920 Behebung von zusammengesetzten/verschachtelten Typen im Wertzustand für Python TWS
  • SPARK-52741 RemoveFiles ShuffleCleanup-Modus funktioniert nicht mit nicht adaptiver Ausführung
  • SPARK-52238 Python-Client für deklarative Pipelines
  • SPARK-51926 Hinzufügen der Fehlerklasse INVALID_CONF_VALUE.subXXX zu Konfigurationsfehlern.
  • SPARK-53155 Globale niedrigere Agggregation sollte nicht durch ein Projekt ersetzt werden
  • SPARK-52911 Verwendung von StringUtils.(split|chop) entfernen
  • SPARK-51926 Rückgängig gemacht: "[SC-195096][core][SQL] INVALID_CONF_VALUE.subXXX-Fehlerklasse zu Konfigurationsfehlern hinzugefügt"
  • SPARK-53346 Erstellen temporärer Sammlungen in toCatalystArray/toCatalystMap vermeiden
  • SPARK-51926 Hinzufügen der Fehlerklasse INVALID_CONF_VALUE.subXXX zu Konfigurationsfehlern.
  • SPARK-53136 tryWithResource & tryInitializeResource sollte die Ressource stillschweigend schließen.
  • SPARK-53132 Support list(File|Path)s in SparkFileUtils und JavaUtils
  • SPARK-51896 Java Enum-Unterstützung für "TypedConfigBuilder" hinzufügen
  • SPARK-53311 PullOutNonDeterministic auf kanonische Ausdrücke umstellen
  • SPARK-51527 Konfigurieren der Codegen-Protokollebene über SQLConf
  • SPARK-52223 Hinzufügen von SDP Spark Connect Protos
  • SPARK-52283 Erstellung und Auflösung deklarativer Pipelines DataflowGraph
  • SPARK-52880 Verbessern toString durch JEP-280 anstelle von ToStringBuilder
  • SPARK-53284 Anpassung der Importe von Spark-Konfiguration in Tests
  • SPARK-53050 Aktivieren von MultiIndex.to_series() zum Zurückgeben der Struktur für jeden Eintrag
  • SPARK-52988 Behebung von Race Conditions bei CREATE TABLE und Funktion, wenn IF NOT EXISTS verwendet wird
  • SPARK-52874 Unterstützung von Java Record o.a.s.util.Pair
  • SPARK-52710DESCRIBE SCHEMA Sollte Kollation ausgeben
  • SPARK-49984 Beheben supplementJava(Module|IPv6)Options um extraJavaOptions nur zu aktualisieren

Azure Databricks ODBC/JDBC-TREIBERunterstützung

Azure Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).

Wartungsupdates

Siehe Databricks Runtime Wartungsupdates.

Systemumgebung

  • Betriebssystem: Ubuntu 24.04.3 LTS
  • Java: Zulu17.58+21-CA
  • Skala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Installierte Python-Bibliotheken

Bibliothek Version Bibliothek Version Bibliothek Version
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 Pfeil 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 Attrs 24.3.0
autocommand 2.2.2 azure-common 1.1.28 Azure Core 1.34.0
Azure-Identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 Azure-Speicher-Datei-Datensee 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 schwarz 24.10.0
Bleichmittel 6.2.0 Blinker 1.7.0 boto3 1.36.2
Botocore 1.36.3 CacheWerkzeuge 5.5.1 Zertifikat 2025.1.31
cffi 1.17.1 Chardet 4.0.0 Charset-Normalizer 3.3.2
klicken 8.1.7 cloudpickle 3.0.0 Kommunikation 0.2.1
Contourpy 1.3.1 Kryptographie 43.0.3 Fahrradfahrer 0.11.0
Cython 3.0.12 Databricks-SDK 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 Dekorateur 5.1.1 defusedxml 0.7.1
Deprecated 1.2.13 Distlib 0.3.9 Docstring zu Markdown 0.11
ausführen 0.8.3 Übersicht der Facetten 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 Dateisperrung 3.18.0 fonttools 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
Google Cloud Core 2.4.3 Google Cloud-Speicher 3.1.0 google-crc32c 1.7.1
google-resumable-media 2.7.2 googleapis-common-protos 1.65.0 GRPCIO 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-Spezifikationen 2023.7.1 Jupyter-Ereignisse 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-Erweiterungen 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
Notebook 7.3.2 Notebook-Shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) 0.53b1 overrides 7.4.0 Verpackung 24,2
Pandas 2.2.3 Pandocfilter 1.5.0 Parso 0.8.4
pathspec 0.10.3 patsy 1.0.1 pexpect 4.8.0
Kissen 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 plugin-fähig 1.5.0 prometheus_client 0.21.0
Prompt-Toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 Pyasn1 0.4.8
Pyasn1-Module 0.2.8 pyccolo 0.0.71 pycparser 2.21
Pydantisch 2.10.6 pydantic_core 2.27.2 Pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 Python-LSP-Server 1.12.0
pytoolconfig 1.2.6 Pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 referenzierung 0.30.2 requests 2.32.3
rfc3339-Prüfer 0.1.4 rfc3986-validator 0.1.1 rich 13.9.4
Seil 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 SciPy 1.15.1
Seegeboren 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
Sechs 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortierte Container 2.4.0 Sieb für Suppe 2,5 sqlparse 0.5.3
ssh-import-id 5.11 Stapeldaten 0.2.0 Starlet 0.46.2
StatistikModelle 0.14.4 strictyaml 1.7.3 Hartnäckigkeit 9.0.0
terminado 0.17.1 Threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 Tornado 6.4.2
traitlets 5.14.3 Typwächter 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unbeaufsichtigte Aktualisierungen 0,1 URI-Vorlage 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolors 24.11.1 Webkodierungen 0.5.1
WebSocket-Client 1.8.0 Was ist neu im Patch 1.0.2 Rad 0.45.1
widgetsnbextension 3.6.6 Eingehüllt 1.17.0 yapf 0.40.2
zipp 3.21.0

Installierte R-Bibliotheken

R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.

Bibliothek Version Bibliothek Version Bibliothek Version
Pfeil 19.0.1 Askpass 1.2.1 prüfen, dass 0.2.1
backports 1.5.0 Basis 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 Bit64 4.6.0-1
bitops 1.0-9 Klumpen 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 Besen 1.0.7
bslib 0.9.0 cachem 1.1.0 callr 3.7.6
Caret 7.0-1 CellRanger 1.1.0 Chron 2.3-62
class 7.3-22 cli 3.6.5 clipr 0.8.0
clock 0.7.2 Gruppe 2.1.6 Codetools 0.2-20
Farbraum 2.1-1 Commonmark 1.9.5 Kompilierer 4.4.2
config 0.3.2 conflicted 1.2.0 cpp11 0.5.2
Buntstift 1.5.3 Zugangsdaten 2.0.2 cURL 6.4.0
data.table 1.17.0 Datensätze 4.4.2 DBI 1.2.3
dbplyr 2.5.0 Beschreibung 1.4.3 devtools 2.4.5
Diagramm 1.6.5 diffobj 0.3.5 verdauen 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 Ellipse 0.3.2 auswerten 1.0.3
Fans 1.0.6 farver 2.1.2 fastmap 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
Fremd 0.8-86 schmieden 0.2.0 fs 1.6.5
Zukunft 1.34.0 future.apply 1.11.3 gargle 1.5.2
Generika 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 Klebstoff 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
Graphik 4.4.2 grGeräte 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0.7 GT 0.11.1
g-Tabelle 0.3.6 Schutzhelm 1.4.1 Hafen 2.5.4
highr 0.11 hms 1.1.3 HTML-Werkzeuge 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 Ausweise 1.0.1 ini 0.3.1
IPRED 0.9-15 Isobande 0.2.7 iterators 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 Knitr 1.50 Etikettierung 0.4.3
later 1.4.1 lattice 0.22-5 lava 1.8.1
Lebenszyklus 1.0.4 „listenv“ 0.9.1 Schmiermittel 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memoise 2.0.1 Methodik 4.4.2
mgcv 1.9-1 Mime-Kunst 0,13 miniUI 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 Modellierer 0.1.11
munsell 0.5.1 nlme 3.1-164 NNET 7.3-19
numDeriv 2016.8 bis 1.1 OpenSSL 2.3.3 parallel 4.4.2
parallel dazu 1.42.0 Säule 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 loben 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Prozessx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 Fortschritt 1.2.3
progressr 0.15.1 Versprechungen 1.3.2 proto 1.0.0
Stellvertreter 0.4-27 P.S. 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 randomForest 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 reaktivierbar 0.4.4
reactR 0.6.1 READR 2.1.5 readxl (Softwarepaket zum Lesen von Excel-Dateien) 1.4.5
Rezepte 1.2.0 Rückspiel 2.0.0 Rückspiel2 2.1.2
fernbedienungen 2.5.0 reprex 2.1.1 Umform2 1.4.4
rlang 1.1.6 RMarkdown 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 RVEST 1.0.4 Sass 0.4.9
scales 1.3.0 selectr 0.4-2 Sitzungsinformationen 1.2.3
Gestalt 1.4.6.1 glänzend 1.10.0 sourcetools 0.1.7-1
Sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statistiken 4.4.2 Statistiken4 4.4.2
Stringi 1.8.7 stringr 1.5.1 Überleben 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 Textgestaltung 1.0.0
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 Zeitumstellung 0.3.0 timeDate 4041.110
tinytex 0.56 Werkzeuge 4.4.2 Zeitzonendatenbank (tzdb) 0.5.0
URL-Prüfer 1.0.1 Nutze dies 3.1.0 utf8 1.2.6
utils 4.4.2 Universelle eindeutige Kennung (UUID) 1.2-1 V8 6.0.2
VCTRS 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 Withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 YAML-Dateiformat 2.3.10 zeallot 0.1.0
zip 2.3.2

Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)

Gruppen-ID Artefakt-ID Version
antlr antlr 2.7.7
com.amazonaws Amazon-Kinesis-Client 1.12.0
com.amazonaws AWS Java SDK für Auto Scaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch (Cloud-Suchdienst) 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws AWS-Java-SDK-Config 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-Protokolle 1.12.638
com.amazonaws aws-java-sdk-machinelearning (Maschinelles Lernen) 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws aws-java-sdk-Support (Unterstützung für AWS Java SDK) 1.12.638
com.amazonaws AWS-Java-SDK-SWF-Bibliotheken 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics Datenstrom 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks Jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml Klassenkamerad 1.5.1
com.fasterxml.jackson.core Jackson-Anmerkungen 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core Jackson-Datenbindung 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine Koffein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil Jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-Einheimische
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-Einheimische
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-Einheimische
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-Einheimische
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone fehleranfällige Annotationen 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava Guave 33.4.0-jre
com.google.guava hörbareZukunft 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf (Datenkompression mit LZF-Algorithmus) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
Commons-Dateihochladen Commons-Dateihochladen 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift Luftkompressor 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics Metrikanmerkung 4.2.30
io.dropwizard.metrics metrics-core 4.2.30
io.dropwizard.metrics Metrics-Graphit 4.2.30
io.dropwizard.metrics metrics-healthchecks 4.2.30
io.dropwizard.metrics Metrics-Jetty9 4.2.30
io.dropwizard.metrics Metrics-JMX 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics Metrik-Servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty Netty Codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty Netty-Resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-Klassen 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx Sammler 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation Aktivierung 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction Transaktions-API 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine Gurke 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.Schneeflocke snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr stringtemplate 3.2.1
org.apache.ant Ameise 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant-launcher 1.10.11
org.apache.arrow Pfeilformat 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow Arrow-Memory-Netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow Pfeil-Vektor 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-Text 1.13.0
org.apache.curator Kurator-Klient 5.7.1
org.apache.curator curator-framework 5.7.1
org.apache.curator Rezepte des Kurators 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop Hadoop-Client-Laufzeit 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-Client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims Hive-Shims-Scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc ORC-Format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc Orc-Shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper Tierpfleger 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Jetty-Client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty Jetty-HTTP 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty-Plus 9.4.53.v20231009
org.eclipse.jetty Jetty-Proxy 9.4.53.v20231009
org.eclipse.jetty Jetty-Sicherheit 9.4.53.v20231009
org.eclipse.jetty Jetty Server 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty Jetty-Util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty-Webanwendung 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Client 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-Server 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-Ortungssystem 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-neu verpackt 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator hibernate-validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anmerkungen 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt Testoberfläche 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest ScalaTest-kompatibel 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
Oro Oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Tipp

Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.