Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.3 LTS, unterstützt von Apache Spark 4.0.0.
Azure Databricks hat diese LTS-Version im Oktober 2025 veröffentlicht.
Neue Features und Verbesserungen
-
EXECUTE IMMEDIATEVerwenden von Konstantenausdrücken -
LIMIT ALLUnterstützung für rekursive CTEs - JDK 21 für klassische Rechenleistung (öffentliche Vorschau)
- Das Anhängen von Dateien in Unity Catalog-Volumes gibt die korrekte Fehlermeldung zurück.
- TABLE Argumentunterstützung für Unity Catalog Python UDTFs
-
st_dumpFunktionsunterstützung - Polygon-Innenringfunktionen werden jetzt unterstützt
-
remote_queryTabellenwertfunktion (öffentliche Vorschau)
EXECUTE IMMEDIATE Verwenden von Konstantenausdrücken
Sie können jetzt Konstantenausdrücke als SQL-Zeichenfolge und als Argumente an Parametermarkierungen in EXECUTE IMMEDIATE Anweisungen übergeben.
LIMIT ALL Unterstützung für rekursive CTEs
Sie können jetzt die Einschränkung der Gesamtgröße für rekursive allgemeine Tabellenausdrücke (CTEs) mit LIMIT ALL entfernen.
JDK 21 für klassische Rechenleistung (öffentliche Vorschau)
Java Development Kit (JDK) 21 befindet sich in der öffentlichen Vorschau für klassische Rechenumgebung. Informationen zum Aktivieren finden Sie unter Erstellen eines Clusters mit einer bestimmten JDK-Version.
Das Anhängen von Dateien in Unity-Katalog-Volumes gibt den korrekten Fehler zurück.
Jeder Code, der versucht, Inhalte an eine Unity Catalog-Volumedatei anzufügen, schlägt jetzt mit der Fehlermeldung "Unzulässige Suche" fehl. Zuvor trat ein fehlerhafter Fehler auf: „Vorgang nicht unterstützt“.
TABLE Argumentunterstützung für Unity Catalog Python UDTFs
Unity Catalog Python UDTFs unterstützen TABLE jetzt Argumente, sodass Funktionen ganze Tabellen als Eingabeparameter akzeptieren können, was komplexere Datentransformationen und Aggregationen für strukturierte Datasets ermöglicht. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog. Die Tabellenargumentunterstützung wurde auf Databricks Runtime 17.2 zurückportiert.
st_dump Funktionsunterstützung
Sie können nun die st_dump Funktion verwenden, um ein Array abzurufen, das die einzelnen Geometrien der Eingabegeometrie enthält. Siehe st_dump Funktion.
Polygon-Innenringfunktionen werden jetzt unterstützt
Sie können jetzt die folgenden Funktionen verwenden, um mit polygonalen Innenringen zu arbeiten:
-
st_numinteriorrings: Ruft die Anzahl der inneren Begrenzungen (Ringe) eines Polygons ab. Siehest_numinteriorringsFunktion. -
st_interiorringn: Extrahieren Sie die n-te innere Begrenzung eines Polygons und geben Sie sie als LineString zurück. Siehest_interiorringnFunktion.
remote_query Tabellenwertfunktion (öffentliche Vorschau)
Sie können jetzt die remote_query Tabellenwertfunktion verwenden, um Abfragen für Remotedatenbankmodule auszuführen und tabellarische Ergebnisse zurückzugeben. Diese Funktion ruft Daten von Remotesystemen mithilfe von Anmeldeinformationen aus Unity Catalog-Verbindungen ab und unterstützt verschiedene Connectoroptionen für SQL- und NoSQL-Datenbanken. Siehe remote_query Tabellenwertfunktion.
Verhaltensänderungen
-
input_file_nameFunktion wird nicht mehr unterstützt und unterliegt zukünftiger Entfernung - Der Standard für die inkrementelle Auflistung des Auto Loaders wurde geändert
-
Unterstützung von MV/ST-Aktualisierungsinformationen in
DESCRIBE EXTENDED AS JSON -
Hinzufügen einer Metadatenspalte zu
DESCRIBE QUERYundDESCRIBE TABLE - Die Konvertierung von Zeitwerten in Strukturliteralen im Connect-Modus beheben
-
Ändern der Dezimalgenauigkeit und Skalierung im
SYSTEM_DEFAULTVerbindungsmodus - Unterstützung für komplexe Typen in Beobachtungen im Spark Connect Scala-Client
- Nullwerte in Array-, Map- und Strukturliteralen beibehalten
- Beibehalten der Nullierbarkeit für typierte Literale
- Konvertierung von Case-Klassen in Array- und Map-Literalen beheben
-
Korrekte Behandlung von Null-Structs beim Entfernen von
NullTypeSpalten - Verbesserte Handhabung von Null-Strukturen in Parkett
-
Bibliothek-Upgrade
aws-msk-iam-authfür Kafka
input_file_name Funktion wird nicht mehr unterstützt und unterliegt zukünftiger Entfernung
Die input_file_name Funktion ist seit Databricks Runtime 13.3 LTS veraltet, da sie unzuverlässig ist.
Die Funktion wird in Databricks Runtime 17.3 LTS und höher nicht mehr unterstützt, da sie unzuverlässig ist.
Verwenden Sie stattdessen _metadata.file_name .
Inkrementelle Auflistung des automatischen Ladevorgangs wurde standardmäßig geändert
Die Standardeinstellung für die veraltete Option cloudFiles.useIncrementalListing wurde von auto auf false geändert. Azure Databricks führt jetzt vollständige Verzeichnisauflistungen statt inkrementelle Auflistungen durch, um übersprungene Dateien aufgrund nicht lexikografischer Sortierung zu verhindern. Zum Beispiel kommt 10-01-2025.csv vor 8-01-2025.csv lexikografisch.
Databricks empfiehlt die Migration zu Dateiereignissen für eine schnellere und zuverlässigere Dateientdeckung.
Um das vorherige Verhalten beizubehalten, legen Sie cloudFiles.useIncrementalListing explizit auf auto fest.
Unterstützung von MV/ST-Aktualisierungsinformationen in DESCRIBE EXTENDED AS JSON
Azure Databricks generiert jetzt einen Abschnitt für materialisierte Ansichts- und Streamingtabellenaktualisierungsinformationen in der DESCRIBE EXTENDED AS JSON Ausgabe, einschließlich der letzten Aktualisierungszeit, des Aktualisierungstyps, des Status und des Zeitplans.
Hinzufügen einer Metadatenspalte zu DESCRIBE QUERY und DESCRIBE TABLE
Azure Databricks enthält jetzt eine Metadatenspalte in der Ausgabe von DESCRIBE QUERY und DESCRIBE TABLE für semantische Metadaten.
Bei DESCRIBE QUERY Beschreibung einer Abfrage mit metrischen Ansichten werden die semantischen Metadaten über die Abfrage hinweg propagiert, wenn direkt auf Dimensionen verwiesen wird und Kennzahlen die MEASURE() Funktion nutzen.
Für DESCRIBE TABLE erscheint die Metadaten-Spalte nur bei Metrikansichten, nicht bei anderen Tabellentypen.
Korrektur der Konvertierung zeitlicher Werte in Strukturliteralen im Verbindungsmodus
Im Spark Connect-Modus werden Struct-Literale in TypedLit jetzt korrekt mit temporalen Werten verarbeitet, anstatt Ausnahmen auszulösen. Früher würde der Versuch, zeitliche Werte (z. B. Datums- oder Zeitstempel) in Strukturliteralen zu verwenden, zu einer Ausnahme führen.
Ändern der Dezimalgenauigkeit und Skalierung auf SYSTEM_DEFAULT im Verbindungsmodus.
Bei Verwendung des Spark Connect-Modus in Scala werden dezimale Genauigkeit und Skalierung in Array- und Kartenliteralen jetzt in SYSTEM_DEFAULT (38, 18) geändert. Diese Änderung wirkt sich nur auf den logischen Plan aus (z. B. die Ausgabe des explain() Befehls) und wirkt sich nicht auf abfrageergebnisse aus.
Unterstützung für komplexe Typen in Beobachtungen im Spark Connect Scala-Client
Der Spark Connect Scala-Client unterstützt jetzt Array-, Karten- und Strukturtypen in Beobachtungen, wodurch das Verhalten in Einklang mit dedizierten Clustern gesetzt wird. Bisher würde der Versuch, diese komplexen Typen in Beobachtungen zu verwenden, zu einer Ausnahme führen.
Beibehalten von Nullwerten in Array-, Map- und Strukturliteralen
Im Spark Connect-Modus werden Nullwerte innerhalb von Array-, Karten- und Strukturliteralen beibehalten, anstatt durch Protobuf-Standardwerte ersetzt zu werden. Zuvor wurden Nullwerte fälschlicherweise durch Standardwerte ersetzt, z 0 . B. für ganze Zahlen, leere Zeichenfolgen für Zeichenfolgentypen und false boolesche Typen.
Beibehalten der Nullierbarkeit für typierte Literale
Der Spark Connect Scala-Client behält nun die Nullfähigkeit von Array- und Map-Typen für typisierte Literale korrekt bei. Zuvor wurden Array-Elemente und Map-Werte unabhängig von der tatsächlichen Typdefinition immer als nullable behandelt.
Konvertierung von Case-Klassen in Array- und Map-Literale beheben
Im Spark-Connect-Modus behandeln TypedLit jetzt Array- und Map-Literale korrekt Case-Class-Werte, anstatt Ausnahmen auszulösen. Zuvor würde der Versuch, Fallklassenwerte in Array- oder Kartenliteralen zu verwenden, zu einer Ausnahme führen.
Korrekte Behandlung von Null-Strukturen beim Löschen von NullType Spalten
Beim Schreiben in Delta-Tabellen bewahrt Azure Databricks die NULL-Strukturwerte ordnungsgemäß, wenn NullType-Spalten aus dem Schema entfernt werden. Zuvor wurden Null-Strukturen fälschlicherweise durch Nicht-Null-Strukturwerte ersetzt, bei denen alle Felder auf NULL festgelegt wurden. Das Einfügen eines Null-Strukturwerts würde z. B. später als Struktur mit NULL-Feldern anstelle einer NULL-Struktur gelesen.
Verbesserte Handhabung von Null-Strukturen in Parkett
Azure Databricks erkennt jetzt ordnungsgemäß NULL-Strukturen, wenn alle angeforderten Strukturfelder aus einer Parkettdatei fehlen, wodurch das Verhalten zwischen Photon- und Nicht-Photon-Lesern konsistent ist. Bisher gaben Nicht-Photon-Leser für die gesamte Struktur NULL zurück, anstelle einer Struktur mit NULL-Feldern, wenn beim Lesen von Parquet-Dateien alle angeforderten Felder fehlten, aber andere Felder vorhanden waren.
Aktualisierung der aws-msk-iam-auth-Bibliothek für Kafka
Die aws-msk-iam-auth Bibliothek wurde auf Version 2.0.1 aktualisiert, um das Festlegen eines regionalen Sicherheitstokendienst-Endpunkts (STS) für managed Streaming für Apache Kafka (MSK) IAM-Authentifizierung zu unterstützen. Die neue awsStsRegion Option ist nur verfügbar, wenn die entsprechende Spark-Konfiguration aktiviert ist. Dieses Upgrade führt keine Verhaltensänderungen für vorhandene Workloads ein.
Verbesserungen der Bibliothek
Aktualisierte Python-Bibliotheken:
In dieser Version wurden keine Python-Bibliotheken aktualisiert.
Aktualisierte R-Bibliotheken:
In dieser Version wurden keine R-Bibliotheken aktualisiert.
Aktualisierte Java-Bibliotheken:
In dieser Version wurden keine Java-Bibliotheken aktualisiert.
Apache Spark
Databricks Runtime 17.3 LTS umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Version 17.2 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- SPARK-44856 Änderung rückgängig machen "[SC-195808][python] Verbesserung der Leistung des Python-UDTF-Arrow-Serialisierers"
- SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Beheben der Behandlung von Nullwerten in LiteralValueProtoConverter
- SPARK-53507 Signifikante Änderungen als Informationen zu Fehlern hinzufügen
- SPARK-53574 Behebung des Problems, dass AnalysisContext während der Auflösung geschachtelter Pläne gelöscht wird.
- SPARK-53444 Rework wird sofort ausgeführt
- SPARK-53560 Absturzschleifen beim Wiederholen des nicht bestätigten Batches in der Kafka-Quelle und beim AvailableNow-Trigger
- SPARK-53127 Aktivieren von LIMIT ALL zum Außerkraftsetzen des Grenzwerts für Rekursionszeilen
- SPARK-53574 Wiederherstellen von "[SC-206548] Korrigieren Sie AnalysisContext, der zurückgesetzt wird..."
- SPARK-53674 Behandeln von LcAs für den Single Pass Analyzer beim Zuweisen von Aliasen
- SPARK-53492 Einen zweiten ExecutePlan mit einer Vorgangs-ID ablehnen, die bereits abgeschlossen wurde
- SPARK-53677 Verbesserung der Debuggierbarkeit von JDBC-Datenquellen, wenn die Abfrage Syntaxfehler enthält
- SPARK-53490 Korrektur der Protobuf-Konvertierung bei beobachteten Metriken
-
SPARK-53671 Ausschließen von 0-Args aus der Ableitung des
@udfTyps "eval" - SPARK-53592 Überarbeitung "Vektorisiertes @udf UDF unterstützen"
- SPARK-53654 Überarbeitung "Unterstützung von Seed in Funktion uuid"
- SPARK-53429 Unterstützung der Direct Passthrough-Partitionierung in der PySpark Dataframe-API
- SPARK-53372 Gemeinsames Test-Laufzeitpaket für LDP
- SPARK-53574 Behebung des Problems, dass AnalysisContext während der Auflösung geschachtelter Pläne gelöscht wird.
-
SPARK-53654 Rückgängig machen von "[SC-207022][sql][PYTHON] Unterstützung von
seedin Funktionuuid" - SPARK-53574 Rückgängig machen von "[SC-206548] Entfernen von AnalysisContext während der Auflösung geschachtelter Pläne"
- SPARK-53559 Behebung von HLL-Skizzen-Updates zur Verwendung von rohen Sortierschlüssel-Bytes
-
SPARK-53654 Unterstützung
seedin Funktionuuid - SPARK-52449 Datentypen für Expression.Literal.Map/Array optional machen
- SPARK-53574 Behebung des Problems, dass AnalysisContext während der Auflösung geschachtelter Pläne gelöscht wird.
- SPARK-53625 Metadatenspalten über Projektionen weiterleiten, um die Inkompatibilität von 'ApplyCharTypePadding' zu beheben.
- SPARK-53558 Wiederherstellen von "[SC-206544][sql] Anzeigen des vollqualifizierten Tabellennamens einschließlich des Katalognamens in der Ausnahmemeldung, wenn die Tabelle nicht gefunden wird"
- SPARK-53558 Vollqualifizierter Tabellenname einschließlich des Katalognamens in der Ausnahmemeldung anzeigen, wenn die Tabelle nicht gefunden wird
-
SPARK-53357 Aktualisieren
pandasauf 2.3.2 - SPARK-52659Irreführende Modulo-Fehlermeldung im Ansi-Modus
-
SPARK-53592 Wiederherstellen von "[SC-206971][python] Unterstützung
@udfvektorisierter UDF" -
SPARK-53592 Mache
@udfUnterstützung für vektorisierte UDF - SPARK-52601 Unterstützen von Primitiventypen in TransformingEncoder
- SPARK-53355 Fix für numpy 1.x repr in Typ-Tests
- SPARK-53387 Hinzufügen von Unterstützung für Pfeil-UDTFs mit PARTITION BY
- SPARK-52991 Implementieren MERGE INTO mit SCHEMA EVOLUTION für V2-Datenquelle
- SPARK-53568 Beheben mehrerer kleiner Fehler in spark Connect Python-Clientfehlerbehandlungslogik
- SPARK-43579 optimieren: Zwischenspeichern des Konverters zwischen Pfeil und Pandas zur Wiederverwendung
- SPARK-53524 Behebung der Umwandlung temporärer Werte in LiteralValueProtoConverter
-
SPARK-53600
SessionHolderLetzten Zugriffszeitprotokollnachricht überarbeiten -
SPARK-53529 Korrigiere den
pysparkVerbindungsclient zur Unterstützung von IPv6 - SPARK-53537 Hinzufügen der Unterstützung für die Analyse des CONTINUE-HANDLERs
- SPARK-53623 Verbesserung der Lesung großer Tabelleneigenschaften für bessere Leistung
-
SPARK-53523 Benannte Parameter respektieren
spark.sql.caseSensitive - SPARK-53449 Einfache Optionen für integrierte Datenquellenscan-verwandte Klassen
- SPARK-53620 SparkSubmit sollte stacktrace drucken, wenn exitFn aufgerufen wird
- SPARK-53518 Keine Abkürzung für catalogString des benutzerdefinierten Typs
- SPARK-53568 Wiederherstellen von "[SC-206538][connect][PYTHON] Beheben mehrerer kleiner Fehler in Spark Connect Python-Clientfehlerbehandlungslogik"
- SPARK-53602 Verbesserung des Profil Dumps und Korrektur der Profiler-Dokumentation
- SPARK-53402 Unterstützung der DIRECT Passthrough Partitioning Dataset-API in Spark Connect in Scala
- SPARK-53491 Behebung der exponentiellen Formatierung von inputRowsPerSecond und processedRowsPerSecond im Fortschrittsmetriken-JSON
- SPARK-53413 Bereinigung von Shuffle für Befehle
- SPARK-53518 Rückgängigmachen von "[SC-205989][sql] Keine Kürzung für catalogString des Benutzerdefinierten Typs"
- SPARK-53568 Beheben mehrerer kleiner Fehler in spark Connect Python-Clientfehlerbehandlungslogik
- SPARK-53552 Optimieren der SQL-Funktion des Substr
- SPARK-53527 Verbesserung des Fallbacks von analyzeExistenceDefaultValue
- SPARK-53584 Verbesserung der Validierung von process_column_param und der Dokumentation der Spaltenparameter
-
SPARK-53498 Korrekter Verweis
pyspark/pipelines/cli.pyausspark-pipelinesBinärdatei - SPARK-53518 Keine Abkürzung für catalogString des benutzerdefinierten Typs
- SPARK-53233 Den Code so anpassen, dass der richtige Paketname verwendet wird
- SPARK-53598 Überprüfen des Vorhandenseins von numParts vor dem Lesen einer großen Tabelleneigenschaft
- SPARK-53372 SDP End to End Testing Suite
- SPARK-53563 Optimieren: sql_processor durch Vermeidung ineffizienter Zeichenfolgenverkettung
- SPARK-53323 Aktivieren von Spark Connect-Tests für df.asTable() in Arrow UDTF
- SPARK-53157 Entkopplung der Abfrageintervalle von Treiber und Executor
- SPARK-53555 Korrektur: SparkML-connect kann im Legacy-Modus gespeicherte SparkML-Modelle nicht laden
- SPARK-53361 Optimieren der JVM-Python-Kommunikation in TWS durch Gruppieren mehrerer Schlüssel in einen Pfeilbatch
-
SPARK-53233 Wiederherstellen von "[SC-203716][sql][SS][mllib][CONNECT] Stellen Sie den Code im Zusammenhang mit
streamingder Verwendung des richtigen Paketnamens her" - SPARK-53233 Den Code so anpassen, dass der richtige Paketname verwendet wird
- SPARK-53525 Spark Connect ArrowBatch Ergebnisstückelung
- SPARK-53444 "[SC-206536][sql] Rework execute immediate" zurücksetzen
- SPARK-53594 Arrow-UDF anpassen, damit er den vom Benutzer angegebenen Auswertungstyp respektiert
- SPARK-53444 Rework wird sofort ausgeführt
-
SPARK-53582 Erweitern
isExtractable, damit es aufUnresolvedExtractValueangewendet werden kann - SPARK-53572 Vermeiden des Auslösens von ExtractValue.isExtractable
- SPARK-52346 Behebung der Initialisierungs- und Inkrementlogik für Zähler bei Flusswiederholungen
- SPARK-53561 Unterbrechungsausnahme in TransformWithStateInPySparkStateServer während des outputStream.flush abfangen, um einen Absturz des Arbeiters zu vermeiden
- SPARK-53512 Bessere Vereinheitlichung von DSv2 PushDownUtils
- SPARK-53459 Verwenden von ReadOnlySparkConf an weiteren Orten
- SPARK-53549 Immer den Pfeil-Allocator schließen, wenn der Listenstatusanforderungsprozess abgeschlossen ist
- SPARK-53332 Aktivieren Sie StateDataSource mit dem Status-Checkpoint v2 (nur die Option snapshotStartBatchId)
- SPARK-53550 Union-Ausgabepartitionierung sollte kanonische Attribute vergleichen
-
SPARK-53506 Keine Umwandlung
%zwischen Dezimalzahl und Fließkommazahl gemäß ANSI zulassen - SPARK-52238 Umbenennen des Pipelinespezifikationsfelds "Definitionen" in "Bibliotheken"
-
SPARK-53538
ExpandExecsollte die unsicheren Projektionen initialisieren - SPARK-53521 Umgestalten eines Starausdrucks
- SPARK-53358 Verbesserung der Fehlermeldung bei einem Typkonflikt in der Ausgabe von Arrow Python UDTF
- SPARK-53531 Bessere Fehlermeldung für HadoopRDD.getInputFormat
- SPARK-53434 Das Get von ColumnarRow sollte auch isNullAt überprüfen
- SPARK-53008 Hinzufügen der OSS SQL UDF-Datenzugriffsroutineüberprüfung
- SPARK-44856 Verbesserung der Leistung des Python UDTF Arrow Serializer
- SPARK-53488 Aktualisieren sie CollationTypeCoercion so, dass sie mit single-pass Analyzer-Logik kompatibel ist.
- SPARK-53029 Unterstützung der Rückgabetypkoerzierung für Arrow Python UDTFs
-
SPARK-53479 Anpassung des
==-Verhaltens an Pandas beim Vergleich mit Skalaren unter ANSI -
SPARK-53497 Verboten
/|//|*zwischen Dezimalzahl und Gleitkommazahl gemäß ANSI. -
SPARK-53441 Bools
|/&/^Keiner sollte unter ANSI scheitern - SPARK-53474 Conf-DATA_SOURCE_V2_EXPR_FOLDING hinzufügen
- SPARK-53333 Aktivieren Sie StateDataSource mit Status-Checkpoint v2 (nur readChangeFeed lesen)
- SPARK-53502 Verbessern der Benennung von Methoden in LiteralValueProtoConverter
-
SPARK-52694 API hinzufügen
o.a.s.sql.Encoders#udt - SPARK-53499 from_arrow_type muss "containsNull" in "ArrayType" berücksichtigen.
-
SPARK-53515 Entfernen Sie unbenutzte
private lazy valausSchemaOfCsv/Xml - SPARK-53480 Refaktorisieren des Arrow-Python-Läufercodes
- SPARK-53481 Erstellen einer Hybridwarteschlangenklasse
- SPARK-53401 Aktivieren der Direct Passthrough-Partitionierung in der DataFrame-API
- SPARK-52930 Verwenden Sie DataType.Array/Map für Array/Map-Literale
- SPARK-52346 Propagieren von Partitionsspalten des Ziels für BatchTableWrite
- SPARK-53342 Korrigiere den Arrow-Konverter, um mehrere Datenbatches in einem einzigen IPC-Stream zu verarbeiten.
- SPARK-53421 Weitergabe der logischen Plan-ID in der SDP-Analyse
-
SPARK-53408 Entfernen nicht verwendeter Funktionen aus
QueryCompilationErrors - SPARK-53044 Die Aliaskonvention für deklarative Pipelines von "sdp" auf "dp" ändern
- SPARK-53450 Nullwerte werden unerwartet ausgefüllt, nachdem der Hive-Tabellenscan in eine logische Relation umgewandelt wurde.
- SPARK-53290 Behebung des Metadatenproblems, das die Abwärtskompatibilität beeinträchtigt
- SPARK-52982 Lateral Join mit Arrow Python UDTFs verbieten
- SPARK-52851 Öffentliche APIs für Append-Once-Flows entfernen
- SPARK-52511 Unterstützung des Trockenlaufmodus im Spark-Pipelines-Befehl
- SPARK-53290 Rückgängig machen von "[SC-204277][sql][CONNECT] Beheben der Verletzung der Metadaten-Abwärtskompatibilität"
- SPARK-53290 Behebung des Metadatenproblems, das die Abwärtskompatibilität beeinträchtigt
- SPARK-52577 Hinzufügen von Tests für declarative Pipelines DatasetManager mit Hive-Katalog
- SPARK-53012 Unterstützen von Arrow Python UDTF in Spark Connect
- SPARK-53251 Aktivieren von DataFrame-API-Tests mit asTable() für Arrow Python UDTFs
- SPARK-52432 Bereich von DataflowGraphRegistry auf Sitzung beschränken
- SPARK-52853 Verhindern von imperativen PySpark-Methoden in deklarativen Pipelines
-
SPARK-52745 Stellen Sie sicher, dass eine der
schemaundcolumnsin der Tabellenschnittstelle implementiert ist undcolumnsbevorzugt wird. - SPARK-52991 Wiederherstellen von "[SC-204944][sql] Implementieren MERGE INTO mit SCHEMA EVOLUTION für V2-Datenquelle"
- SPARK-52981 Hinzufügen der Tabellenargumentunterstützung für Arrow Python UDTFs
-
SPARK-53487 Kommentare in
NormalizePlan.scalaverbessern - SPARK-52991 Implementieren MERGE INTO mit SCHEMA EVOLUTION für V2-Datenquelle
-
SPARK-52281 Änderung, dass
ALTER TABLE ALTER COLUMN TYPE STRINGdie Standardsortierung nicht angewendet wird, wenn der ursprüngliche Datentyp eine Instanz vonStringTypewar. - SPARK-52759 Ausnahme auslösen, wenn die Pipeline keine Tabellen oder dauerhaften Ansichten enthält
- SPARK-51575 Kombinieren von Python-Datenquellen-Pushdown- und Planlesemitarbeitern
- SPARK-53359 Beheben Arrow-UDTF, um die Ergebnisse als Iterator zu behandeln
- SPARK-52757 Umbenennen des Felds "plan" in DefineFlow in "relation"
- SPARK-52431 Letzte Anpassungen am Deklarativen Pipeline-Runner
- SPARK-52591 Validierung der Streaming-Eigenschaften der von SDP-Tabellen und eigenständigen Flussdefinitionen zurückgegebenen DFs
- SPARK-53030 Unterstützung von Arrow Writer für das Streaming von Python-Datenquellen
- SPARK-52980 Unterstützung von Arrow Python UDTFs
- SPARK-42841Zuweisen eines Namens zur Fehlerklasse _LEGACY_ERROR_TEMP_2005
- SPARK-52423 Fehlenden Paketnamen für Golang zu pipelines.proto hinzufügen
- SPARK-52409 Verwenden von PipelineRunEventBuffer nur in Tests
- SPARK-52533 Unterstützung, die nur Treiberprofiler aktiviert
- SPARK-52716 Kommentar aus Flow-Trait und -Verweisen entfernen
- SPARK-52348 Hinzufügen von Unterstützung für Spark Connect-Handler für Pipelinebefehle
-
SPARK-52281 Zurücksetzen der "[SC-198058][sql] Änderung
ALTER TABLE ALTER COLUMN TYPE STRING" damit die Standard-Kollation nicht angewendet wird, wenn der ursprüngliche Datentyp eine Instanz vonStringTypeist - SPARK-49386 Speicherbasierte Schwellenwerte für Shuffle-Spill hinzufügen
-
SPARK-52281 Änderung, dass
ALTER TABLE ALTER COLUMN TYPE STRINGdie Standardsortierung nicht angewendet wird, wenn der ursprüngliche Datentyp eine Instanz vonStringTypewar. - SPARK-53329 Verbessern der Ausnahmebehandlung beim Hinzufügen von Artefakten
- SPARK-52772 Wiederherstellen von "[SC-202707][engrm-327][SQL] Inkonsistente Tabellenattributebehandlung während Updates"
- SPARK-52772 Inkonsistente Tabellenattributebehandlung während aktualisierungen
- SPARK-51739 Überprüfen des Pfeilschemas von mapInArrow & mapInPandas & DataSource
- SPARK-53355 testen das Verhalten von Python-UDF-Typen
-
SPARK-53443 Python aktualisieren auf
SPDX-license - SPARK-49968 Die Split-Funktion erzeugt falsche Ergebnisse mit einem leeren Regex und einem Grenzwert.
- SPARK-52582 Verbessern der Speicherauslastung des XML-Parsers
-
SPARK-53452
from_arrow_typesolltevalueContainsNullberücksichtigen - SPARK-53103 Revert "[SC-204946][ss] Einen Fehler auslösen, wenn das Statusverzeichnis beim Start der Abfrage nicht leer ist"
- SPARK-53103 Auslösen eines Fehlers, wenn das Statusverzeichnis beim Starten der Abfrage nicht leer ist
- SPARK-51575 Wiederherstellen von "[SC-192406][python] Kombinieren von Python-Datenquellen-Pushdown und Planlesemitarbeitern"
- SPARK-51575 Kombinieren von Python-Datenquellen-Pushdown- und Planlesemitarbeitern
- SPARK-53095 Unterstützung von HMS v4.1
-
SPARK-53126 Umgestalten
SparkErrorUtils#stackTraceToString, umnullEingaben zu verarbeiten undExceptionUtils#getStackTracezu ersetzen. -
SPARK-49489 HMS-Client respektiert
hive.thrift.client.maxmessage.size - SPARK-53108 Implementieren der time_diff-Funktion in Scala
- SPARK-45265 Unterstützung für Hive 4.0 Metastore
-
SPARK-53255 Verbot
org.apache.parquet.Preconditions - SPARK-52142 Anzeigen von Tabelleneinschränkungen in SHOW CREATE TABLE COMMAND
- SPARK-52875 Vereinfachen der V2-Ausdrucksübersetzung, wenn die Eingabe kontextunabhängig gefaltet werden kann
-
SPARK-53240 Verbot
com.google.common.collect.(ArrayList)?Multimap - SPARK-52875 Zurücksetzen von "[SC-201880][sql] Vereinfachen der V2-Ausdrucksübersetzung, wenn die Eingabe kontextunabhängig und faltbar ist"
- SPARK-52141 Anzeigeeinschränkungen in DESC-Befehlen
- SPARK-53386 Unterstützung für Abfrageparameter, die mit einem Semikolon in JDBC-Connectors enden
- SPARK-52875 Vereinfachen der V2-Ausdrucksübersetzung, wenn die Eingabe kontextunabhängig gefaltet werden kann
- SPARK-53437 InterpretedUnsafeProjection wird setNull4Bytes für das Feld des YearMonthIntervalTyp setzen
- SPARK-53341 Ausbau der Goldstandard-Testabdeckung für multivariable DECLARE
- SPARK-53156 Nachverfolgen von Treiberspeichermetriken beim Beenden der Anwendung
- SPARK-52689 DML-Metriken an V2Write senden
- SPARK-52641 Primärschlüsselspalten dürfen nicht null sein
- SPARK-48547 Füge eine Opt-in-Flag hinzu, damit SparkSubmit automatisch System.exit aufruft, nachdem die Hauptmethode des Benutzercodes beendet ist.
- SPARK-52575 Einführung des contextIndependentFoldable-Attributs für Ausdrücke
- SPARK-52860 Unterstützung der V2-Schreibschema-Evolution in der InMemoryTable
- SPARK-53435 Racebedingung in CachedRDDBuilder beheben
- SPARK-51987 DSv2-Ausdrücke in Spaltenstandard beim Schreiben
- SPARK-52235 Fügen Sie eine implizite Umwandlung zu DefaultValue V2-Ausdrücken hinzu, um sie an DSV2 zu übergeben.
- SPARK-52236 Standardisieren von Analyse-Ausnahmen für Standardwerte
- SPARK-53294 Aktivieren Sie StateDataSource mit State-Checkpoint v2 (nur Batch-ID-Option)
- SPARK-52095 Änderungen an Tabellenspalten zur Übergabe von V2Expression an DSV2
- SPARK-53415 Einfache Optionen für integrierte FileFormats
- SPARK-53318 Unterstützung des Zeittyps durch make_timestamp_ltz()
- SPARK-53143 Behebung des Selbst-Joins in der DataFrame-API - Der Join ist nicht die einzige erwartete Ausgabe des Analyzers.
-
SPARK-53423 Verschieben aller zugehörigen Tags für den Single-Pass-Resolver in
ResolverTag - SPARK-52116 Ausnahme für nicht deterministische Standardwerte verbessern
- SPARK-51906 Dsv2-Ausdrücke in ALTER TABLE ADD COLUMNS
- SPARK-53403 Add-/Sub-Tests unter ANSI verbessern
-
SPARK-53418 Unterstützung von
TimeTypeinColumnAccessor - SPARK-52777 Konfiguration für Shuffle-Bereinigungsmodus in Spark SQL aktivieren
- SPARK-52485 Deklarative Pipelines-Codebereinigung
-
SPARK-53236 Verwenden Sie Java-Konstruktoren
ArrayListanstelle vonLists.newArrayListim Java-Code - SPARK-53392 Verschieben der spezialisierten Array-Behandlung zu Connect-common
-
SPARK-53176 Spark-Launcher sollte
--load-spark-defaultsrespektieren. -
SPARK-53237 Verwenden von Java
Base64anstelle vonorg.apache.commons.codec.binary.Base64Instanzen - SPARK-53390 Fehler auslösen, wenn Boolesche mit 'None' in Integer unter ANSI umgewandelt werden
- SPARK-53109 Unterstützung des TIME-Funktionsparameters in make_timestamp_ntz und try_make_timestamp_ntz in Scala
- SPARK-53393 Deaktivieren des Speicherprofilers für Arrow Scalar Iterator UDFs
- SPARK-53367 Hinzufügen der Typumwandlung von Int zu Dezimal für Arrow UDFs
- SPARK-53365 Vereinheitlichung des Codes zum Persistieren von Konfigurationen in Ansichten und UDFs
-
SPARK-53228 Verwenden von Java-Konstruktoren
Mapanstelle vonMaps.new*HashMap() -
SPARK-53197 Anstelle
java.util.Objects#requireNonNullvoncom.google.common.base.Preconditions#checkNotNull -
SPARK-53216 Wechseln
is*(Blank|Empty)vonobject SparkStringUtilszutrait SparkStringUtils - SPARK-53385 Bewertung der Identifier-Auswertung auslagern
- SPARK-53384 Umgestalten der Variablenauflösung
-
SPARK-53195 Verwenden von Java
InputStream.readNBytesanstelle vonByteStreams.read -
SPARK-53205 Support von
createParentDirsinSparkFileUtils -
SPARK-53196 Verwenden von Java
OutputStream.nullOutputStreamanstelle vonByteStreams.nullOutputStream -
SPARK-53381 Vermeiden Des Erstellens temporärer Sammlungen in
toCatalystStruct - SPARK-53275 Umgang mit statusbehafteten Ausdrücken beim Anordnen im interpretierten Modus
- SPARK-51585 Oracle-Dialekt unterstützt Pushdown-Datetime-Funktionen
-
SPARK-53200 Verwenden von Java
Files.newInputStreamanstelle vonFiles.asByteSource().openStream() -
SPARK-53190 Verwenden von Java
InputStream.transferToanstelle vonByteStreams.copy -
SPARK-53188 Support
readFullyinSparkStreamUtilsundJavaUtils - SPARK-53354 Vereinfachen von LiteralValueProtoConverter.toCatalystStruct
- SPARK-52873 Weiter einschränken, wann die SHJ-Semi-/Anti-Verknüpfung doppelte Schlüssel auf der Build-Seite ignorieren kann
-
SPARK-53180 Verwenden von Java
InputStream.skipNBytesanstelle vonByteStreams.skipFully -
SPARK-53369 Fehlermeldung für UDFs mit
CHAR/VARCHARRückgabetyp beheben - SPARK-53330 Beheben Arrow UDF mit DayTimeIntervalType (Grenzen != Anfang/Ende)
- SPARK-53366 Anwenden von Formatierungsregeln auf sql/connect/shims
- SPARK-53348 Beim Erstellen einer Ansicht immer den ANSI-Wert speichern oder annehmen, falls er nicht gespeichert wird.
-
SPARK-53119 Unterstützung
touchinSparkFileUtils - SPARK-52592 Unterstützung beim Erstellen einer PS. Serie von ps. Reihe
- SPARK-53360 Die Strategie im Zusammenhang mit der Idempotenz von ConstantFolding sollte nicht gebrochen werden
-
SPARK-53135 Support
copyURLToFileinSparkFileUtilsundJavaUtils -
SPARK-53150 Verbessern
list(File|Path)sum nicht existierende, nicht Verzeichnis und Symlink-Eingaben zu behandeln. -
SPARK-53135 Rückgängig machen "[SC-203164][core][SQL] Support
copyURLToFileinSparkFileUtilsundJavaUtils" -
SPARK-53137 Support
forceDeleteOnExitinSparkFileUtilsundJavaUtils - SPARK-53352 Verfeinern der Fehlermeldung für den nicht unterstützten Rückgabetyp
- SPARK-53353 Fehler bei Skalarem Iterator Arrow UDF mit 0-Argumenten
-
SPARK-53135 Support
copyURLToFileinSparkFileUtilsundJavaUtils -
SPARK-53101 Unterstützung
(left|right)PadinSparkStringUtils -
SPARK-53117 Support
moveDirectoryinSparkFileUtilsundJavaUtils -
SPARK-53121 Anstelle
deleteRecursivelyvonFileUtils.forceDelete -
SPARK-53100 Verwenden von Java
String.substringanstelle vonStringUtils.substring -
SPARK-53092 Verbot
org.apache.commons.lang3.SystemUtils - SPARK-53328 Verbessern der Debuggierbarkeit für SparkML-connect
- SPARK-52065 Erstellen einer weiteren Planstruktur mit Ausgabespalten (Name, Datentyp, Nullierbarkeit) in der Planänderungsprotokollierung
- SPARK-51182 DataFrameWriter sollte dataPathNotSpecifiedError auslösen, wenn der Pfad nicht angegeben ist.
-
SPARK-52410 Als veraltet markieren
PipelineConfundSqlConfdirekt verwenden - SPARK-52852 Nicht verwendete spark_conf in create_streaming_table entfernen
- SPARK-52714 Nicht verwendete Kommentarargumente in append_flow Dekorateur entfernen
- SPARK-52663 Einführung eines Namensfelds zur Pipelinespezifikation
-
SPARK-53091 Verbot
org.apache.commons.lang3.Strings - SPARK-52393 Registrierung von SQL-Graph-Pipeline-Elementen
-
SPARK-52912
SparkStringUtilsverbessern, umis(Not)?(Blank|Empty)zu unterstützen - SPARK-53307 Entfernen des Fehlers "RetriesExceededed" aus Spark Connect Python- und Scala-Clients
-
SPARK-52346 Deklarative Pipelineausführung
DataflowGraphund Ereignisprotokollierung - SPARK-52877 Verbessern der Leistung von Python-UDF-Pfeil serialisierer
- SPARK-51920 Behebung von zusammengesetzten/verschachtelten Typen im Wertzustand für Python TWS
- SPARK-52741 RemoveFiles ShuffleCleanup-Modus funktioniert nicht mit nicht adaptiver Ausführung
- SPARK-52238 Python-Client für deklarative Pipelines
- SPARK-51926 Hinzufügen der Fehlerklasse INVALID_CONF_VALUE.subXXX zu Konfigurationsfehlern.
- SPARK-53155 Globale niedrigere Agggregation sollte nicht durch ein Projekt ersetzt werden
-
SPARK-52911 Verwendung von
StringUtils.(split|chop)entfernen - SPARK-51926 Rückgängig gemacht: "[SC-195096][core][SQL] INVALID_CONF_VALUE.subXXX-Fehlerklasse zu Konfigurationsfehlern hinzugefügt"
- SPARK-53346 Erstellen temporärer Sammlungen in toCatalystArray/toCatalystMap vermeiden
- SPARK-51926 Hinzufügen der Fehlerklasse INVALID_CONF_VALUE.subXXX zu Konfigurationsfehlern.
- SPARK-53136 tryWithResource & tryInitializeResource sollte die Ressource stillschweigend schließen.
-
SPARK-53132 Support
list(File|Path)sinSparkFileUtilsundJavaUtils - SPARK-51896 Java Enum-Unterstützung für "TypedConfigBuilder" hinzufügen
- SPARK-53311 PullOutNonDeterministic auf kanonische Ausdrücke umstellen
- SPARK-51527 Konfigurieren der Codegen-Protokollebene über SQLConf
- SPARK-52223 Hinzufügen von SDP Spark Connect Protos
-
SPARK-52283 Erstellung und Auflösung deklarativer Pipelines
DataflowGraph -
SPARK-52880 Verbessern
toStringdurchJEP-280anstelle vonToStringBuilder - SPARK-53284 Anpassung der Importe von Spark-Konfiguration in Tests
- SPARK-53050 Aktivieren von MultiIndex.to_series() zum Zurückgeben der Struktur für jeden Eintrag
- SPARK-52988 Behebung von Race Conditions bei CREATE TABLE und Funktion, wenn IF NOT EXISTS verwendet wird
-
SPARK-52874 Unterstützung von Java Record
o.a.s.util.Pair -
SPARK-52710
DESCRIBE SCHEMASollte Kollation ausgeben -
SPARK-49984 Beheben
supplementJava(Module|IPv6)OptionsumextraJavaOptionsnur zu aktualisieren
Azure Databricks ODBC/JDBC-TREIBERunterstützung
Azure Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Wartungsupdates
Siehe Databricks Runtime Wartungsupdates.
Systemumgebung
- Betriebssystem: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Skala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | Pfeil | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | Attrs | 24.3.0 |
| autocommand | 2.2.2 | azure-common | 1.1.28 | Azure Core | 1.34.0 |
| Azure-Identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | Azure-Speicher-Datei-Datensee | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | schwarz | 24.10.0 |
| Bleichmittel | 6.2.0 | Blinker | 1.7.0 | boto3 | 1.36.2 |
| Botocore | 1.36.3 | CacheWerkzeuge | 5.5.1 | Zertifikat | 2025.1.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | Charset-Normalizer | 3.3.2 |
| klicken | 8.1.7 | cloudpickle | 3.0.0 | Kommunikation | 0.2.1 |
| Contourpy | 1.3.1 | Kryptographie | 43.0.3 | Fahrradfahrer | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | Distlib | 0.3.9 | Docstring zu Markdown | 0.11 |
| ausführen | 0.8.3 | Übersicht der Facetten | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | Dateisperrung | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| Google Cloud Core | 2.4.3 | Google Cloud-Speicher | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | GRPCIO | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-Spezifikationen | 2023.7.1 | Jupyter-Ereignisse | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-Erweiterungen | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| Notebook | 7.3.2 | Notebook-Shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) | 0.53b1 | overrides | 7.4.0 | Verpackung | 24,2 |
| Pandas | 2.2.3 | Pandocfilter | 1.5.0 | Parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| Kissen | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | plugin-fähig | 1.5.0 | prometheus_client | 0.21.0 |
| Prompt-Toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | Pyasn1 | 0.4.8 |
| Pyasn1-Module | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| Pydantisch | 2.10.6 | pydantic_core | 2.27.2 | Pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | Python-LSP-Server | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referenzierung | 0.30.2 | requests | 2.32.3 |
| rfc3339-Prüfer | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| Seil | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | SciPy | 1.15.1 |
| Seegeboren | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| Sechs | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortierte Container | 2.4.0 | Sieb für Suppe | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | Stapeldaten | 0.2.0 | Starlet | 0.46.2 |
| StatistikModelle | 0.14.4 | strictyaml | 1.7.3 | Hartnäckigkeit | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | Tornado | 6.4.2 |
| traitlets | 5.14.3 | Typwächter | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | URI-Vorlage | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | Webkodierungen | 0.5.1 |
| WebSocket-Client | 1.8.0 | Was ist neu im Patch | 1.0.2 | Rad | 0.45.1 |
| widgetsnbextension | 3.6.6 | Eingehüllt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 19.0.1 | Askpass | 1.2.1 | prüfen, dass | 0.2.1 |
| backports | 1.5.0 | Basis | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | Bit64 | 4.6.0-1 |
| bitops | 1.0-9 | Klumpen | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | Besen | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| Caret | 7.0-1 | CellRanger | 1.1.0 | Chron | 2.3-62 |
| class | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| clock | 0.7.2 | Gruppe | 2.1.6 | Codetools | 0.2-20 |
| Farbraum | 2.1-1 | Commonmark | 1.9.5 | Kompilierer | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| Buntstift | 1.5.3 | Zugangsdaten | 2.0.2 | cURL | 6.4.0 |
| data.table | 1.17.0 | Datensätze | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Beschreibung | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | Ellipse | 0.3.2 | auswerten | 1.0.3 |
| Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| Fremd | 0.8-86 | schmieden | 0.2.0 | fs | 1.6.5 |
| Zukunft | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| Generika | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | Klebstoff | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| Graphik | 4.4.2 | grGeräte | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | GT | 0.11.1 |
| g-Tabelle | 0.3.6 | Schutzhelm | 1.4.1 | Hafen | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | HTML-Werkzeuge | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Ausweise | 1.0.1 | ini | 0.3.1 |
| IPRED | 0.9-15 | Isobande | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1.50 | Etikettierung | 0.4.3 |
| later | 1.4.1 | lattice | 0.22-5 | lava | 1.8.1 |
| Lebenszyklus | 1.0.4 | „listenv“ | 0.9.1 | Schmiermittel | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | Methodik | 4.4.2 |
| mgcv | 1.9-1 | Mime-Kunst | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | NNET | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.3.3 | parallel | 4.4.2 |
| parallel dazu | 1.42.0 | Säule | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Prozessx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | Fortschritt | 1.2.3 |
| progressr | 0.15.1 | Versprechungen | 1.3.2 | proto | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reaktivierbar | 0.4.4 |
| reactR | 0.6.1 | READR | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.5 |
| Rezepte | 1.2.0 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| fernbedienungen | 2.5.0 | reprex | 2.1.1 | Umform2 | 1.4.4 |
| rlang | 1.1.6 | RMarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | RVEST | 1.0.4 | Sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.3 |
| Gestalt | 1.4.6.1 | glänzend | 1.10.0 | sourcetools | 0.1.7-1 |
| Sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.4.2 | Statistiken4 | 4.4.2 |
| Stringi | 1.8.7 | stringr | 1.5.1 | Überleben | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | Textgestaltung | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | Werkzeuge | 4.4.2 | Zeitzonendatenbank (tzdb) | 0.5.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Universelle eindeutige Kennung (UUID) | 1.2-1 | V8 | 6.0.2 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | Withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML-Dateiformat | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | AWS Java SDK für Auto Scaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | Datenstrom | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | Guave | 33.4.0-jre |
| com.google.guava | hörbareZukunft | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.30 |
| io.dropwizard.metrics | metrics-core | 4.2.30 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.30 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.30 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | Netty Codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | Netty-Resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-Klassen | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | Sammler | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | Pfeil-Vektor | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.13.0 |
| org.apache.curator | Kurator-Klient | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | Rezepte des Kurators | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-Client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | ORC-Format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | Orc-Shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.