Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 17.2, unterstützt von Apache Spark 4.0.0.
Azure Databricks hat diese Version im September 2025 veröffentlicht.
Neue Features und Verbesserungen
- LIKE unterstützt UTF8_LCASE Sortierung
-
st_exteriorringFunktion wird jetzt unterstützt -
Anzeigen von Pushdowndetails in
EXPLAINund Spark UI für Remotescans -
Deklarieren mehrerer Sitzungs- oder lokaler Variablen in einer einzelnen
DECLAREAnweisung -
Unterstützungsstichwort
TEMPORARYfür die Erstellung von Metrikansichten - Unterstützen zusätzlicher Befehle mit fein abgestimmter Zugriffssteuerung
-
Selektive und atomare Ersetzen von Daten durch
INSERT REPLACE USINGundINSERT REPLACE ON(GA) -
Native E/A für
LokiFileSystem.getFileStatusS3 verwenden - STANDARDMÄßIG aktivierter ANSI-Modus für Pandas-API auf Spark
-
Automatisches Laden leitet Partitionsspalten im
singleVariantColumnModus ab
LIKE unterstützt UTF8_LCASE Sortierung
Der LIKE-Operator unterstützt jetzt die UTF8_LCASE-Vergleichsreihenfolge, sodass der Abgleich ohne Beachtung der Groß- und Kleinschreibung erfolgt.
st_exteriorring Funktion wird jetzt unterstützt
Sie können nun die st_exteriorring Funktion verwenden, um die äußere Grenze eines Polygons zu extrahieren und als Linienzeichenfolge zurückzugeben. Siehe st_exteriorring Funktion.
Anzeigen von Pushdowndetails in EXPLAIN und Spark UI für Remotescans
Der EXPLAIN Befehl und die Spark-Benutzeroberfläche für RemoteSparkConnectScan dedizierte Compute zeigen jetzt Prädikate, Aggregationen, Gruppierung nach Klauseln, Grenzwerten und Beispielen an, die in die Remoteüberprüfung verschoben werden.
Deklarieren mehrerer Sitzungs- oder lokaler Variablen in einer einzelnen DECLARE Anweisung
In Databricks Runtime 17.2 und höher können Sie mehrere Sitzungs- oder lokale Variablen desselben Typs und Standardwerts in einer einzelnen DECLARE Anweisung deklarieren. Siehe DECLARE VARIABLE und BEGIN END Compound-Anweisung.
Unterstützungsstichwort TEMPORARY für die Erstellung von Metrikansichten
Sie können nun das TEMPORARY Schlüsselwort verwenden, wenn Sie eine Metrikansicht erstellen. Temporäre Metrikansichten sind nur in der Sitzung sichtbar, die sie erstellt hat, und werden gelöscht, wenn die Sitzung endet. Siehe CREATE VIEW.
Unterstützen zusätzlicher Befehle mit fein abgestimmter Zugriffssteuerung
Feinkörnige Zugriffssteuerung auf dedizierten Compute unterstützt jetzt die FSCK REPAIR TABLE und DESCRIBE DETAIL Befehle.
Selektive und atomare Ersetzen von Daten durch INSERT REPLACE USING und INSERT REPLACE ON (GA)
INSERT REPLACE USING und INSERT REPLACE ON sind jetzt allgemein für Databricks Runtime 17.2 verfügbar. Beide SQL-Befehle ersetzen einen Teil der Tabelle durch das Ergebnis einer Abfrage.
INSERT REPLACE USING ersetzt Zeilen, wenn die USING Spalten gleich unter Gleichheit vergleichen.
INSERT REPLACE ON ersetzt Zeilen, wenn sie einer benutzerdefinierten Bedingung entsprechen.
Siehe INSERT in der SQL-Sprachreferenz und selektives Überschreiben von Daten mit Delta Lake.
Native E/A für LokiFileSystem.getFileStatus S3 verwenden
LokiFileSystem.getFileStatus verwendet nun den nativen E/A-Stapel für Amazon S3-Datenverkehr und gibt org.apache.hadoop.fs.FileStatus Objekte anstelle von shaded.databricks.org.apache.hadoop.fs.s3a.S3AFileStatus.
STANDARDMÄßIG aktivierter ANSI-Modus für Pandas-API auf Spark
ANSI_MODE ist jetzt standardmäßig für Die Pandas-API für Spark compute.ansi_mode_support=Trueaktiviert, mit der die ANSI-Complianceparität mit nativen Pandas sichergestellt wird. Die compute.fail_on_ansi_mode Option gilt weiterhin, wenn compute.ansi_mode_support sie auf False.
Automatisches Laden leitet Partitionsspalten im singleVariantColumn Modus ab
Auto Loader leitet jetzt Partitionsspalten von Dateipfaden ab, wenn Daten als semistrukturierter Variantentyp mithilfe der singleVariantColumn-Option aufgenommen werden. Zuvor wurden Partitionsspalten nicht automatisch erkannt. Weitere Informationen finden Sie unter "Optionen für das automatische Laden".
Verhaltensänderungen
-
DESCRIBE CONNECTIONZeigt Umgebungseinstellungen für SHAPES-Verbindungen an. - Option zum Abschneiden des einheitlichen Verlaufs während der Migration verwalteter Tabellen
- SQL-Syntax für Delta-Leseoptionen in Streamingabfragen
-
Richtige Ergebnisse mit
splitleerem regex und positivem Grenzwert -
Beheben
url_decodeundtry_url_decodeFehlerbehandlung in Photon - Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs
- Zeilenverfolgung ist standardmäßig bei neuen Tabellen aktiviert
- TABLE Argumentunterstützung für Unity Catalog Python UDTFs
DESCRIBE CONNECTION Zeigt Umgebungseinstellungen für SHAPES-Verbindungen an.
Azure Databricks enthält jetzt benutzerdefinierte Umgebungseinstellungen in der DESCRIBE CONNECTION Ausgabe für SHAPES-Verbindungen, die benutzerdefinierte Treiber unterstützen und isoliert ausgeführt werden. Andere Verbindungstypen bleiben unverändert.
Option zum Abschneiden des einheitlichen Verlaufs während der Migration verwalteter Tabellen
Sie können jetzt den einheitlichen Verlauf abschneiden, wenn Sie Tabellen mit aktivierter Uniform/Iceberg-Funktion migrieren ALTER TABLE...SET MANAGED. Dies vereinfacht Migrationen und reduziert Ausfallzeiten im Vergleich zum manuellen Deaktivieren und erneuten Aktivieren von Uniform.
SQL-Syntax für Delta-Leseoptionen in Streamingabfragen
Sie können jetzt Delta-Leseoptionen für SQL-basierte Streamingabfragen mithilfe der WITH Klausel angeben. Beispiel:
SELECT * FROM STREAM tbl WITH (SKIPCHANGECOMMITS=true, STARTINGVERSION=X);
Richtige Ergebnisse mit split leerem regex und positivem Grenzwert
Azure Databricks gibt jetzt korrekte Ergebnisse zurück, wenn sie mit einem leeren Regex und einem positiven Grenzwert verwendet split function werden. Zuvor hat die Funktion die verbleibende Zeichenfolge falsch abgeschnitten, anstatt sie in das letzte Element einzubinden.
Beheben url_decode und try_url_decode Fehlerbehandlung in Photon
In Photon try_url_decode() und url_decode() mit failOnError = false jetzter Rückgabe NULL für ungültige URL-codierte Zeichenfolgen anstelle eines Fehlschlagens der Abfrage.
Freigegebene Ausführungsumgebung für Unity Catalog Python UDTFs
Azure Databricks teilt nun die Ausführungsumgebung für benutzerdefinierte Python-Tabellenfunktionen (UDTFs) aus derselben Besitzer- und Spark-Sitzung. Eine optionale STRICT ISOLATION Klausel ist verfügbar, um die Freigabe für UDTFs mit Nebeneffekten zu deaktivieren, z. B. das Ändern von Umgebungsvariablen oder das Ausführen von beliebigem Code.
Zeilenverfolgung für neue Tabellen standardmäßig aktiviert
Azure Databricks ermöglicht jetzt die Zeilennachverfolgung standardmäßig für alle neu erstellten verwalteten Unity-Katalogtabellen. Vorhandene Tabellen sind nicht betroffen und behalten ihre aktuellen Zeilenverfolgungseinstellungen bei.
TABLE Argumentunterstützung für Unity Catalog Python UDTFs
Unity Catalog Python UDTFs unterstützen TABLE Argumente, sodass Funktionen ganze Tabellen als Eingabeparameter akzeptieren können, was komplexere Datentransformationen und Aggregationen für strukturierte Datasets ermöglicht. Siehe Python benutzerdefinierte Tabellenfunktionen (UDTFs) im Unity-Katalog. (Zurückportiert von 17.3 LTS).
Verbesserungen der Bibliothek
Aktualisierte Python-Bibliotheken:
In dieser Version wurden keine Python-Bibliotheken aktualisiert.
Aktualisierte R-Bibliotheken:
In dieser Version wurden keine R-Bibliotheken aktualisiert.
Aktualisierte Java-Bibliotheken:
- io.delta.delta-sharing-client_2.13 von 1.3.3 bis 1.3.5
Apache Spark
Databricks Runtime 17.2 umfasst Apache Spark 4.0.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Version 17.1 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
-
SPARK-53183 Verwenden von Java
Files.readStringanstelle vono.a.s.sql.catalyst.util.fileToString - SPARK-51817 Stellen Sie ansiConfig-Felder in messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW
- SPARK-53124 Nicht benötigte Felder aus JsonTuple löschen
- SPARK-53106 Hinzufügen von Schemaentwicklungstests für TWS Scala Spark Connect-Suites
-
SPARK-53201 Anstelle
SparkFileUtils.contentEqualsvonFiles.equal - SPARK-53308 Entfernen Sie in RemoveRedundantAliases keine Aliase, die Duplikate verursachen würden.
-
SPARK-53241 Unterstützung
createArrayinSparkCollectionUtils -
SPARK-53239 Verbessern
MapSortundSortArrayLeistung überparallelSort - SPARK-53184 Behebt melt(), wenn Wertspalten Zeichenfolgen und Zahlen vermischen.
- SPARK-53144 Den Befehl "CreateViewCommand" im "SparkConnectPlanner" ohne Seiteneffekte gestalten.
- SPARK-53303 Verwenden des leeren Zustands-Encoders, wenn der anfangszustand in TWS nicht bereitgestellt wird
- SPARK-52917 Leseunterstützung zum Aktivieren von Roundtrips für binär im XML-Format
- SPARK-53110 Implementieren der time_trunc-Funktion in PySpark
- SPARK-53107 Implementieren der time_trunc-Funktion in Scala
- SPARK-52146 Erkennen von zyklischen Funktionsverweisen in SQL UDFs
- SPARK-52469 Verwenden der JEP 223-API zum Verarbeiten der Java-Version
- SPARK-53094 Korrigiere CUBE mit Aggregat, das HAVING Klauseln enthält
- SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
- SPARK-53287 Hinzufügen eines ANSI-Migrationshandbuchs
- SPARK-43100 Push-basierte Shuffle-Metriken müssen ordnungsgemäß deserialisiert werden
- SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
-
SPARK-53114 Unterstützung
joininJavaUtils - SPARK-53297 Fix StreamingTable Declarative Pipelines API docstring
- SPARK-53181 Aktivieren von Dokumenttests unter ANSI
- SPARK-52482 Verbessern der Ausnahmebehandlung beim Lesen bestimmter beschädigter zstd-Dateien
-
SPARK-52990 Unterstützen
StringSubstitutor - SPARK-51874 TypedConfigBuilder für Scala Enumeration hinzufügen
-
SPARK-53169 Entfernen von Kommentaren im Zusammenhang mit "
Set the logger level of File Appender to" auslog4j2.properties -
SPARK-53080 Support
cleanDirectoryinSparkFileUtilsundJavaUtils - SPARK-53045 DESCRIBE EXTENDED sollte robust für beschädigte Metadaten sein
-
SPARK-53000
StringUtils.scalaStringConcat.scalaIn Modul umbenennensql/api - SPARK-52952 PySpark UDF Type Coercion Dev Script hinzufügen
- SPARK-52998 Mehrere Variablen innerhalb der Deklaration
- SPARK-51817 Stellen Sie ansiConfig-Felder in messageParameters von CAST_INVALID_INPUT und CAST_OVERFLOW
- SPARK-52820 Erfassen vollständiger Pläne in goldenen Dateien
- SPARK-53274 Unterstützung für links- und rechts-Verknüpfungs-Pushdown in ELEMENTScanBuilder
- SPARK-52110 Implementieren der SQL-Syntaxunterstützung für Pipelines
- SPARK-52950 Aktivieren des ANSI-Modus in DataSourceV2StrategySuite
- SPARK-52947 Beheben des Bildpfads in der Programmieranleitung für deklarative Pipelines
- SPARK-52592 Unterstützung beim Erstellen einer PS. Serie von ps. Reihe
- SPARK-53301 Unterscheidungstyphinweise von Pandas UDF und Pfeil-UDF
- SPARK-53146 MergeIntoTable im SparkConnectPlanner nebenwirkungsfrei machen
-
SPARK-53166 Verwenden
SparkExitCode.EXIT_FAILUREimSparkPipelinesObjekt - SPARK-53288 Beheben von Assertionsfehlern mit globaler Streaminggrenze
- SPARK-52394 Beheben des Fehlers "AutoKorrektur durch Null" im ANSI-Modus
- SPARK-51555 Hinzufügen der funktion time_diff()
- SPARK-52948 Aktivieren von test_np_spark_compat_frame unter ANSI
- SPARK-53134 Bereinigen nicht verwendeter ANSI-Importe in Tests
-
SPARK-52593 Vermeiden von CAST_INVALID_INPUT von
MultiIndex.to_seriesundSeries.dotDataFrame.dotim ANSI-Modus - SPARK-53291 Behebe die Nullfähigkeit für die Wertspalte
- SPARK-53097 WriteOperationV2 im SparkConnectPlanner ohne Seiteneffekte gestalten
- SPARK-53305 Unterstützung von TimeType in createDataFrame
-
SPARK-52914 Unterstützung
On-Demand Log Loadingfür Rollprotokolle inHistory Server - SPARK-33538 Direktes Pushen von IN/NOT-Prädikaten an den Hive-Metastore
-
SPARK-52849 Hinzufügen
stringifyExceptionzuo.a.s.util.Utils -
SPARK-52771 Behebung der Erweiterung des float32-Typs in
truediv/floordiv - SPARK-52502 Übersicht über die Threadanzahl
- SPARK-52788 Fehler beim Konvertieren des Binärwerts in BinaryType in XML
-
SPARK-53123 Unterstützung
getRootCauseinSparkErrorUtils -
SPARK-53129 Standardmäßiges Importieren
SparkShelljava.net._verbessern -
SPARK-53061 Unterstützung
copyFileToDirectoryinSparkFileUtils - SPARK-52683 ExternalCatalog alterTableSchema unterstützen
-
SPARK-52871 Zusammenführen
o.a.s.sql.catalyst.util.SparkStringUtilsmito.a.s.util.SparkStringUtils -
SPARK-52817 Beheben der
LikeAusdrucksleistung - SPARK-52545 Standardisieren sie doppelte Anführungszeichen, um die SQL-Spezifikation zu befolgen
-
SPARK-52711 Behebung der Erweiterung des float32-Typs in
mul/rmulunter ANSI - SPARK-52615 Ersetzen Von File.mkdirs durch Utils.createDirectory
- SPARK-52381 JsonProtocol: Nur Unterklassen von SparkListenerEvent akzeptieren
- SPARK-52613 Wiederherstellen des Druckens des vollständigen Stacktrace, wenn HBase/Hive DelegationTokenProvider-Ausnahme getroffen wird
- SPARK-52651 Umgang mit benutzerdefiniertem Typ in geschachteltem Spaltenvektor
- SPARK-52611 SqlConf-Version für excludeSubqueryRefsFromRemoveRedundantAliases beheben...
- SPARK-52552 Check-Einschränkungserzwingung für Löschvektorlöschungen überspringen
-
SPARK-52587 spark-shell 2.13 Unterstützung
-i-IParameter - SPARK-52492 Make InMemoryRelation.convertToColumnarIfPossible customizeable
- SPARK-52451 Die WriteOperation im SparkConnectPlanner nebenwirkungsfrei gestalten
- SPARK-53272 Umgestalten der SPJ-Pushdownlogik aus BatchScanExec
-
SPARK-53071 Unterstützung
copyFileinSparkFileUtils - SPARK-51415 Unterstützung des Zeittyps nach make_timestamp()
- SPARK-51554 Hinzufügen der funktion time_trunc()
- SPARK-52426 Unterstützung für die Umleitung von Stdout/stderr zum Protokollierungssystem
- SPARK-51834 Unterstützung der End-to-End-Tabelleneinschränkungsverwaltung
- SPARK-53063 Implementieren und Aufrufen neuer APIs in FileCommitProtocol anstelle der veralteten
- SPARK-52546 überprüfen SparkContext , wenn die Ausführung des Catch-Codeblocks in execute() beendet wurde, andernfalls wird ein falscher Zustand zurückgegeben.
-
SPARK-53023 Entfernen
commons-ioder Abhängigkeit aussql/apiModul - SPARK-52396 Artefaktstammverzeichnis sollte tmpdir verwenden
-
SPARK-53131 Standardmäßiges Importieren
SparkShelljava.nio.file._verbessern - SPARK-42322 Zuweisen von Namen to_LEGACY_ERROR_TEMP_2235
- SPARK-51834 Unterstützung der End-to-End-Tabelleneinschränkungsverwaltung
- SPARK-52484 Kind.supportsColumnar Überprüfung auf der Treiberseite in ColumnarToRowExec überspringen
- SPARK-52384 Fehlerkorrektur Connect sollte bei OPTIONEN FÜR OPTIONEN nicht beachtet werden
- SPARK-52034 Hinzufügen allgemeiner Methoden in SparkOperation-Eigenschaft für Thriftserver-Vorgänge
-
SPARK-53031 Unterstützung
getFileinSparkFileUtils - SPARK-52976 Beheben von Python UDF, das keine sortierte Zeichenfolge als Eingabeparameter/Rückgabetyp akzeptiert (17.x)
- SPARK-52943 Aktivieren von arrow_cast für alle Pandas UDF-Val-Typen
- SPARK-53263 Unterstützung von TimeType in df.toArrow
- SPARK-53141 Hinzufügen von APIs zum Abrufen der Arbeitsspeichergröße und offheap-Speichergröße aus dem Ressourcenprofil
- SPARK-53259 Korrigieren der Nachricht für INVALID_UDF_EVAL_TYPE
- SPARK-53167 Spark launcher isRemote respektiert auch die Eigenschaftendatei
-
SPARK-53165 Hinzufügen
SparkExitCode.CLASS_NOT_FOUND - SPARK-53171 Utf8String-Verbesserung wiederholen
-
SPARK-53170 Verbessern
SparkUserAppException, um Parameter zu habencause - SPARK-52989 Hinzufügen einer expliziten Close()-API zu Statusspeicher-Iteratoren
- SPARK-53074 Vermeiden sie partielle Clustering in SPJ, um die erforderliche Verteilung eines untergeordneten Elements zu erfüllen.
- SPARK-52252 ScalaUDF-Encoder in Unterabfragen sollten aufgelöst werden
- SPARK-53244 Speichern Sie während der Ansichtserstellung nicht den aktivierten und mit Vorbehalt aktivierten Modus
- SPARK-53192 Speichern Sie eine Datenquelle immer im Spark Connect-Plancache zwischen
- SPARK-51813 Hinzufügen eines nicht nullierbaren DefaultCachedBatchKryoSerializers, um die Nullverteilung in DefaultCachedBatch serde zu vermeiden
- SPARK-52904 Reapply "[SC-202233][python] Enable convertToArrowArrayS...
-
SPARK-53253 Beheben der Registrierung von UDF vom Typ
SQL_SCALAR_ARROW_ITER_UDF - SPARK-53243 Auflisten der unterstützten Eval-Typen in Pfeilknoten
-
SPARK-53130 Beheben
toJsondes Verhaltens von sortierten Zeichenfolgentypen -
SPARK-53003 Support
stripinSparkStringUtils - SPARK-51902 Synchronisierungsbetriebssystem: Erzwingen der Check-Einschränkung beim Einfügen der Tabelle
- SPARK-52047 PySparkValueError für nicht unterstützte Zeichnungstypen auslösen
-
SPARK-53004 Support
abbreviateinSparkStringUtils - SPARK-53066 Verbessern der EXPLAIN Ausgabe für DSv2 Join Pushdown
- SPARK-30848 ProductHash aus TreeNode entfernen
-
SPARK-53046 Verwenden von Java
readAllBytesanstelle vonIOUtils.toByteArray -
SPARK-53206 Anstelle
SparkFileUtils.movevoncom.google.common.io.Files.move - SPARK-53066 Verbessern der EXPLAIN Ausgabe für DSv2 Join Pushdown
- SPARK-53069 Korrigieren falscher Zustandsspeichermetriken mit virtuellen Spaltenfamilien
- SPARK-52904 ConvertToArrowArraySafely standardmäßig aktivieren [17.x]
- SPARK-52821 add int-DecimalType> pyspark udf return type coercion
-
SPARK-51562 Funktion hinzufügen
time - SPARK-52971 Beschränken der Größe der Python-Workerwarteschlange im Leerlauf
-
SPARK-53057 Support
sizeOfinSparkFileUtilsundJavaUtils - SPARK-53040 Verbieten von Selbstreferenzen innerhalb der obersten CTEs in Rekursiven CTEs
- SPARK-53104 Führen Sie ansi_mode_context ein, um mehrere Konfigurationsprüfungen pro API-Aufruf zu vermeiden.
-
SPARK-47547 Hinzufügen von
BloomFilterV2 und Verwenden als Standard -
SPARK-53098
DeduplicateRelationsSollte Ausdrücke nicht neu zuordnen, wenn noch altExprIdin der Ausgabe vorhanden ist -
SPARK-53049 Unterstützung
toStringinSparkStreamUtils -
SPARK-53062 Support
deleteQuietlyinSparkFileUtilsundJavaUtils -
SPARK-53070 Unterstützung
is(Not)?EmptyinSparkCollectionUtils - SPARK-53020 JPMS-Args sollten auch auf Nicht-SparkSubmit-Prozess angewendet werden.
- SPARK-52968 Ausgeben zusätzlicher Statusspeichermetriken
- SPARK-52975 Vereinfachen von Feldnamen in pushdown join sql
- SPARK-52926 SQLMetric für die Dauer des Remoteschemaabrufs hinzugefügt.
- SPARK-53059 Pfeil UDF muss nicht von Pandas abhängen
-
SPARK-52646 Vermeiden von CAST_INVALID_INPUT im
__eq__ANSI-Modus -
SPARK-52622 Vermeiden von CAST_INVALID_INPUT im
DataFrame.meltANSI-Modus - SPARK-52985 Raise TypeError für Pandas numpy operand in Vergleichsoperatoren
-
SPARK-52580 Vermeiden von CAST_INVALID_INPUT im
replaceANSI-Modus - SPARK-52549 Rekursive CTE-Selbstverweise aus Fensterfunktionen und innerhalb von Sortierungen deaktivieren
-
SPARK-52895 Fügen Sie keine doppelten Elemente hinzu
resolveExprsWithAggregate - SPARK-50748 Behebung eines Racebedingungsproblems, das auftritt, wenn Vorgänge unterbrochen werden
- SPARK-52737 Pushdown-Prädikat und Anzahl von Apps zu FsHistoryProvider beim Auflisten von Anwendungen
- SPARK-53018 ArrowStreamArrowUDFSerializer sollte argument arrow_cast
- SPARK-53013 Fix Pfeiloptimierter Python UDTF, der keine Zeilen bei lateraler Verknüpfung zurückgibt
- SPARK-51834 Synchronisierungsbetriebssysteme: Unterstützen der Einschränkungsbeschränkung für end-to-end-Tabellen
- SPARK-52921 Angeben von outputPartitioning für UnionExec für denselben Ausgabeteilitoning wie untergeordnete Operatoren
- SPARK-52908 Verhindern, dass iteratorvariabler Name mit Namen von Bezeichnungen im Pfad zum Stamm von AST kollidiert
- SPARK-52954 UDF-Unterstützung für Rückgabetypkoersion
- SPARK-52925 Fehlermeldung für Verankerungs-Selbstverweise in rCTEs zurückgeben
- SPARK-52889 Implementieren der current_time-Funktion in PySpark
- SPARK-52675 Unterbrechen hängender ML-Handler in Tests
- SPARK-52959 Unterstützung von UDT in pfeiloptimierten Python UDTF
- SPARK-52962 BroadcastExchangeExec sollte keine Metriken zurücksetzen
- SPARK-52956 Beibehalten von Aliasmetadaten beim Reduzieren von Projekten
- SPARK-52890 Implementieren der funktionen to_time und try_to_time in PySpark
- SPARK-52888 Implementieren der make_time-Funktion in PySpark
- SPARK-52892 Unterstützungszeit in den Funktionen "Stunde", "Minute" und "Sekunde" in PySpark
- SPARK-52837 Unterstützung von TimeType in pyspark
- SPARK-52023 Beheben von Datenbeschädigungen/Segfault-Rückgabeoption[Produkt] von udaf
- SPARK-52955 Ändern der Rückgabetypen von WindowResolution.resolveOrder und WindowResolution.resolveFrame in WindowExpression
- SPARK-52166 Hinzufügen von Unterstützung für PipelineEvents
- SPARK-51834 Fix: Entfernen gültiger Dateien aus toDDL
- SPARK-52735 Beheben fehlender Fehlerbedingungen für SQL UDFs
- SPARK-51834 Sync OSS Support End-to-End-Erstellungs-/Ersetzungstabelle mit Einschränkung
- SPARK-51834 Synchronisieren des OSS-Updates "ResolvedIdentifier" nicht angewendete Aufrufe
- SPARK-52929 Unterstützen des MySQL- und SQLServer-Connectors für DSv2 Join-Pushdown
- SPARK-52448 Vereinfachte Strukturausdruck.Literal hinzufügen
- SPARK-52882 Implementieren der current_time-Funktion in Scala
- SPARK-52905 Pfeil-UDF für Fenster
-
SPARK-52876 Korrigieren eines Tippfehlers
bufferinbodyChunkFetchSuccess.toString - SPARK-52883 Implementieren der funktionen to_time und try_to_time in Scala
-
SPARK-52751 Überprüfen Sie den Spaltennamen nicht unbedingt in
dataframe['col_name'] - SPARK-52791 Beheben eines Fehlers beim Ableiten eines UDT mit einem null ersten Element
-
SPARK-52686
Unionsollte nur aufgelöst werden, wenn keine Duplikate vorhanden sind - SPARK-52881 Implementieren der make_time-Funktion in Scala
- SPARK-52919 Beheben des DSv2 Join-Pushdowns zur Verwendung zuvor aliaser Spalte
-
SPARK-52866 Hinzufügen von Support für
try_to_date - SPARK-52846 Fügen Sie eine Metrik in RSSRDD hinzu, wie lange es dauert, um das Resultset abzurufen.
- SPARK-52859 SparkSystemUtils-Eigenschaft hinzufügen
- SPARK-52823 Unterstützung für DSv2 Join Pushdown für Oracle Connector
- SPARK-52165 Einrichten des Buildgerüsts für das Pipelineprojekt
- SPARK-52869 Hinzufügen der FrameLessOffsetWindowFunction-Validierung zur ValidateResolvedWindowExpression für die Wiederverwendung in single-pass analyzer
- SPARK-52885 Implementieren der Funktionen "Stunde", "Minute" und "Sekunde" in Scala für den TIME-Typ
- SPARK-52903 Kürzen von Aliasen auf oberster Ebene vor der LCA-Auflösung
- SPARK-52832 KORRIGIEREN DER SPRACHE-Dialektbezeichner-Quotierung
-
SPARK-52870 Richtig anführungszeichenvariable Namen in Anweisung
FOR -
SPARK-52859 Eigenschaft hinzufügen
SparkSystemUtils -
SPARK-52900 Verwenden
SparkStringUtils.stringToSeqinFsHistoryProvider - SPARK-52809 Enthalten Sie keine Lese- und Iteratorverweise für alle Partitionen in Aufgabenabschlusslistenern für die Metrikaktualisierung.
-
SPARK-52815 Verbesserung
SparkClassUtilsder UnterstützunggetAllInterfaces - SPARK-52795 Einschließen von runId in Zustandsspeicherprotokolle
- SPARK-52779 Unterstützung des TimeType-Literals in Connect
- SPARK-52899 Reparatur des QueryExecutionErrorsSuite-Tests, um die H2Dialect erneut zu registrieren.
-
SPARK-52862 Korrigieren der Nullbarkeitsprüfung von
Decimal('NaN') - SPARK-52214 Pfeil-UDF für Aggregation
- SPARK-52787 Neuorganisieren der Streamingausführung um Laufzeit- und Prüfpunktbereiche
- SPARK-51564 TIME-Analyse im 12-Stunden-Format
-
SPARK-52859 Eigenschaft hinzufügen
SparkSystemUtils -
SPARK-51562 Funktion hinzufügen
time - SPARK-52850 Aufrufen von Konvertierungen überspringen, wenn identitätsfunktion
- SPARK-52863 Bereinigen von Codepfaden für alte Pandas-Versionen
- SPARK-52516 Speichern Sie den vorherigen Iteratorverweis nicht, nachdem Sie zur nächsten Datei in "ParquetPartitionReaderFactory" wechseln.
-
SPARK-52848 Vermeiden von Umwandlung in
DoubleUmwandlungSZEIT/ZEITSTEMPEL in DEZIMAL -
SPARK-52770 Supporttyp
TIMEin connect proto - SPARK-52842 Neue Funktionen und Bugfixes für single-pass Analyzer
- SPARK-52620 Unterstützen der Umwandlung von TIME in DECIMAL
- SPARK-52783 Refaktorisieren der Validierungslogik der Fensterfunktion von CheckAnalysis zur Wiederverwendung im Single-Pass-Analyzer
- SPARK-51695 Synchronisiere OSS zum Erstellen/Ersetzen/Ändern von Tabellen für eindeutige Einschränkungen über DSv2
- SPARK-51695 Synchronisierung osS drop constraint via DSv2
- SPARK-52824 CheckpointFileManager-Fehlerklassifizierung
- SPARK-52829 Korrigieren Von LocalDataToArrowConversion.convert zum ordnungsgemäßen Behandeln leerer Zeilen
- SPARK-52811 Optimieren der ArrowTableToRowsConversion.convert zur Verbesserung der Leistung
- SPARK-52796 Optimieren von LocalDataToArrowConversion.convert zur Verbesserung der Leistung
- SPARK-51695 Änderungen am Einschränkungsparser für die Synchronisierung von OSS Alter Table hinzufügen
- SPARK-52619 Cast TimeType in IntegralType
- SPARK-52187 Einführung von Join-Pushdown für DSv2
- SPARK-52782 Zurückgeben von NULL von +/- am Datumszeitpunkt mit NULL
- SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
-
SPARK-52808
spark.history.retainedApplicationssollte positiv sein - SPARK-52776 Teilen Sie das Comm-Feld nicht in ProcfsMetricsGetter
-
SPARK-52793 Support
isUnixuntero.a.s.util.Utils -
SPARK-52792 Entfernen
commons-lang3der Abhängigkeit vonnetwork-common -
SPARK-52797 Verwenden Statt
Utils.isWindowsneu auszuwertenPythonWorkerFactory - SPARK-52784 Hinzufügen von TimeZoneAware-Umwandlung in WindowFrameTypeCoercion.createBoundaryCast
- SPARK-52725 Verzögern der Initialisierung des Ressourcenprofil-Managers bis zum Laden des Plug-Ins
- SPARK-52565 Erzwingen der Ordnungsauflösung vor anderen Sortierreihenfolgeausdrücken
- SPARK-52740 Beheben von NPE in HDFSBackedStateStoreProvider beim Zugriff auf StateStoreConf.sqlConf, wenn die Version des Prüfpunktformats =2 ist >
- SPARK-52673 Hinzufügen der Grpc RetryInfo-Behandlung zu Spark Connect-Wiederholungsrichtlinien
- SPARK-52724 Verbessern der OOM-Fehlerbehandlung bei der Übertragungsbeitritt mit SHUFFLE_MERGE Hint-Unterstützung
- SPARK-52781 Korrigieren von Dtyeps-Tippfehlern in internal.py
- SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in DATABASERDD
- SPARK-52727 Umgestalten der Fensterauflösung, um sie im Single Pass Analyzer wiederzuverwenden
- SPARK-52695 Unterstützung für benutzerdefinierten Typschreibzugriff für xml-Dateiformate
- SPARK-52722 Deprecate CodRDD-Klasse
- SPARK-51695 Einführung von Parseränderungen für Tabelleneinschränkungen (CHECK, PK, FK)
- SPARK-52763 SupportZEIT subtrahieren
- SPARK-52768 Korrigieren von Tippfehler "Moveing" in Pandas/series.py
- SPARK-52730 Speichern zugrunde liegender Treiber und Datenbankversion in DATABASERDD
-
SPARK-52694 API hinzufügen
o.a.s.sql.Encoders#udt -
SPARK-52720 Behebung der float32 Typenerweiterung in
add/raddunter ANSI - SPARK-52723 Serverseitige Spaltennamenüberprüfung
-
SPARK-52760 Behebung der float32-Typverbreiterung in
sub/rsubgemäß ANSI -
SPARK-52738 Unterstützung beim Aggregieren des TIME-Typs mit einem UDAF, wenn der zugrunde liegende Puffer ein
UnsafeRow - SPARK-52704 Vereinfachen der Interoperabilität zwischen SQLConf- und Dateiformatoptionen in TextBasedFileFormats
- SPARK-52706 Beheben von Inkonsistenzen und Umgestalten von Grundtypen in Parser
-
SPARK-52718 Korrigieren der Erweiterung des float32-Typs in
rmod/modnach ANSI-Standards - SPARK-52736 Korrigieren Von Tippfehlern 'moveing' in pyspark/pandas/generic.py
Azure Databricks ODBC/JDBC-TREIBERunterstützung
Azure Databricks unterstützt in den letzten 2 Jahren veröffentlichte ODBC/JDBC-Treiber. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Systemumgebung
- Betriebssystem: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Skala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | Pfeil | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | Attrs | 24.3.0 |
| autocommand | 2.2.2 | azure-common | 1.1.28 | Azure Core | 1.34.0 |
| Azure-Identity | 1.20.0 | azure-mgmt-core | 1.5.0 | azure-mgmt-web | 8.0.0 |
| azure-storage-blob | 12.23.0 | Azure-Speicher-Datei-Datensee | 12.17.0 | babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | schwarz | 24.10.0 |
| Bleichmittel | 6.2.0 | Blinker | 1.7.0 | boto3 | 1.36.2 |
| Botocore | 1.36.3 | CacheWerkzeuge | 5.5.1 | Zertifikat | 2025.1.31 |
| cffi | 1.17.1 | Chardet | 4.0.0 | Charset-Normalizer | 3.3.2 |
| klicken | 8.1.7 | cloudpickle | 3.0.0 | Kommunikation | 0.2.1 |
| Contourpy | 1.3.1 | Kryptographie | 43.0.3 | Fahrradfahrer | 0.11.0 |
| Cython | 3.0.12 | Databricks-SDK | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | Dekorateur | 5.1.1 | defusedxml | 0.7.1 |
| Deprecated | 1.2.13 | Distlib | 0.3.9 | Docstring zu Markdown | 0.11 |
| ausführen | 0.8.3 | Übersicht der Facetten | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | Dateisperrung | 3.18.0 | fonttools | 4.55.3 |
| fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth | 2.40.0 |
| Google Cloud Core | 2.4.3 | Google Cloud-Speicher | 3.1.0 | google-crc32c | 1.7.1 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | GRPCIO | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | idna | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | isoduration | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpointer | 3.0.0 | jsonschema | 4.23.0 |
| jsonschema-Spezifikationen | 2023.7.1 | Jupyter-Ereignisse | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown-it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-Erweiterungen | 1.0.0 | nbclient | 0.8.0 | nbconvert | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| Notebook | 7.3.2 | Notebook-Shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) | 0.53b1 | Überschreibt | 7.4.0 | Verpackung | 24,2 |
| Pandas | 2.2.3 | Pandocfilter | 1.5.0 | Parso | 0.8.4 |
| pathspec | 0.10.3 | patsy | 1.0.1 | pexpect | 4.8.0 |
| Kissen | 11.1.0 | pip | 25.0.1 | platformdirs | 3.10.0 |
| plotly | 5.24.1 | plugin-fähig | 1.5.0 | prometheus_client | 0.21.0 |
| Prompt-Toolkit | 3.0.43 | proto-plus | 1.26.1 | protobuf | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | Pyasn1 | 0.4.8 |
| Pyasn1-Module | 0.2.8 | pyccolo | 0.0.71 | Pycparser | 2.21 |
| Pydantisch | 2.10.6 | pydantic_core | 2.27.2 | Pyflakes | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | Python-LSP-Server | 1.12.0 |
| pytoolconfig | 1.2.6 | Pytz | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | referenzierung | 0.30.2 | requests | 2.32.3 |
| rfc3339-Prüfer | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| Seil | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | SciPy | 1.15.1 |
| Seegeboren | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| Sechs | 1.16.0 | smmap | 5.0.0 | sniffio | 1.3.0 |
| sortierte Container | 2.4.0 | Sieb für Suppe | 2,5 | sqlparse | 0.5.3 |
| ssh-import-id | 5.11 | Stapeldaten | 0.2.0 | Starlet | 0.46.2 |
| StatistikModelle | 0.14.4 | strictyaml | 1.7.3 | Hartnäckigkeit | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | Tornado | 6.4.2 |
| traitlets | 5.14.3 | Typwächter | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson | 5.10.0 |
| unbeaufsichtigte Aktualisierungen | 0,1 | URI-Vorlage | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolors | 24.11.1 | Webkodierungen | 0.5.1 |
| WebSocket-Client | 1.8.0 | Was ist neu im Patch | 1.0.2 | Rad | 0.45.1 |
| widgetsnbextension | 3.6.6 | Eingehüllt | 1.17.0 | yapf | 0.40.2 |
| zipp | 3.21.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-03-20installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 19.0.1 | Askpass | 1.2.1 | prüfen, dass | 0.2.1 |
| backports | 1.5.0 | Basis | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | Bit64 | 4.6.0-1 |
| bitops | 1.0-9 | Klumpen | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | Besen | 1.0.7 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| Caret | 7.0-1 | CellRanger | 1.1.0 | Chron | 2.3-62 |
| class | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| clock | 0.7.2 | Gruppe | 2.1.6 | Codetools | 0.2-20 |
| Farbraum | 2.1-1 | Commonmark | 1.9.5 | Kompilierer | 4.4.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.5.2 |
| Buntstift | 1.5.3 | Zugangsdaten | 2.0.2 | cURL | 6.4.0 |
| data.table | 1.17.0 | Datensätze | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Beschreibung | 1.4.3 | devtools | 2.4.5 |
| Diagramm | 1.6.5 | diffobj | 0.3.5 | verdauen | 0.6.37 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | Ellipse | 0.3.2 | auswerten | 1.0.3 |
| Fans | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.3 | forcats | 1.0.0 | foreach | 1.5.2 |
| Fremd | 0.8-86 | schmieden | 0.2.0 | fs | 1.6.5 |
| Zukunft | 1.34.0 | future.apply | 1.11.3 | gargle | 1.5.2 |
| Generika | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.18.0 | Klebstoff | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.2 |
| Graphik | 4.4.2 | grGeräte | 4.4.2 | grid | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | GT | 0.11.1 |
| g-Tabelle | 0.3.6 | Schutzhelm | 1.4.1 | Hafen | 2.5.4 |
| highr | 0.11 | HMS | 1.1.3 | HTML-Werkzeuge | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Ausweise | 1.0.1 | ini | 0.3.1 |
| IPRED | 0.9-15 | Isobande | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | Knitr | 1,50 | Etikettierung | 0.4.3 |
| later | 1.4.1 | lattice | 0.22-5 | lava | 1.8.1 |
| Lebenszyklus | 1.0.4 | „listenv“ | 0.9.1 | Schmiermittel | 1.9.4 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | Methodik | 4.4.2 |
| mgcv | 1.9-1 | Mime-Kunst | 0,13 | miniUI | 0.1.1.1 |
| mlflow | 2.20.4 | ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | NNET | 7.3-19 |
| numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.3.3 | parallel | 4.4.2 |
| parallel dazu | 1.42.0 | Säule | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | loben | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Prozessx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | Fortschritt | 1.2.3 |
| progressr | 0.15.1 | Versprechungen | 1.3.2 | proto | 1.0.0 |
| Stellvertreter | 0.4-27 | P.S. | 1.9.0 | purrr | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | randomForest | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reaktivierbar | 0.4.4 |
| reactR | 0.6.1 | READR | 2.1.5 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.5 |
| Rezepte | 1.2.0 | Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 |
| fernbedienungen | 2.5.0 | reprex | 2.1.1 | Umform2 | 1.4.4 |
| rlang | 1.1.6 | RMarkdown | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | RVEST | 1.0.4 | Sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.3 |
| Gestalt | 1.4.6.1 | glänzend | 1.10.0 | sourcetools | 0.1.7-1 |
| Sparklyr | 1.9.1 | SparkR | 4.0.0 | sparsevctrs | 0.3.1 |
| spatial | 7.3-17 | splines | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.4.2 | Statistiken4 | 4.4.2 |
| Stringi | 1.8.7 | stringr | 1.5.1 | Überleben | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | Textgestaltung | 1.0.0 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 | timeDate | 4041.110 |
| tinytex | 0.56 | Werkzeuge | 4.4.2 | Zeitzonendatenbank (tzdb) | 0.5.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 3.1.0 | utf8 | 1.2.6 |
| utils | 4.4.2 | Universelle eindeutige Kennung (UUID) | 1.2-1 | V8 | 6.0.2 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.5 |
| Waldo | 0.6.1 | whisker | 0.4.1 | Withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML-Dateiformat | 2.3.10 | zeallot | 0.1.0 |
| zip | 2.3.2 |
Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.12.0 |
| com.amazonaws | AWS Java SDK für Auto Scaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-SWF-Bibliotheken | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | Datenstrom | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | Jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.coffein | Koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | failureaccess | 1.0.2 |
| com.google.guava | Guave | 33.4.0-jre |
| com.google.guava | hörbareZukunft | 9999.0-empty-to-avoid-conflict-with-guava |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.30 |
| io.dropwizard.metrics | metrics-core | 4.2.30 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.30 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.30 |
| io.dropwizard.metrics | Metrics-Jetty9 | 4.2.30 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.30 |
| io.dropwizard.metrics | metrics-json | 4.2.30 |
| io.dropwizard.metrics | metrics-jvm | 4.2.30 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | netty-buffer | 4.1.118.Final |
| io.netty | Netty Codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common | 4.1.118.Final |
| io.netty | netty-handler | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | Netty-Resolver | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-Klassen | 2.0.70.Final |
| io.netty | netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | Sammler | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilformat | 18.2.0 |
| org.apache.arrow | arrow-memory-core | 18.2.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.2.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.2.0 |
| org.apache.arrow | Pfeil-Vektor | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.13.0 |
| org.apache.curator | Kurator-Klient | 5.7.1 |
| org.apache.curator | curator-framework | 5.7.1 |
| org.apache.curator | Rezepte des Kurators | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.4.1 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-Client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | ORC-Format | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | Orc-Shims | 2.1.1 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4,26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.3 |
| org.apache.zookeeper | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-Client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-continuation | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-HTTP | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Plus | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Proxy | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Sicherheit | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty Server | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-Webanwendung | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Client | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket-Server | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Anmerkungen | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Tipp
Versionshinweise zu Versionen von Databricks Runtime, die das Ende des Supports (EoS) erreicht haben, finden Sie unter Versionshinweise zum Ende des Supports für Databricks Runtime. Die EoS Databricks-Runtime-Versionen wurden eingestellt und werden möglicherweise nicht aktualisiert.