Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die folgenden Versionshinweise enthalten Informationen zu Databricks Runtime 18.1 (Beta).
Diese Version enthält alle Features, Verbesserungen und Fehlerbehebungen aller vorherigen Databricks-Runtime-Versionen. Databricks hat diese Version im Februar 2026 veröffentlicht.
Von Bedeutung
Databricks Runtime 18.1 befindet sich in der Betaversion. Der Inhalt der unterstützten Umgebungen kann sich während der Betaversion ändern. Änderungen können die Liste der Pakete oder Versionen installierter Pakete enthalten.
Neue Features und Verbesserungen
- Auto Loader verwendet standardmäßig Dateiereignisse, wenn verfügbar
- Optimierte Schreibvorgänge für partitionierte Unity-Katalogtabellen, die mit CRTAS erstellt wurden
- DATETIMEOFFSET-Datentypunterstützung für Microsoft Azure Synapse
- Google BigQuery-Tabellenkommentare
- Schemaentwicklung mit INSERT anweisungen
- Beibehaltene NULL-Strukturwerte in INSERT Vorgängen
- Unterstützung von Multi-Statement-Transaktionen für Delta Sharing
- DataFrame-Prüfpunkte in Volumepfaden
- SQL-Befehle werden beim Aufrufen von Cache() nicht mehr erneut ausgeführt.
- parse_timestamp SQL-Funktion
- SQL-Cursorunterstützung in zusammengesetzten Anweisungen
- Ungefähre Top-K-Skizzenfunktionen
- Tupelskizzenfunktionen
Auto Loader verwendet, wenn verfügbar, standardmäßig Dateiereignisse.
Auto Loader verwendet standardmäßig Dateiereignisse beim Laden von einer externen Quelle, wenn diese aktiviert sind, wodurch der Aufwand für Listenvorgänge und die damit verbundenen Kosten im Vergleich zur Verzeichnisauflistung reduziert werden. Siehe Übersicht über Auto Loader mit Dateiereignissen. Dateiereignisse werden nicht verwendet, wenn Ihr Datenstromcode useIncrementalListing oder useNotifications setzt. Wenn Sie stattdessen die Verzeichnisliste verwenden möchten, legen Sie useManagedFileEvents auf false fest.
Optimierte Schreibvorgänge für partitionierte Unity-Katalogtabellen, die mit CRTAS erstellt wurden
Optimierte Schreibvorgänge gelten für partitionierte Unity-Katalogtabellen, die von CREATE OR REPLACE TABLE ... AS SELECT (CRTAS) erstellt wurden und weniger, größere Dateien erzeugen. Dieses Verhalten ist standardmäßig aktiviert. Legen Sie zum Deaktivieren spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled auf false.
DATETIMEOFFSET-Datentypunterstützung für Microsoft Azure Synapse
Der DATETIMEOFFSET Datentyp wird für Microsoft Azure Synapse-Verbindungen unterstützt.
Google BigQuery-Tabellenkommentare
Google BigQuery-Tabellenbeschreibungen werden aufgelöst und als Tabellenkommentare verfügbar gemacht.
Schemaentwicklung mit INSERT Anweisungen
Verwenden Sie die WITH SCHEMA EVOLUTION Klausel mit SQL-Anweisungen INSERT , um das Schema der Zieltabelle während der Einfügevorgänge automatisch zu entwickeln. Die Klausel wird für INSERT INTO, INSERT OVERWRITE und INSERT INTO ... REPLACE-Formulare unterstützt. Beispiel:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Das Schema der Delta Lake-Zieltabelle wird aktualisiert, um zusätzliche Spalten oder erweiterte Typen aus der Quelle zu integrieren. Ausführliche Informationen finden Sie unter Schemaentwicklungs- und INSERT Anweisungssyntax.
Beibehalten von NULL-Strukturwerten in INSERT-Vorgängen
INSERT Vorgänge mit Schemaentwicklung oder implizitem Casting bewahren Strukturwerte NULL , wenn die Quell- und Zieltabellen unterschiedliche Strukturfeldreihenfolgen aufweisen.
Multi-Statement-Transaktionsunterstützung für Delta Sharing
Delta-Freigabetabellen, die vorgesignierte URL- oder Cloudtoken-Freigabemodi verwenden, unterstützen Mehrfachanweisungs-Transaktionen. Beim ersten Zugriff innerhalb einer Transaktion wird die Tabellenversion angeheftet und für alle nachfolgenden Lesevorgänge in dieser Transaktion wiederverwendet.
Limitations:
- Zeitreisen, Datenfeeds ändern und Streaming werden nicht unterstützt.
- Transaktionen mit mehreren Anweisungen werden in geteilten Tabellen ohne Verlauf nicht unterstützt.
- Freigegebene Ansichten und fremde Entitäten sind bei nicht vertrauenswürdigen Berechnungen nicht zulässig.
DataFrame-Prüfpunkte in Volumenpfaden
DataFrame-Prüfpunkte unterstützen Volumepfade des Unity-Katalogs. Konfigurieren Sie den Prüfpunktpfad mithilfe von SparkContext.setCheckpointDir auf der dedizierten Berechnung oder der spark.checkpoint.dir-Konfiguration auf der Standardberechnung.
SQL-Befehle werden beim Aufrufen von Cache() nicht mehr erneut ausgeführt.
SQL-Befehle werden beim Aufrufen .cache() des DataFrame-Ergebnisses nicht mehr erneut ausgeführt. Dazu gehören Befehle wie SHOW TABLES z. B. und SHOW NAMESPACES.
parse_timestamp SQL-Funktion
Die parse_timestamp SQL-Funktion analysiert Zeitstempelzeichenfolgen anhand mehrerer Muster. Es wird für eine schnellere Auswertung mit Zeitstempeln in verschiedenen Formaten photonisiert. Informationen zur Datetime-Musterformatierung finden Sie unter Datetime-Mustermuster .
SQL-Cursorunterstützung in zusammengesetzten Anweisungen
Zusammengesetzte SQL-Skriptanweisungen unterstützen jetzt die Cursorverarbeitung. Verwenden Sie DECLARE CURSOR, um einen Cursor zu definieren, dann OPEN statement, FETCH statement, und CLOSE statement, um die Abfrage auszuführen und die Zeilen einzeln zu verarbeiten. Cursor können Parametermarkierungen und Bedingungsbehandler verwenden, z. B. NOT FOUND für die zeilenweise Verarbeitung.
Ungefähre Top-K-Sketch-Funktionen
Neue Funktionen ermöglichen das Erstellen und Kombinieren ungefährer Top-K-Skizzen für verteilte Top-K-Aggregation:
-
approx_top_k_accumulate: Erstellt eine Skizze pro Gruppe. Sieheapprox_top_k_accumulateAggregatfunktion. -
approx_top_k_combine: Führt Skizzen zusammen. Sieheapprox_top_k_combineAggregatfunktion. -
approx_top_k_estimate: Gibt die obersten K-Elemente mit geschätzter Anzahl zurück. Sieheapprox_top_k_estimateFunktion.
Weitere Informationen finden Sie unter approx_top_k Aggregatfunktion und integrierte Funktionen.
Tupelskizzenfunktionen
Neue Aggregat- und Skalarfunktionen für Tupelskizzen unterstützen das eindeutige Zählen und Aggregieren über Schlüssel-Zusammenfassungspaare.
Aggregatfunktionen:
-
tuple_sketch_agg_doubleAggregatfunktion -
tuple_sketch_agg_integerAggregatfunktion -
tuple_union_agg_doubleAggregatfunktion -
tuple_union_agg_integerAggregatfunktion -
tuple_intersection_agg_doubleAggregatfunktion -
tuple_intersection_agg_integerAggregatfunktion
Skalare Funktionen:
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
Siehe integrierte Funktionen.
Verhaltensänderungen
- FILTER-Klausel für MEASURE-Aggregatfunktionen
- Optimierte Schreibvorgänge für Unity Catalog CRTAS-Vorgänge
- DataFrame-Cacheaktualisierung für differenzierte Zugriffssteuerungstabellen
- Zeitstempelpartitionswerte verwenden die Sitzungszeitzone
- Reserviertes Schlüsselwort "DESCRIBE FLOW"
- Leistungsverbesserung bei geospatialen Vorgängen
- Ausnahmetypen für SQLSTATE
- Automatische Streamingtypweiterung
FILTER-Klausel für MEASURE-Aggregatfunktionen
MEASURE-Aggregatfunktionen unterstützen jetzt FILTER-Klauseln. Zuvor wurden Filter unbemerkt ignoriert.
Optimierte Schreibvorgänge für Unity Catalog CRTAS-Vorgänge
ERSTELLEN ODER ERSETZEN TABLE ALS SELECT (CRTAS) Vorgänge auf partitionierten Unity-Katalogtabellen verwenden jetzt standardmäßig optimierte Schreibvorgänge. Legen Sie zum Deaktivieren spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled auf false.
DataFrame-Cache-Aktualisierung für differenzierte Zugriffssteuerungs-Tabellen
Schreiben in differenzierte Zugriffssteuerungstabellen für dedizierte Compute aktualisiert jetzt zwischengespeicherte DataFrames, die von der Tabelle abhängen.
Zeitstempelpartitionswerte verwenden die Sitzungszeitzone
Zeitstempelpartitionswerte verwenden die Spark-Sitzungszeitzone anstelle der JVM-Zeitzone. Wenn Sie Zeitstempelpartitionen vor Databricks Runtime 18.0 geschrieben haben, führen Sie SHOW PARTITIONS aus, um die Partitionsmetadaten zu überprüfen, bevor neue Daten geschrieben werden.
Reserviertes Schlüsselwort "DESCRIBE FLOW"
Der DESCRIBE FLOW Befehl ist jetzt verfügbar. Wenn Sie eine Tabelle mit dem Namen flow haben, verwenden Sie DESCRIBE schema.flow, DESCRIBE TABLE flow oder DESCRIBE `flow` mit Backticks.
Leistungsverbesserung bei geospatialen Vorgängen
Geospatial-boolesche Setvorgänge verwenden eine neue Implementierung mit verbesserter Leistung. Geringfügige Genauigkeitsunterschiede können nach der 15. Dezimalstelle auftreten.
Ausnahmetypen für SQLSTATE
Ausnahmetypen werden aktualisiert, um SQLSTATE zu unterstützen. Wenn Ihr Code Ausnahmen anhand von Zeichenfolgenabgleich analysiert oder bestimmte Ausnahmetypen abfangen, aktualisieren Sie die Fehlerbehandlungslogik.
Automatische Streamingtypweiterung
Streaminglesevorgänge in Delta-Tabellen behandeln automatisch die Spaltentypweiterung. Um eine manuelle Bestätigung erforderlich zu machen, legen Sie diese spark.databricks.delta.typeWidening.enableStreamingSchemaTracking Einstellung auf true.
Verbesserungen der Bibliothek
In dieser Version wurden keine Bibliotheken aktualisiert.
Apache Spark
Databricks Runtime 18.1 umfasst Apache Spark 4.1.0. Diese Version enthält alle Spark-Fixes und Verbesserungen, die in Databricks Runtime 18.0 enthalten sind, sowie die folgenden zusätzlichen Fehlerbehebungen und Verbesserungen, die an Spark vorgenommen wurden:
- SPARK-55350 Korrektur des Zeilenverlusts beim Erstellen eines DataFrame aus Pandas mit 0 Spalten
- SPARK-55364 UnterstützenIAdd- und SupportsOrdering-Protokoll sinnvoller machen
- SPARK-53656 MemoryStream umgestalten, um SparkSession anstelle von SQLContext zu verwenden
-
SPARK-55472 Auslösen von
AttributeErroraus Methoden, die in pandas 3 entfernt wurden. - SPARK-55224 Verwendung von Spark DataType als Referenzwert in Pandas-Arrow-Serialisierung
- SPARK-55402 Verschieben von streamingSourceIdentifyingName von CatalogTable zu DataSource
- SPARK-55459 Beheben der 3x-Leistungsregression in applyInPandas für große Gruppen
- SPARK-55317 Hinzufügen eines neuen logischen Plan-Knotens "SequentialUnion" und einer entsprechenden Planungsregel.
-
SPARK-55424 Explizites Weitergeben des Reihenname in
convert_numpy -
SPARK-55175 Extrahieren eines
to_pandasTransformators aus Serialisierern - SPARK-55304 Einführung der Unterstützung von Admission Control und Trigger.AvailableNow in Python-Datenquelle - Streaming-Reader
-
SPARK-55382 Erstellen
Executorzum ProtokollierenRunning Spark version - SPARK-55408 Behandeln unerwarteter Schlüsselwortargumentfehler im Zusammenhang mit Datetime mit Pandas 3
- SPARK-55345 Pass nicht Einheit und geschlossen nach Timedelta für Pandas 3
- SPARK-54759 Logik im Skripting Variable Manager nach der Cursoreinführung ordnungsgemäß schützen
- SPARK-55409 Behandeln eines unerwarteten Schlüsselwortargumentfehlers von read_excel mit Pandas 3
-
SPARK-55403 Beheben des
no attribute 'draw'Fehlers in den Plot-Tests mit Pandas 3 - SPARK-55256 Wiederherstellen von "[SC-218596][SQL] Unterstützung IGNORE NULLS / RESPECT NULLS für array_agg und collect_list"
- SPARK-55256 Unterstützung von IGNORE NULLS / RESPECT NULLS für array_agg und collect_list
-
SPARK-55395 RDD-Cache deaktivieren in
DataFrame.zipWithIndex - SPARK-55131 Einführung eines neuen Trennzeichens für Zusammenführungsoperator für RocksDB zum Leeren von Zeichenfolgen ohne Trennzeichen
- SPARK-55376 Das Argument "numeric_only" in den Groupby-Funktionen soll mit Pandas 3 nur noch Boolesche Werte akzeptieren.
-
SPARK-55334 Aktivieren
TimestampTypeundTimestampNTZTypeinconvert_numpy - SPARK-55281 Hinzufügen von ipykernel und IPython zur optionalen Paketliste "mypy"
- SPARK-55336 createDF soll die Logik von create_batch zum Entkoppeln verwenden
-
SPARK-55366 Aus Python UDFs entfernen
errorOnDuplicatedFieldNames - SPARK-54759 Unterstützung für SQL-Skriptingcursor
-
SPARK-55302 Beheben von benutzerdefinierten Metriken im Fall von
KeyGroupedPartitioning - SPARK-55228 Implementieren von Dataset.zipWithIndex in scala API
- SPARK-55373 Verbesserung der Fehlermeldung "noHandlerFoundForExtension"
- SPARK-55356 Supportalias für PIVOT Klausel
-
SPARK-55359 Höherstufen
TaskResourceRequestzuStable - SPARK-55365 Verallgemeinerung der Utils für die Konvertierung von Arrow-Arrays.
- SPARK-55106 Hinzufügen des Repartitionsintegrationstests für TransformWithState-Operatoren
- SPARK-55086 Hinzufügen von DataSourceReader.pushFilters zu Python-Datenquellen-API-Dokumenten
- SPARK-46165 Unterstützung für DataFrame.all axis=None hinzufügen
- SPARK-55289 Rückgängig machen von "[SC-218749][SQL] Unzuverlässigen Test in-set-operations.sql beheben durch Deaktivieren des Broadcast-Join"
- SPARK-55297 Timedelta dtype basierend auf dem ursprünglichen dtype wiederherstellen
- SPARK-55291 Metadaten-Header beim Erstellen des Client-Interceptors vorverarbeiten
-
SPARK-55155 Erneutes Anwenden von "[SC-218401][SQL] Unterstützung für die faltbaren Ausdrücke in der
SET CATALOG-Anweisung - SPARK-55318 Leistungsoptimierungen für vector_avg/vector_sum
- SPARK-55295 Die Funktion ST_GeomFromWKB erweitern, um einen optionalen SRID-Wert zu akzeptieren.
- SPARK-55280 Hinzufügen von GetStatus-Proto zur Unterstützung der Ausführungsstatusüberwachung
- SPARK-54969 Implementierung der neuen Arrow-Pandas-Konvertierung>
-
SPARK-55176 Extrahieren des Konverters
arrow_to_pandasin ArrowArrayToPandasConversion - SPARK-55111 Rückgängig machen von "[SC-217817][SC-210791][SS] Erkennung unvollendeter Neupartitionierung beim Neustart der Abfrage"
-
SPARK-55252
HttpSecurityFilterverbessern, umContent-Security-Policy-Header hinzuzufügen - SPARK-55111 Unvollständige Erkennung der Neupartitionierung beim Neustart der Abfrage
- SPARK-55105 Hinzufügen eines Integrationstests für den Verknüpfungsoperator
- SPARK-55260 Implementierung von Parquet-Schreibunterstützung für Geo-Typen
- SPARK-54523 Behebung der Standardauflösung während der Variantenauslagerung
- SPARK-55328 PythonArrowInput.codec in GroupedPythonArrowInput wiederverwenden
- SPARK-55246 Test für Pyspark TWS und TWSInPandas hinzufügen und StatePartitionAllColumnFamiliesWriter-Bug beheben
- SPARK-55289 Beheben Sie den instabilen Test in set-operations.sql durch Deaktivierung des Broadcast-Joins
- SPARK-55040 Refactor TaskContext und das zugehörige Worker-Protokoll mit einer Engine-Pyspark-Korrektur.
- SPARK-47996 Unterstützung für die Kreuzverschmelzung in der Pandas-API
- SPARK-55031 Hinzufügen von Vektor-Avg/Sum-Aggregationsfunktionsausdrücken
- SPARK-54410 Behebung der Lesefunktion für die logische Anmerkung des Variant-Datentyps.
- SPARK-54776 Rückgängig machen von "[SC-216482][SQL] Verbesserte Protokollmeldung bezüglich Lambda-Funktion mit SQL UDF"
- SPARK-55123 Hinzufügen von SequentialUnionOffset zum Nachverfolgen der sequenziellen Quellverarbeitung
- SPARK-54972 Optimierung von NOT IN-Unterabfragen mit nicht-nullfähigen Spalten
- SPARK-54776 Verbesserte Protokollmeldung zur Lambda-Funktion mit SQL UDF
-
SPARK-53807 Behebung von Race Condition-Problemen zwischen
unlockundreleaseAllLocksForTaskinBlockInfoManager - SPARK-51831 Rückgängig machen von "[SC-207389][SQL] Spaltenbeschnitt mit existsJoin für Datasource V2"
-
SPARK-54881 Verbessern
BooleanSimplificationder Behandlung der Negation von Konjunktion und Disjunktion in einem Durchgang - SPARK-54696 Aufräumen von ArrowBuffers in Connect
-
SPARK-55009 Entfernen einer unnötigen Speicherkopie aus dem Konstruktor von
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Konfigurieren von Display stacktrace auf der Fehlerseite der Benutzeroberfläche
- SPARK-51831 Spaltenschnitt mit existsJoin für Datasource V2
-
SPARK-55285 Korrigieren der Initialisierung von
PythonArrowInput - SPARK-53960 Lassen Sie approx_top_k_accumulate/combine/estimate NULLs behandeln
- SPARK-49110 Vereinfachung von SubqueryAlias.metadataOutput, um Metadatenspalten immer weiterzugeben
-
SPARK-55155 Rückgängig machen "[SC-218401][SQL] Unterstützung faltbarer Ausdrücke in
SET CATALOGAnweisung" -
SPARK-55155 Unterstützung faltbarer Ausdrücke in der Anweisung
SET CATALOG - SPARK-49110 Rückgängig machen "[SC-218594][SQL] Vereinfachung von SubqueryAlias.metadataOutput, um Metadatenspalten immer weiterzugeben"
- SPARK-54399 Implementieren der st_setsrid-Funktion in Scala und PySpark
- SPARK-49110 SubqueryAlias.metadataOutput vereinfachen, um Metadatenspalten immer weiterzugeben
- SPARK-55133 Behebung der Race Condition im Lifecycle-Management von IsolatedSessionState
- SPARK-55262 Blockierung von Geo-Typen in allen dateibasierten Datenquellen mit Ausnahme von Parquet
- SPARK-54202 Konvertierung von GeometryType(srid) in GeometryType(ANY) zulassen
- SPARK-54142 Implementieren der st_srid-Funktion in Scala und PySpark
- SPARK-54887 Festlegen eines SQL-Zustands im Spark Connect-Client
- SPARK-55237 Unterdrücken von lästigen Nachrichten beim Nachschlagen nicht vorhandener DBs
- SPARK-55040 Wiederherstellen von "[SC-217628][PYTHON] Refactor TaskContext and related worker protocol"
- SPARK-55243 Festlegen von binären Headern über das suffix -bin im Scala Connect-Client zulassen
- SPARK-55259 Implementierung der Parquet-Schemakonvertierung für Geo-Typen
- SPARK-55282 Vermeiden der Verwendung von worker_util auf der Treiberseite
- SPARK-54151 Einführung des Frameworks zum Hinzufügen von ST-Funktionen in PySpark
- SPARK-55194 Entfernen Sie GroupArrowUDFSerializer, indem Sie die Flachlegungslogik in den Mapper verschieben.
- SPARK-55020 Gc beim Ausführen des gRPC-Befehls deaktivieren
- SPARK-55053 Umgestalten von Datenquellen-/Udtf-Analysemitarbeitern, damit sie über einen einheitlichen Eintrag verfügen
- SPARK-55040 Umgestalten von TaskContext und zugehörigem Arbeitsprotokoll
- SPARK-55244 Verwenden von np.nan als Standardwert für Pandas-Zeichenfolgentypen
- SPARK-55225 Wiederherstellen des ursprünglichen dtypes für Datetime
- SPARK-55154 Entfernung des "Fastpath" zu "pd.Series" in Pandas 3
- SPARK-55030 Hinzufügen von Unterstützung für Vektornorm/Normierungsfunktionsausdrücke
- SPARK-55202 Beheben UNEXPECTED_USE_OF_PARAMETER_MARKER bei Verwendung von Param...
- SPARK-54201 Umwandlung von GeographyType(srid) in GeographyType(ANY) zulassen
- SPARK-54244 Einführung der Typkoersionsunterstützung für GEOMETRIE-Datentypen
- SPARK-54160 ST_SetSrid-Ausdruck in SQL implementieren
- SPARK-55046 PySpark udf-Verarbeitungszeitmetrik hinzufügen
- SPARK-54101 Einführung des Frameworks zum Hinzufügen von ST-Funktionen in Scala
- SPARK-54683 Vereinheitlichen der Blockierungen von Geo- und Zeittypen
- SPARK-55249 Machen Sie DataFrame.toJSON in der Lage, Dataframe zurückzugeben
- SPARK-54521 Zu und von WKB für Geometrietyp hinzufügen
- SPARK-54162 Umwandlung von GeographyType in GeometryType zulassen
- SPARK-55146 Überprüfung der Status-Repartitionierungs-API für PySpark
- SPARK-55140 Eingebaute Funktionen nicht auf die Numpy-Version für Pandas 3 zuordnen
- SPARK-54243 Einführung der Typkoersionsunterstützung für GEOGRAPHY-Datentypen
- SPARK-55058 Auslösen eines Fehlers für inkonsistente Prüfpunktmetadaten
- SPARK-55108 Verwenden Sie die neuesten Pandas-Stubs für die Typüberprüfung
- SPARK-54091 Implementierung des ST_Srid-Ausdrucks in SQL
- SPARK-55104 Hinzufügen der Spark Connect-Unterstützung für DataStreamReader.name()
- SPARK-54996 Berichten Ankunftszeit für Datensätze aus dem LowLatencyMemoryStream
- SPARK-55118 Ersetzen von ASM Opcodes-Wildcardimporten
- SPARK-54365 Hinzufügen des Repartitionsintegrationstests für Aggregat-, Dedup-, FMGWS- und SessionWindow-Operatoren
- SPARK-55119 Korrektur der Fortsetzungsroutine: Verhinderung von INTERNAL_ERROR und der Unterbrechung falscher bedingter Anweisungen
- SPARK-54104 Untersagen der Umwandlung von Geospatialtypen in/von anderen Datentypen
- SPARK-55240 Refaktorierung der LazyTry-Stacktrace-Behandlung, um einen Wrapper anstelle einer unterdrückten Ausnahme zu verwenden.
-
SPARK-55238 Verlegen der Geo SRS-Zuordnungslogik von
main/scalanachmain/java -
SPARK-55179 Überspringen der sofortigen Validierung von Spaltennamen in
df.col_name - SPARK-55055 Unterstützung von SparkSession.Builder.create für das PySpark Classic
- SPARK-55186 Ermöglichen Sie ArrowArrayToPandasConversion.convert_legacy, pd.DataFrame zurückzugeben.
- SPARK-54079 Einführung des Frameworks zum Hinzufügen von ST-Ausdrücken in Catalyst
- SPARK-54096 Unterstützung der Räumlichen Referenzsystemzuordnung in PySpark
- SPARK-54801 Markieren einiger neuer 4.1-Konfigurationen als intern
- SPARK-55146 Revert "[SC-217936][SC-210779][SS] State Repartition API for PySpark"
- SPARK-54559 Verwenden von runnerConf zum Übergeben der Profiler-Option
- SPARK-55205 Beheben von Tests, bei denen davon ausgegangen wird, dass der Zeichenfolgentyp in ein Objekt konvertiert wird
- SPARK-55171 Problem mit dem Speicherprofiler bei iterativen UDFs beheben
- SPARK-55226 Erkennen von Datums- und Zeitdelta mit anderen Einheiten als [ns]
- SPARK-55027 Move writeConf to PythonWorkerUtils
-
SPARK-55197 Extrahiere
_write_stream_startHilfsfunktion, um die START_ARROW_STREAM Signallogik zu deduplizieren. - SPARK-54179 Hinzufügen nativer Unterstützung für Apache Tuple Sketches (#190848) (#191111)
- SPARK-55151 Behebung des Tests testWithStateStoreCheckpointIds in der RocksDBSuite
- SPARK-55146 Zustands-Neupartitions-API für PySpark
- SPARK-54232 Aktivieren der Pfeil serialisierung für Geografie- und Geometrietypen
- SPARK-53957 Unterstützung von GEOGRAFIE und GEOMETRIE im SpatialReferenceSystemMapper
- SPARK-55169 Einsatz von ArrowBatchTransformer.flatten_struct in ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Beheben
BasicExecutorFeatureStepdes AuslösensIllegalArgumentExceptionfür cpu-Fehlkonfigurationen des Executors - SPARK-54166 Einführung von Typ-Encodern für Geospatialtypen in PySpark
-
SPARK-55138 Beheben
convertToMapDataeines WurffehlersNullPointerException - SPARK-55168 Verwenden Sie ArrowBatchTransformer.flatten_struct in GroupArrowUDFSerializer
- SPARK-55032 Umgestalten von Profilern in workers.py
- SPARK-54990 Fehler bei der Implementierung der Klasseneigenschaft in session.py beheben
- SPARK-55076 Beheben des Typhinweisproblems in ml/mllib und Hinzufügen von Scipy-Anforderung
- SPARK-55162 Extrahieren von Transformatoren aus ArrowStreamUDFSerializer
- SPARK-55121 Hinzufügen DataStreamReader.name() zum klassischen PySpark
- SPARK-54887 SQLState optional zu SparkThrowables hinzufügen
- SPARK-54169 Einführung von Geografie- und Geometrietypen im Arrow Writer
- SPARK-51658 Einführung von Geometrie- und Geografie-Wrapperformaten im Arbeitsspeicher
- SPARK-54110 Einführung von Typ-Encodern für Geografie- und Geometrietypen
- SPARK-54956 Vereinheitlichung der Lösung zum unbestimmten Shuffle-Neuversuch
-
SPARK-55137 Refaktorierung von
GroupingAnalyticsTransformerundAnalyzerCode - SPARK-54103 Einführung von clientseitigen Geografie- und Geometrieklassen
- SPARK-55160 Direktes Übergeben des Eingabeschemas an Serialisierer
- SPARK-55170 Extrahieren des gruppierten Datenstromlesemusters aus Serialisierern
-
SPARK-55125 Entfernen redundanter
__init__Methoden in Arrow Serializern - SPARK-55126 Entfernen Sie die nicht verwendete Zeitzone und „assign_cols_by_name“ aus ArrowStreamArrowUDFSerializer
- SPARK-54980 Konvertieren der JDBC-Isolationsstufe in eine Zeichenfolge
- SPARK-55051 Bytezeichenfolge akzeptiert KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Verbessern der Leistung in Pandas mithilfe des Listenverständnisses
- SPARK-46165 Fügen Sie Unterstützung für Pandas hinzu. DataFrame.all axis=1
- SPARK-55037 Erneutes Implementieren von Beobachtung ohne Verwenden des QueryExecutionListener
- SPARK-54965 Legacy pa.Array -> pd.Series-Konverter eliminieren
- SPARK-55016 Erstellen von SQLConf zu einer direkten Eigenschaft von SparkSession, um Stapelüberlauf zu verhindern
- SPARK-55091 Reduzierung von HIVE-RPC-Aufrufen für DROP TABLE Befehl
- SPARK-55097 Behebung des Problems, dass beim erneuten Hinzufügen zwischengespeicherter Artefakte unbemerkt Blöcke entfernt werden
- SPARK-55026 Optimieren Sie BestEffortLazyVal.
- SPARK-55091 Rückgängig machen von "[SC-217410][SQL] Reduzieren von Hive RPC-Aufrufen für DROP TABLE Befehl"
- SPARK-54590 Checkpoint V2 für Zustandsumschreibung und Neupartitionierung unterstützen
- SPARK-55016 Erstellen von SQLConf zu einer direkten Eigenschaft von SparkSession, um Stapelüberlauf zu verhindern
- SPARK-55091 Reduzierung der HIVE-RPC-Aufrufe für DROP TABLE Befehl
- SPARK-55016 Revert "[SC-217401][SQL] SQLConf direkt als Eigenschaft von SparkSession festlegen, um Stacküberlauf zu verhindern"
- SPARK-55016 Erstellen von SQLConf zu einer direkten Eigenschaft von SparkSession, um Stapelüberlauf zu verhindern
- SPARK-55098 Vektorisierte UDFs mit Ausgabebatchgrößensteuerung schlagen mit Speicherleck fehl
- SPARK-54824 Hinzufügen von Unterstützung für multiGet und deleteRange für den Rocksdb State Store
- SPARK-55054 Hinzufügen der UNTERSTÜTZUNG VON IDENTIFIED BY für Streaming von Tabellenwertfunktionen
- SPARK-55029 Übertragung des identifizierenden Namens der Streamingquelle durch die Auflösungspipeline
- SPARK-55071 Sicherstellen, dass spark.addArtifact mit Windows-Pfaden funktioniert
- SPARK-54103 Rückgängig machen "[SC-210400][Geo][SQL] Einführung clientseitiger Geografie- und Geometrieklassen"
- SPARK-54103 Einführung von clientseitigen Geografie- und Geometrieklassen
- SPARK-54033 Einführung von Catalyst serverseitigen Ausführungsklassen für Geodaten
- SPARK-54176 Einführung der Datentypen "Geography" und "Geometry" in PySpark Connect
- SPARK-55089 Korrigieren des Ausgabeschemas von toJSON
- SPARK-55035 Shuffle-Bereinigung bei untergeordneten Ausführungen durchführen
-
SPARK-55036 Hinzufügen
ArrowTimestampConversionfür die Behandlung von Pfeilzeitzonen -
SPARK-55090 Implementieren
DataFrame.toJSONin Python-Client - SPARK-54873 Vereinfachung der V2TableReference-Auflösung, da nur eine temporäre Ansicht diese möglicherweise enthalten kann.
- SPARK-52828 Hashing für sortierte Zeichenfolgen unabhängig von Sortierreihenfolgen machen
- SPARK-54175 Hinzufügen von Geografie- und Geometrietypen zu Spark Connect proto
-
SPARK-54961 Einführen
GroupingAnalyticsTransformer - SPARK-55088 Beibehalten der Metadaten in/from_arrow_type/Schema
- SPARK-55070 Versteckte Spalte in der Datenframe-Spaltenauflösung zulassen
- SPARK-55044 Beibehalten der Metadaten in toArrowSchema/fromArrowSchema
- SPARK-55043 Korrigieren der Zeitreise mit Unterabfragen, die Tabellenverweise enthalten
-
SPARK-54987 Ändern des Standardwerts von prefer_timestamp_ntz in "True"
from_arrow_type/from_arrow_schema - SPARK-54866 Drop/RefreshFunction umzugestalten, um die Katalogsuche zu vermeiden
- SPARK-55024 Verwendung des Fehlers REQUIRES_SINGLE_PART_NAMESPACE für die Überprüfung des Sitzungskatalog-Namespace
- SPARK-54992 Ersetze die Umwandlung durch eine Laufzeitüberprüfung für make_timestamp
- SPARK-55024 Rückgängig machen von "[SC-216987][SQL] Verwendung des REQUIRES_SINGLE_PART_NAMESPACE-Fehlers zur Validierung des Sitzungskatalog-Namespace"
- SPARK-54866 Rückgängig machen: "[SC-216753][SQL] Refactoring von Drop/RefreshFunction zur Vermeidung der Katalogsuche"
- SPARK-55024 Verwenden des Fehlers REQUIRES_SINGLE_PART_NAMESPACE zur Überprüfung des Sitzungskatalog-Namespaces
- SPARK-54866 Drop/RefreshFunction umzugestalten, um die Katalogsuche zu vermeiden
- SPARK-54991 Korrekter Typhinweis für Streaming/listener.py
- SPARK-54925 Hinzufügen der Funktion zum Erstellen von Thread-Dumps für PySpark
- SPARK-54803 Unterstützung NACH NAME mit INSERT ... ERSETZEN WHERE
- SPARK-54785 Unterstützung für binäre Skizzenaggregationen in KLL (#188370) (#188860) hinzufügen
- SPARK-54949 Verschieben von pyproject.toml zum Repositorystamm
- SPARK-54954 Remotebezogene Typ-Hinweise in util.py beheben
- SPARK-54922 Vereinheitlichen, wie Argen an Python-Worker übergeben werden
- SPARK-54870 Kollationsunterstützung für char/varchar und CTAS/RTAS
-
SPARK-54762 Beheben
_create_converterundcovertÜberladungssignatur - SPARK-55019 Erlauben, dass DROP TABLE eine VIEW löschen kann
- SPARK-53103 Auslösen eines Fehlers, wenn das Statusverzeichnis beim Starten der Abfrage nicht leer ist
- SPARK-54995 Erstellen eines schnellen Pfads für foreachPartition
- SPARK-54634 Klare Fehlermeldung für leeres IN-Prädikat hinzufügen
- SPARK-54984 Ausführung der Zustand-Partitionierung und in den State Rewriter integrieren
- SPARK-54443 PartitionKeyExtractor in den Re-Partition-Reader integrieren
- SPARK-54907 Einführung der NameStreamingSources-Analyseregel für die Entwicklung von Streamingquellen
- SPARK-54609 Aktualisieren der Zeitkonfiguration, um sie mit der OSS-Version abzustimmen
- SPARK-54988 Vereinfachen der Implementierung von ObservationManager.tryComplete
- SPARK-54959 Deaktivieren Sie die vollständige Neuausführung bei einer Shuffle-Prüfsummenabweichung, wenn die push-basierte Shuffle aktiviert ist
- SPARK-54940 Tests hinzufügen für pa.scalar Typ-Inferenz
- SPARK-54634 Rückgängig machen "[SC-216478][SQL] Klarer Fehlerhinweis für leere IN-Prädikate hinzufügen"
- SPARK-54337 Unterstützung für PyCapsule zu Pyspark hinzufügen
- SPARK-54634 Hinzufügen einer klaren Fehlermeldung für leeres IN-Prädikat
- SPARK-53785 Speicherquelle für RTM
- SPARK-54883 Bereinigen von Fehlermeldungen für CLI und Hinzufügen des neuen Fehlermodus DEBUG
- SPARK-54713 Unterstützung für Ausdrücke von Vektorähnlichkeits- und Distanzfunktionen hinzufügen
- SPARK-54962 Korrigieren der Behandlung von nullablen Ganzzahlen in Pandas UDF
- SPARK-54864 Hinzufügen von rCTE-Knoten zu NormalizePlan
- SPARK-53847 Hinzufügen von ContinuousMemorySink für Echtzeitmodustests
- SPARK-54865 Hinzufügen von foreachWithSubqueriesAndPruning-Methode zu QueryPlan
- SPARK-54930 Entfernen redundanter _accumulatorRegistry.clear()-Aufruf in worker.py
- SPARK-54929 Korrigiert das Zurücksetzen von taskContext._resources in einer Schleife, das bewirkt, dass nur die letzte Ressource beibehalten wird.
-
SPARK-54963
createDataFramebeachtenprefer_timestamp_ntz, wenninfer_pandas_dict_as_map -
SPARK-54920 Verschieben der Gruppierungsanalyseextraktionslogik auf eine gemeinsame
GroupingAnalyticsExtractor - SPARK-54924 Zustandsumschreiber, um Zustand zu lesen, zu transformieren und neuen Zustand zu schreiben
- SPARK-54872 Vereinheitlichen der Spaltenstandardwertbehandlung zwischen v1- und v2-Befehlen
- SPARK-54905 Vereinfachen der ForeachWithSubqueries-Implementierung in QueryPlan
- SPARK-54682 Unterstützung der Anzeige von Parametern in DESCRIBE PROCEDURE
-
SPARK-54933 Vermeiden Sie wiederholtes Abrufen der Konfiguration
binary_as_bytesintoLocalIterator - SPARK-54872 Wiederherstellen von "[SC-216260][SQL] Vereinheitlichen der Spaltenstandardwertbehandlung zwischen v1- und v2-Befehlen"
- SPARK-51936 ReplaceTableAsSelect sollte die neue Tabelle anstelle des Anfügens überschreiben.
- SPARK-54771 ResolveUserSpecifiedColumns-Regel aus RuleIdCollection entfernen
- SPARK-54872 Vereinheitlichen der Spaltenstandardwertbehandlung zwischen v1- und v2-Befehlen
- SPARK-54313 Option --extra-properties-file zur Konfigurationsschichtung hinzufügen
- SPARK-54468 Fehlende Fehlerklassen hinzufügen
- SPARK-46741 Cache-Tabelle mit CTE sollte funktionieren, wenn CTE in Unterabfragen eines Planausdrucks enthalten ist
- SPARK-46741 Die Cachetabelle mit CTE funktioniert nicht.
- SPARK-54615 Immer runner_conf an Python Worker übergeben
- SPARK-53737 Hinzufügen eines Echtzeitmodusauslösers
- SPARK-54541 Umbenennen von _LEGACY_ERROR_TEMP_1007 und Hinzufügen von "sqlState"
- SPARK-54718 Beibehalten von Attributnamen während der CTE newInstance()
- SPARK-54621 In Updatesatz einfügen * verschachtelte Felder beibehalten, wenn coerceNestedTypes aktiviert ist.
- SPARK-54595 Vorhandenes Verhalten MERGE INTO ohne SCHEMA EVOLUTION-Klausel beibehalten
- SPARK-54903 Ermöglichen der Festlegung der Zeitzone für to_arrow_schema/to_arrow_type
- SPARK-52326 Partitionen im Zusammenhang mit ExternalCatalogEvent hinzufügen und sie in den entsprechenden Vorgängen veröffentlichen
- SPARK-54541 Rückgängig machen "[SC-215212][SQL] Umbenennung von _LEGACY_ERROR_TEMP_1007 und das Hinzufügen von sqlState"
-
SPARK-54578 Ausführen der Codebereinigung für
AssignmentUtils - SPARK-54830 Aktivieren der überprüfungsbasierten unbestimmten Shuffle-Wiederholung standardmäßig
- SPARK-54525 Deaktivieren der geschachtelten Strukturkoersion in MERGE INTO einer Konfiguration
- SPARK-53784 Zusätzliche Quell-APIs, die zur Unterstützung der RTM-Ausführung erforderlich sind
- SPARK-54496 Fehler bei der Schemaentwicklung mit 'Merge Into' im Dataframe-API beheben.
- SPARK-54835 Vermeiden Sie unnötige temporäre QueryExecution für die Ausführung geschachtelter Befehle.
- SPARK-54541 Umbenennen von _LEGACY_ERROR_TEMP_1007 und Hinzufügen von "sqlState"
- SPARK-54289 Zulassen MERGE INTO , dass vorhandene Strukturfelder für UPDATESET * beibehalten werden, wenn die Quellstruktur weniger geschachtelte Felder enthält als zielstruktur
- SPARK-54720 Hinzufügen von SparkSession.emptyDataFrame mit einem Schema
- SPARK-54800 Geänderte Standardimplementierung für isObjectNotFoundException
- SPARK-54686 Lockerung der DSv2-Tabellenprüfungen in temporären Ansichten, um neue Top-Level-Spalten zuzulassen
- SPARK-54619 Hinzufügen einer Überprüfung der Plausibilität von Konfigurationsnummern
- SPARK-54726 Leistungsverbesserung für InsertAdaptiveSparkPlan
- SPARK-51966 Ersetzen Sie select.select() durch select.poll() bei Ausführung auf POSIX os
- SPARK-54749 Korrigieren falscher NumOutputRows-Metriken in OneRowRelationExec
- SPARK-54411 Einführung eines Repartition Writers, der Multi-CF unterstützt
- SPARK-54835 Rückgängig machen von "[SC-215823][SQL] Unnötige temporäre QueryExecution für die Ausführung geschachtelter Befehle vermeiden"
- SPARK-54867 Einführung des NamedStreamingRelation-Wrappers für die Quellidentifikation während der Analyse
- SPARK-54835 Vermeiden Sie unnötige temporäre QueryExecution für die Ausführung geschachtelter Befehle.
- SPARK-54491 Fehler beim Einfügen in eine temporäre View bei DSv2-Tabellen beheben
- SPARK-54871 Kürzen von Aliasen aus Gruppierungs- und Aggregatausdrücken vor der Behandlung von Gruppierungsanalysen
- SPARK-51920 Beheben der Typbehandlung von namedTuple für transfromWithState
- SPARK-54526 _LEGACY_ERROR_TEMP_1133 umbenennen und sqlState hinzufügen
- SPARK-54424 Fehler während des Recaching dürfen nicht zu einem Fehlschlagen der Operationen führen
-
SPARK-54894 Korrektur der Argumentübergabe
to_arrow_type - SPARK-53448 Konvertierung eines Pyspark DataFrame mit einer Variant-Spalte in Pandas schlägt mit einem Fehler fehl.
- SPARK-54882 Entfernen von Legacy PYARROW_IGNORE_TIMEZONE
- SPARK-54504 Version-Aktualisierung für DSv2-Tabellen mit Unterabfragen
- SPARK-54444 Lockerung von DSv2-Tabellenüberprüfungen, um das frühere Verhalten wiederherzustellen
- SPARK-54859 Arrow standardmäßig PySpark UDF API Referenzdokumentation
- SPARK-54387 Rückgängig machend von "[ES-1688666] Rückgängig machend von "[SC-212394][SQL] Korrigieren des Erneut-Cachens von DSv2 Tabellen""
- SPARK-54753 beheben Speicherleck von ArtifactManager
- SPARK-54387 Rückgängig machen von "[SC-212394][SQL] Das Problem beim erneuten Zwischenspeichern von DSv2-Tabellen beheben"
- SPARK-54436 Beheben der Fehlerformatierung für inkompatible Tabellenmetadatenüberprüfungen
-
SPARK-54849 Aktualisieren der Mindestversion von
pyarrow18.0.0 - SPARK-54022 DSv2-Tabellenauflösung für zwischengespeicherte Tabellen berücksichtigen
- SPARK-54387 Behebung des Neucachens von DSv2-Tabellen
- SPARK-53924 DSv2-Tabellen bei jedem Zugriff auf die mit Plänen erstellten Ansichten neu laden
-
SPARK-54561 Unterstützung für breakpoint() in
run-tests.py - SPARK-54157 Fehler bei der Aktualisierung von DSv2-Tabellen im Dataset beheben
- SPARK-54830 Rückgängig machen von "[CORE] Standardmäßiges Aktivieren der auf Prüfsummen basierenden indeterminierten Shuffle-Wiederholung"
- SPARK-54861 Zurücksetzen des Aufgabenthreadnamens auf IDLE_TASK_THREAD_NAME, wenn die Aufgabe abgeschlossen ist
- SPARK-54834 Hinzufügen neuer Schnittstellen "SimpleProcedure" und "SimpleFunction"
- SPARK-54760 DelegatingCatalogExtension als Sitzungskatalog unterstützt sowohl V1- als auch V2-Funktionen
- SPARK-54685 Entfernen redundanter Antworten auf beobachtete Metriken
-
SPARK-54853 Immer auf der Spark-Seite überprüfen
hive.exec.max.dynamic.partitions - SPARK-54840 OrcList Vorabzuweisung
- SPARK-54830 Aktivieren der überprüfungsbasierten unbestimmten Shuffle-Wiederholung standardmäßig
-
SPARK-54850 Verbessern
extractShuffleIds, um überall in der Planstruktur zu suchenAdaptiveSparkPlanExec - SPARK-54843 Try_to_number Ausdruck funktioniert nicht für leere Zeichenfolgeneingaben
- SPARK-54556 Rollback von Shuffle-Map-Stufen bei Erkennung eines Shuffle-Prüfsummenfehlers
- SPARK-54760 Revert "[SC-215670][SQL] DelegatingCatalogExtension als Sitzungskatalog, der sowohl V1- als auch V2-Funktionen unterstützt"
- SPARK-54760 DelegatingCatalogExtension als Sitzungskatalog unterstützt sowohl V1- als auch V2-Funktionen
- SPARK-54818 Fehler bei der Speicherzuweisung durch TaskMemoryManager sollte den Fehlerprotokollstapel protokollieren, zur Überprüfung der Speicherauslastung.
-
SPARK-54827 Hilfsfunktion hinzufügen
TreeNode.containsTag - SPARK-54777 Rückgängig machen "[SC-215740][SQL] Geänderte Fehlerbehandlung der Methode dropTable in JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Geänderte dropTable-Fehlerbehandlung in JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Überarbeitung der Auflösungslogik
UnpivotinUnpivotTransformer -
SPARK-54820
pandas_on_spark_typemit numpy 2.4.0 kompatibel machen -
SPARK-54799 Umgestalten
UnpivotCoercion - SPARK-54754 OrcSerializer sollte das Schema nicht jedes Mal analysieren, wenn es serialisiert wird
- SPARK-54226 Erweiterung der Arrow-Komprimierung auf Pandas UDF
- SPARK-54787 Listen-Komprehension anstelle von Schleifen in Pandas verwenden
-
SPARK-54690
Frame.__repr__unempfindlich gegen Pfeiloptimierung machen - SPARK-46166 Implementierung von pandas.DataFrame.any mit axis=None
- SPARK-54696 Bereinigung von Arrow-Puffern – Weiterführung
- SPARK-54769 Entfernen von inaktiven Code in conversion.py
- SPARK-54787 Verwendung von List Comprehension in pandas _bool_column_labels
-
SPARK-54794 Ausführliche
FsHistoryProvider.checkForLogsÜberprüfungsprotokolle unterdrücken - SPARK-54745 Beheben des PySpark-Importfehlers aufgrund fehlender UnixStreamServer unter Windows
- SPARK-54782 Korrigieren der Konfigurationsversionen
- SPARK-54781 Rückgabemodellcacheinformationen im JSON-Format
- SPARK-54419 Offline-Repartitionierungsstatusleser unterstützt Spaltenfamilien mit mehreren Spalten
- SPARK-54722 Registrieren von Pandas Grouped Iter Aggregate UDF für die SQL-Verwendung
-
SPARK-54762 Wiederherstellen von "[SC-215422][PYTHON] Fix
_create_converter- undcovertÜberladungssignatur" - SPARK-54652 Rückgängig machen von "[SC-215452][SQL] Vollständige Konvertierung von IDENTIFIER()"
-
SPARK-54762 Beheben
_create_converterundcovertÜberladungssignatur - SPARK-52819 Machen Von KryoSerializationCodec serialisierbar, um java.io.NotSerializableException-Fehler in verschiedenen Anwendungsfällen zu beheben
- SPARK-54711 Hinzufügen eines Timeouts für vom Daemon erstellte Workerverbindung
- SPARK-54738 Hinzufügen der Profilerunterstützung für Pandas Grouped Iter Aggregate UDF
- SPARK-54652 Vollständige Konvertierung von IDENTIFIER()
- SPARK-54581 Machen der fetchsize-Option bei Postgres-Connector groß-/kleinschreibungsunabhängig
- SPARK-54589 ArrowStreamAggPandasIterUDFSerializer in ArrowStreamAggPandasUDFSerializer konsolidieren
- SPARK-41916 Torch-Distributor: Unterstützen Sie mehrere torchrun Prozesse pro Aufgabe, wenn task.gpu.amount > 1.
-
SPARK-54707 Hauptlogik für die Umgestaltung
PIVOTder AuflösungPivotTransformer - SPARK-54706 Verteiltes LDAModell mit lokalem Dateisystem funktionieren lassen
- SPARK-53616 Einführung der Iterator-API für gruppierte Aggregations-UDFs mit Pandas
- SPARK-54116 Hinzufügen der Unterstützung für den Off-Heap-Modus für LongHashedRelation
- SPARK-54656 Refaktorisieren von SupportsPushDownVariants, um ein ScanBuilder-Mix-in zu sein
- SPARK-54687 Hinzufügen einer goldenen Datei mit Edgefällen mit Generatorenauflösung
- SPARK-54708 Optimierung der ML-Cachebereinigung durch verzögerte Verzeichniserstellung
- SPARK-54116 Rückgängig machen der Änderung "[SC-213108][SQL] Unterstützung für den Off-Heap-Modus für LongHashedRelation hinzufügen"
- SPARK-54116 Hinzufügen der Unterstützung für den Off-Heap-Modus für LongHashedRelation
- SPARK-54443 Partitionsschlüsselextraktion für alle Streamingstatusoperatoren
- SPARK-54687 Wiederherstellen von "[SC-214791][SQL] Hinzufügen einer goldenen Datei mit Edgefällen mit Generatorauflösung"
- SPARK-54116 Rückgängig machen "[SC-213108][SQL] Unterstützung für den Off-Heap-Modus für LongHashedRelation hinzufügen"
- SPARK-54687 Hinzufügen einer goldenen Datei mit Edgefällen mit Generatorenauflösung
- SPARK-54116 Hinzufügen der Unterstützung für den Off-Heap-Modus für LongHashedRelation
- SPARK-54420 Einführung von Offline-Neupartitionierung im StatePartitionWriter für eine einzelne Spaltenfamilie
-
SPARK-54689 Internes Paket erstellen
org.apache.spark.sql.pipelinesund privat machenEstimatorUtils - SPARK-54673 Refaktorieren Sie den SQL-Pipe-Syntax-Analysecode zur gemeinsamen Nutzung und Wiederverwendung.
- SPARK-54668 Hinzufügen von Tests für CTEs in Operatoren mit mehreren untergeordneten Elementen
- SPARK-54669 Entfernen redundanter Umwandlungen in rCTEs
- SPARK-54587 Konsolidieren aller runner_conf zugehörigen Codes
- SPARK-54628 Entfernen aller unnötigen expliziten Super()-Argumente
- SPARK-54675 Hinzufügen eines konfigurierbaren Timeouts für das erzwungene Herunterfahren des StateStore-Wartungsthreadpools
- SPARK-54639 Vermeiden Sie unnötige Tabellenerstellung in Arrow-Serialisierern
- SPARK-49635 AnSI-Konfigurationsvorschlag in CAST-Fehlermeldungen entfernen
-
SPARK-54664 Bereinigung des Codes in Bezug auf
listenerCachevonconnect.StreamingQueryManager - SPARK-54640 Ersetze select.select durch select.poll auf UNIX
-
SPARK-54662
viztracerunddebugpyindev/requirements.txtHinzufügen - SPARK-54632 Option hinzufügen, Ruff für Linting zu verwenden
- SPARK-54585 Behebung des Zustandspeicher-Rollbacks, wenn der Thread im unterbrochenen Zustand ist
- SPARK-54172 Zusammenführen in Die Schemaentwicklung sollte nur referenzierte Spalten hinzufügen
- SPARK-54438 ArrowStreamAggArrowIterUDFSerializer in ArrowStreamAggArrowUDFSerializer konsolidieren
- SPARK-54627 Entfernen redundanter Initialisierungen in Serialisierern
- SPARK-54631 Hinzufügen der Profilerunterstützung für Arrow Grouped Iter Aggregate UDF
-
SPARK-54316 Erneut anwenden [SC-213971][CORE][PYTHON][SQL] Konsolidieren
GroupPandasIterUDFSerializermitGroupPandasUDFSerializer - SPARK-54392 Optimieren der JVM-Python-Kommunikation für TWS-Anfangszustand
- SPARK-54617 Aktivieren der Arrow Gruppierten Iterativen Aggregate UDF-Registrierung für SQL
- SPARK-54544 Aktivieren der Flake8 F811-Prüfung
-
SPARK-54650 Int-Konvertierung in Dezimal verschieben nach
_create_converter_from_pandas -
SPARK-54316 Rückgängig machen: "[SC-213971][CORE][PYTHON][SQL] Konsolidierung von
GroupPandasIterUDFSerializermitGroupPandasUDFSerializer" - SPARK-53687WATERMARK-Klausel in SQL-Anweisung einführen
-
SPARK-54316 Konsolidieren
GroupPandasIterUDFSerializermitGroupPandasUDFSerializer - SPARK-54598 Extrahieren der Logik zum Lesen von UDFs
-
SPARK-54622 Fördern von
RequiresDistributionAndOrderingund dessen erforderlichen Schnittstellen zuEvolving - SPARK-54624 Sicherstellen, dass der Benutzername auf der Verlaufsseite maskiert wird
- SPARK-54580 Erwägen von Hive 4.1 in HiveVersionSuite und HiveClientImpl
-
SPARK-54068 Fix
to_featherzur Unterstützung von PyArrow 22.0.0 -
SPARK-54618 Höherstufen
LocalScanzuStable -
SPARK-54616
SupportsPushDownVariantsalsExperimentalmarkieren -
SPARK-54607 Nicht verwendete Methode
toStringHelperentfernen ausAbstractFetchShuffleBlocks.java - SPARK-53615 Einführung der Iterator-API für gruppierte Aggregations-UDFs im Arrow-Framework
- SPARK-54608 Vermeiden der doppelten Zwischenspeicherung des Typkonverters in UDTF
-
SPARK-54600 Verwenden Sie pickle nicht zum Speichern/Laden von Modellen in
pyspark.ml.connect -
SPARK-54592 Privat machen
estimatedSize - SPARK-54388 Einführung von StatePartitionReader, die unformatierte Bytes für Single ColFamily scannen
- SPARK-54570 Die Fehlerklasse in Spark Connect richtig verteilen
- SPARK-54577 Optimierung der Py4J-Aufrufe in der Schema-Inferenz
- SPARK-54568 Vermeiden Sie unnötige Pandas-Konvertierungen beim Erstellen von Datenframes aus ndarray
- SPARK-54576 Dokumentation für neue Datasketches-basierte Aggregatfunktionen hinzufügen
- SPARK-54574 Reaktivieren von FPGrowth bei Verbindung
- SPARK-54557 CSV/JSON/XmlOptions und CSV/JSON/XmlInferSchema vergleichbar machen
- SPARK-52798 Funktion hinzufügen approx_top_k_combine
- SPARK-54446 FPGrowth unterstützt lokales Dateisystem mit Pfeildateiformat
-
SPARK-54547 Variable in den
TaskSchedulerImpl.(executorLost|logExecutorLoss)-Methoden umbenennen inhost - SPARK-54558 Interne Ausnahme beheben, wenn Ausnahmehandler ohne BEGIN/END verwendet werden
- SPARK-52923 Allow ShuffleManager die Steuerung der Push-Zusammenführung während der Registrierung für Shuffle zu übernehmen
- SPARK-54474 Verwerfen des XML-Berichts für Tests, die fehlschlagen sollen
- SPARK-54473 Hinzufügen von Avro-Lese- und Schreibunterstützung für TIME-Typ
- SPARK-54472 Hinzufügen von ORC-Lese- und Schreibunterstützung für TIME-Typ
- SPARK-54463 Hinzufügen von CSV-Serialisierungs- und Deserialisierungsunterstützung für TIME-Typ
- SPARK-52588 Approx_top_k: Akkumulation und Schätzung
- SPARK-54461 Hinzufügen von XML-Serialisierungs- und Deserialisierungsunterstützung für TIME-Typ
- SPARK-54451 Hinzufügen von JSON-Serialisierungs- und Deserialisierungsunterstützung für TIME-Typ
- SPARK-54537 Problem bei SparkConnectDatabaseMetaData getSchemas/getTables für Kataloge mit fehlender Namespace-Fähigkeit beheben
- SPARK-54442 Hinzufügen numerischer Konvertierungsfunktionen für DEN TIME-Typ
- SPARK-54451 Revert "[SC-212861][SQL] Add JSON serialization and deserialization support for TIME type"
- SPARK-54492 Umbenennen von _LEGACY_ERROR_TEMP_1201 und Hinzufügen von "sqlState"
- SPARK-54531 Einführung von ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Hinzufügen von Aufgabenkontext- und Datenmetriken zu Python-Runner-Protokollen
- SPARK-54272 Hinzufügen von aggTime für SortAggregateExec
- SPARK-53469 Möglichkeit zum Bereinigen von Shuffle im Thrift-Server
-
SPARK-54219 Unterstützung von
spark.cleaner.referenceTracking.blocking.timeoutKonfiguration - SPARK-54475 Hinzufügen von Master-Server, Branch-4.0-Client, Python 3.11
- SPARK-54451 Hinzufügen von JSON-Serialisierungs- und Deserialisierungsunterstützung für TIME-Typ
- SPARK-54285 Zwischenspeichern von Zeitzoneninformationen, um teure Zeitstempelkonvertierungen zu vermeiden
-
SPARK-49133
MemoryConsumer#usedMember atomar machen, um zu verhindern, dass der Benutzercode einen Deadlock verursacht - SPARK-46166 Implementierung von pandas.DataFrame.any mit axis=1
- SPARK-54532 Hinzufügen von Unterstützung für sqlstate für PySparkException
- SPARK-54435 spark-pipelines init sollte das Überschreiben vorhandener Verzeichnisse vermeiden.
- SPARK-54247 Socket für util._load_from_socket explizit schließen
Databricks ODBC/JDBC-Treiberunterstützung
Databricks unterstützt ODBC-/JDBC-Treiber, die in den letzten 2 Jahren veröffentlicht wurden. Laden Sie die kürzlich veröffentlichten Treiber herunter, und führen Sie ein Upgrade durch (ODBC herunterladen, JDBC herunterladen).
Systemumgebung
- Betriebssystem: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Skala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.0.1
Installierte Python-Bibliotheken
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| annotierte-Dokumentation | 0.0.4 | annotated-types | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| Pfeil | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | Attrs | 24.3.0 | autocommand | 2.2.2 |
| azure-common | 1.1.28 | Azure Core | 1.37.0 | Azure-Identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob | 12.28.0 |
| Azure-Speicher-Datei-Datensee | 12.22.0 | babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | schwarz | 24.10.0 | Bleichmittel | 6.2.0 |
| Blinker | 1.7.0 | boto3 | 1.40.45 | Botocore | 1.40.45 |
| CacheWerkzeuge | 5.5.1 | Zertifikat | 2025.4.26 | cffi | 1.17.1 |
| Chardet | 4.0.0 | Charset-Normalizer | 3.3.2 | klicken | 8.1.8 |
| cloudpickle | 3.0.0 | Kommunikation | 0.2.1 | Contourpy | 1.3.1 |
| Kryptographie | 44.0.1 | Fahrradfahrer | 0.11.0 | Cython | 3.1.5 |
| databricks-agents | 1.9.1 | Databricks-SDK | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | Dekorateur | 5.1.1 |
| defusedxml | 0.7.1 | Deltalake | 1.1.4 | Deprecated | 1.2.18 |
| Distlib | 0.3.9 | Docstring zu Markdown | 0.11 | ausführen | 1.2.0 |
| Übersicht der Facetten | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| Dateisperrung | 3.17.0 | fonttools | 4.55.3 | fqdn | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth | 2.47.0 |
| Google Cloud Core | 2.5.0 | Google Cloud-Speicher | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media | 2.8.0 | googleapis-common-protos | 1.65.0 | GRPCIO | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | idna | 3.7 | importlib_metadata | 8.5.0 |
| inflect | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| Jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-Spezifikationen | 2023.7.1 | Jupyter-Ereignisse | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | jupyter_server_terminals | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | Marshmallow | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| Multidict | 6.1.0 | mypy-Erweiterungen | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | Notebook | 7.3.2 | Notebook-Shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| opentelemetry-semantic-conventions (opentelemetrie-semantische-Konventionen) | 0,60b1 | Orjson | 3.11.5 | Überschreibt | 7.4.0 |
| Verpackung | 24,2 | Pandas | 2.2.3 | Pandocfilter | 1.5.0 |
| Parso | 0.8.4 | pathspec | 0.10.3 | patsy | 1.0.1 |
| pexpect | 4.8.0 | Kissen | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | plugin-fähig | 1.5.0 |
| prometheus_client | 0.21.1 | Prompt-Toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| Pyarrow | 21.0.0 | Pyasn1 | 0.4.8 | Pyasn1-Module | 0.2.8 |
| pyccolo | 0.0.71 | Pycparser | 2.21 | Pydantisch | 2.10.6 |
| pydantic_core | 2.27.2 | Pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| Pyroaring | 1.0.3 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| Python-LSP-Server | 1.12.2 | pytoolconfig | 1.2.6 | Pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | referenzierung | 0.30.2 |
| Regex | 2024.11.6 | requests | 2.32.3 | anforderungs-toolbelt | 1.0.0 |
| rfc3339-Prüfer | 0.1.4 | rfc3986-validator | 0.1.1 | rich | 13.9.4 |
| Seil | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | SciPy | 1.15.3 |
| Seegeboren | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 78.1.1 |
| Shellingham | 1.5.4 | Sechs | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sortierte Container | 2.4.0 | Sieb für Suppe | 2,5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | Stapeldaten | 0.6.3 |
| Starlet | 0.50.0 | strictyaml | 1.7.3 | Hartnäckigkeit | 9.0.0 |
| terminado | 0.17.1 | Threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizers | 0.22.2 |
| tomli | 2.0.1 | Tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | Typwächter | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | Eingabeprüfung | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | unbeaufsichtigte Aktualisierungen | 0,1 |
| URI-Vorlage | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (Breite eines Zeichens) | 0.2.5 | webcolors | 25.10.0 | Webkodierungen | 0.5.1 |
| WebSocket-Client | 1.8.0 | Was ist neu im Patch | 1.0.2 | Rad | 0.45.1 |
| Wann auch immer | 0.7.3 | widgetsnbextension | 3.6.6 | Eingehüllt | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Installierte R-Bibliotheken
R-Bibliotheken werden aus der Posit Package Manager CRAN-Momentaufnahme am 2025-11-20 installiert.
| Bibliothek | Version | Bibliothek | Version | Bibliothek | Version |
|---|---|---|---|---|---|
| Pfeil | 22.0.0 | Askpass | 1.2.1 | prüfen, dass | 0.2.1 |
| backports | 1.5.0 | Basis | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | Bit64 | 4.6.0-1 |
| bitops | 1.0-9 | Klumpen | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | Besen | 1.0.10 |
| bslib | 0.9.0 | cachem | 1.1.0 | callr | 3.7.6 |
| Caret | 7.0-1 | CellRanger | 1.1.0 | Chron | 2.3-62 |
| Klasse | 7.3-22 | cli | 3.6.5 | clipr | 0.8.0 |
| clock | 0.7.3 | Gruppe | 2.1.6 | Codetools | 0.2-20 |
| Commonmark | 2.0.0 | Kompilierer | 4.5.1 | config | 0.3.2 |
| conflicted | 1.2.0 | cpp11 | 0.5.2 | Buntstift | 1.5.3 |
| Zugangsdaten | 2.0.3 | cURL | 7.0.0 | data.table | 1.17.8 |
| Datensätze | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| Beschreibung | 1.4.3 | devtools | 2.4.6 | Diagramm | 1.6.5 |
| diffobj | 0.3.6 | verdauen | 0.6.39 | downlit | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| Ellipse | 0.3.2 | auswerten | 1.0.5 | Fans | 1.0.7 |
| farver | 2.1.2 | fastmap | 1.2.0 | fontawesome | 0.5.3 |
| forcats | 1.0.1 | foreach | 1.5.2 | Fremd | 0.8-86 |
| fs | 1.6.6 | Zukunft | 1.68.0 | future.apply | 1.20.0 |
| gargle | 1.6.0 | Generika | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| Klebstoff | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| gower | 1.0.2 | Graphik | 4.5.1 | grGeräte | 4.5.1 |
| grid | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| GT | 1.1.0 | g-Tabelle | 0.3.6 | Schutzhelm | 1.4.2 |
| Hafen | 2.5.5 | highr | 0.11 | hms | 1.1.4 |
| HTML-Werkzeuge | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | Ausweise | 1.0.1 |
| ini | 0.3.1 | IPRED | 0.9-15 | Isobande | 0.2.7 |
| iterators | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | Knitr | 1.50 |
| Etikettierung | 0.4.3 | later | 1.4.4 | lattice | 0.22-5 |
| lava | 1.8.2 | Lebenszyklus | 1.0.4 | „listenv“ | 0.10.0 |
| litedown | 0.8 | Schmiermittel | 1.9.4 | magrittr | 2.0.4 |
| markdown | 2.0 | MASS | 7.3-60.0.1 | Matrix | 1.6-5 |
| memoise | 2.0.1 | Methodik | 4.5.1 | mgcv | 1.9-1 |
| Mime-Kunst | 0,13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | Modellierer | 0.1.11 | nlme | 3.1-164 |
| NNET | 7.3-19 | numDeriv | 2016.8 bis 1.1 | OpenSSL | 2.3.4 |
| otel | 0.2.0 | parallel | 4.5.1 | parallel dazu | 1.45.1 |
| Säule | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | loben | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | Prozessx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | Fortschritt | 1.2.3 | progressr | 0.18.0 |
| Versprechungen | 1.5.0 | proto | 1.0.0 | Stellvertreter | 0.4-27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | reaktivierbar | 0.4.4 | reactR | 0.6.1 |
| READR | 2.1.6 | readxl (Softwarepaket zum Lesen von Excel-Dateien) | 1.4.5 | Rezepte | 1.3.1 |
| Rückspiel | 2.0.0 | Rückspiel2 | 2.1.2 | fernbedienungen | 2.5.0 |
| reprex | 2.1.1 | Umform2 | 1.4.5 | rlang | 1.1.6 |
| RMarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| RVEST | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| scales | 1.4.0 | selectr | 0.4-2 | Sitzungsinformationen | 1.2.3 |
| Gestalt | 1.4.6.1 | glänzend | 1.11.1 | sourcetools | 0.1.7-1 |
| Sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| spatial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statistiken | 4.5.1 | Statistiken4 | 4.5.1 |
| Stringi | 1.8.7 | stringr | 1.6.0 | Überleben | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | Textgestaltung | 1.0.4 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | Zeitumstellung | 0.3.0 | timeDate | 4051.111 |
| tinytex | 0.58 | Werkzeuge | 4.5.1 | Zeitzonendatenbank (tzdb) | 0.5.0 |
| URL-Prüfer | 1.0.1 | Nutze dies | 3.2.1 | utf8 | 1.2.6 |
| utils | 4.5.1 | Universelle eindeutige Kennung (UUID) | 1.2-1 | V8 | 8.0.1 |
| VCTRS | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.6 |
| Waldo | 0.6.2 | whisker | 0.4.1 | Withr | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML-Dateiformat | 2.3.10 | zeallot | 0.2.0 |
| zip | 2.3.3 |
Installierte Java- und Scala-Bibliotheken (Scala 2.13-Clusterversion)
| Gruppen-ID | Artefakt-ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Amazon-Kinesis-Client | 1.15.3 |
| com.amazonaws | AWS Java SDK für Auto Scaling | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch (Cloud-Suchdienst) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | AWS-Java-SDK-Config | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (Java SDK für Elastic Beanstalk von AWS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (Software Development Kit für Elastic Load Balancing in AWS mit Java) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK für Elastic Transcoder) | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue (eine Bibliothek für den Glue-Service von Amazon Web Services) | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-Protokolle | 1.12.681 |
| com.amazonaws | aws-java-sdk-machinelearning (Maschinelles Lernen) | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (AWS-Storage-Gateway-SDK) | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | aws-java-sdk-Support (Unterstützung für AWS Java SDK) | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | Datenstrom | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | Klassenkamerad | 1.5.1 |
| com.fasterxml.jackson.core | Jackson-Anmerkungen | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | Jackson-Datenbindung | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | Koffein | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | Jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-Einheimische |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Einheimische |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Einheimische |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | Google-Auth-Library-Credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | AutoValue-Anmerkungen | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | fehleranfällige Annotationen | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | failureaccess | 1.0.3 |
| com.google.guava | Guave | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Software Development Kit für Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (Datenkompression mit LZF-Algorithmus) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Commons-Dateihochladen | Commons-Dateihochladen | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | blas | 3.0.4 |
| dev.ludovic.netlib | lapack | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | Luftkompressor | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | Metrikanmerkung | 4.2.37 |
| io.dropwizard.metrics | metrics-core | 4.2.37 |
| io.dropwizard.metrics | Metrics-Graphit | 4.2.37 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.37 |
| io.dropwizard.metrics | Metrik-Jetty10 | 4.2.37 |
| io.dropwizard.metrics | Metrics-JMX | 4.2.37 |
| io.dropwizard.metrics | metrics-json | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | Metrik-Servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | Netty Codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | Netty-Codec-Komprimierung | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | Netty-Resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-Klassen | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | Sammler | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | Aktivierung | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | Transaktions-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Gurke | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.Schneeflocke | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | Ameise | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Pfeilkomprimierung | 18.3.0 |
| org.apache.arrow | Pfeilformat | 18.3.0 |
| org.apache.arrow | arrow-memory-core | 18.3.0 |
| org.apache.arrow | Arrow-Memory-Netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | Pfeil-Vektor | 18.3.0 |
| org.apache.avro | avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-Text | 1.14.0 |
| org.apache.curator | Kurator-Klient | 5.9.0 |
| org.apache.curator | curator-framework | 5.9.0 |
| org.apache.curator | Rezepte des Kurators | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | Hadoop-Client-Laufzeit | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-Client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | hive-shims | 2.3.10 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | Hive-Shims-Scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | ORC-Format | 1.1.1-schattiert-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | Orc-Shims | 2.2.0 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | Tierpfleger | 3.9.4 |
| org.apache.zookeeper | zookeeper-jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | Jetty-Client | 10.0.26 |
| org.eclipse.jetty | Jetty-HTTP | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty-Plus | 10.0.26 |
| org.eclipse.jetty | Jetty-Proxy | 10.0.26 |
| org.eclipse.jetty | Jetty-Sicherheit | 10.0.26 |
| org.eclipse.jetty | Jetty Server | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | Jetty-Util | 10.0.26 |
| org.eclipse.jetty | Jetty-Webanwendung | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-Ortungssystem | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-neu verpackt | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | Javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | Testoberfläche | 1,0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | ScalaTest-kompatibel | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| Oro | Oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |