Sdílet prostřednictvím


Databricks Runtime 18.1

Následující poznámky k verzi obsahují informace o databricks Runtime 18.1.

Tato verze zahrnuje všechny funkce, vylepšení a opravy chyb ze všech předchozích verzí Databricks Runtime. Databricks vydala tuto verzi v únoru 2026.

Změny chování

Chyby metrik pozorování už nezpůsobují selhání dotazů

Chyby během shromažďování metrik pozorování už nezpůsobí selhání provádění dotazů. Dříve mohly chyby v OBSERVE klauzulích (například dělení nulou) blokovat nebo selhat celý dotaz. Nyní se dotaz úspěšně dokončí a při volání observation.getse vyvolá chyba .

Klauzule FILTER pro agregační funkce MEASURE

Agregační funkce MEASURE teď podporují klauzule FILTER. Dříve se filtry bezobslužně ignorovaly.

Optimalizované zápisy dat pro operace Unity Catalog CRTAS

CREATE OR REPLACE TABLE AS SELECT (CRTAS) operace na dělených tabulkách katalogu Unity teď ve výchozím nastavení používají optimalizované zápisy. Chcete-li zakázat, nastavte spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled hodnotu false.

Aktualizace mezipaměti DataFrame pro jemnozrnné tabulky řízení přístupu

Zápis do jemně odstupňovaných tabulek řízení přístupu na vyhrazených výpočetních prostředcích teď aktualizuje datové rámce uložené v mezipaměti, které závisí na tabulce.

Hodnoty partičních časových razítek používají časové pásmo relace.

Hodnoty oddílů časového razítka používají časové pásmo relace Sparku místo časového pásma JVM. Pokud máte oddíly s časovým razítkem zapsané před Databricks Runtime verze 18.0, ověřte metadata oddílu před zápisem nových dat pomocí SHOW PARTITIONS.

DESCRIBE FLOW – vyhrazené klíčové slovo

Příkaz DESCRIBE FLOW je teď k dispozici. Pokud máte tabulku s názvem flow, použijte DESCRIBE schema.flow, DESCRIBE TABLE flow, nebo DESCRIBE `flow` s backticks.

Logické operace sady SpatialSQL

ST_Difference ST_Intersection a ST_Unionpoužijte novou implementaci s následujícími vylepšeními:

  • Platné vstupní geometrie vždy vytvářejí výsledek a již nevyvolají chyby. Neplatné vstupy nevyvolají chyby, ale nemusí vést k platným výsledkům.
  • Přibližně 2x rychlejší výkon.
  • Výsledky se mohou lišit za 15. desetinným místem pro průsečíky úseček z důvodu odlišných vzorců a pořadí operací.
  • Výsledky jsou normalizovány pro konzistentní, srovnatelný výstup:
    • Body jsou seřazené podle hodnot souřadnic.
    • Linie jsou vytvořeny z nejdelších možných cest.
    • Polygonové kroužky jsou otočené, takže první bod má nejmenší hodnoty souřadnic.
  • Tato normalizace platí ve všech případech s výjimkou volání ST_Difference se dvěma nepřekrývajícími se geometrie, kde první geometrie je vrácena beze změny.

Typy výjimek pro SQLSTATE

Typy výjimek se aktualizují tak, aby podporovaly SQLSTATE. Pokud váš kód analyzuje výjimky podle párování řetězců nebo zachytí konkrétní typy výjimek, aktualizujte logiku zpracování chyb.

Rozšíření typu automatického streamování

Streamování čtení v tabulkách Delta automaticky zpracovává rozšiřování typu sloupce. Chcete-li vyžadovat ruční potvrzení, nastavte spark.databricks.delta.typeWidening.enableStreamingSchemaTracking hodnotu true.

Nové funkce a vylepšení

Automatický zavaděč ve výchozím nastavení používá události souborů, pokud je k dispozici.

Auto Loader ve výchozím nastavení používá události souborů při načítání z externího umístění, kde jsou tyto události povoleny, což snižuje operace seznamu souborů a náklady ve srovnání s výpisem adresářů. Podívejte se na přehled Auto Loader s událostmi souborů. Události souborů se nepoužívají, pokud váš kód streamu nastavuje useIncrementalListing nebo useNotifications. Pokud chcete místo toho použít výpis adresáře, nastavte useManagedFileEvents hodnotu false.

Optimalizované zápisy pro dělené tabulky katalogu Unity vytvořené pomocí CRTAS

Optimalizované zápisy se vztahují na dělené tabulky katalogu Unity vytvořené pomocí CREATE OR REPLACE TABLE ... AS SELECT CRTAS a vytvářejí méně větších souborů. Toto chování je ve výchozím nastavení povolené. Chcete-li zakázat, nastavte spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled hodnotu false.

Podpora datového typu DATETIMEOFFSET pro Microsoft Azure Synapse

Datový DATETIMEOFFSET typ je podporovaný pro připojení Microsoft Azure Synapse.

Komentáře k tabulce Google BigQuery

Popisy tabulky Google BigQuery jsou vyřešeny a zpřístupněny jako komentáře k tabulce.

Vývoj schématu pomocí příkazů INSERT

WITH SCHEMA EVOLUTION Pomocí klauzule s příkazy SQL INSERT můžete během operací vložení automaticky vyvíjet schéma cílové tabulky. Klauzule je podporována pro INSERT INTO, INSERT OVERWRITEa INSERT INTO ... REPLACE formuláře. Například:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

Schéma cílové tabulky Delta Lake se aktualizuje tak, aby vyhovovalo dalším sloupcům nebo rozšířeným typům ze zdroje. Podrobnosti najdete v tématu vývoj schématu a INSERT syntaxe příkazů.

Zachování hodnot struktury NULL v INSERT operacích

INSERT operace s vývojem schématu nebo implicitní přetypování zachovávají NULL hodnoty struktury, pokud zdrojové a cílové tabulky mají odlišné pořadí polí struktury.

Delta Sharing s podporou transakcí s více příkazy

Tabulky Delta Sharing, které používají předem podepsanou adresu URL nebo režimy sdílení cloudových tokenů, podporují transakce s více příkazy. Při prvním přístupu v rámci transakce je verze tabulky připnuta a znovu použita pro všechna následná čtení v této transakci.

Limitations:

  • Cestování v čase, změna datového toku dat a streamování se nepodporují.
  • U sdílených tabulek bez historie nejsou podporovány vícepříkazové transakce.
  • U nedůvěryhodného výpočetního prostředí nejsou povolené sdílené pohledy a externí entity.

Kontrolní body DataFrame ve svazkových cestách

Kontrolní body datového rámce podporují cesty ke svazkům katalogu Unity. Nakonfigurujte cestu kontrolního bodu pomocí SparkContext.setCheckpointDir na vyhrazených prostředcích výpočtu nebo konfigurace spark.checkpoint.dir na standardních prostředcích výpočtu.

Příkazy SQL se už při volání mezipaměti () znovu nespustí.

Příkazy SQL se už při volání .cache() výsledného datového rámce znovu nespustí. To zahrnuje příkazy jako SHOW TABLES a SHOW NAMESPACES.

SQL funkce parse_timestamp

Funkce SQL parse_timestamp parsuje řetězce časového razítka pomocí více vzorů. Funkce běží na modulu Photon pro lepší výkon při analýze časových razítek ve více formátech. Informace o formátování vzoru data a času najdete v tématu Vzory data a času .

max_by a min_by s volitelným limitem

Agregační funkce max_by a min_by teď přijímají volitelný třetí argument limit (až 100 000). Po zadání vrátí funkce pole až do limit hodnot, které odpovídají největším (nebo nejmenším) hodnotám řadicího výrazu, což zjednodušuje dotazy top-K a bottom-K bez okenních funkcí nebo CTE.

Vektorové agregační a skalární funkce

Nové funkce SQL pracují s ARRAY<FLOAT> vektory pro úlohy vkládání a podobnosti:

Agregační funkce:

  • vector_avg: Vrátí průměr prvků vektoru ve skupině.
  • vector_sum: Vrátí prvkový součet vektorů ve skupině.

Skalární funkce:

Viz předdefinované funkce.

Podpora kurzoru SQL ve složených příkazech

Skriptovací složené příkazy SQL teď podporují zpracování kurzoru. Příkaz DECLARE CURSOR slouží k definování kurzoru, příkazu OPEN, příkazu FETCH a příkazu CLOSE pro spuštění dotazu a zpracování řádků po jednom. Kurzory mohou používat značky parametrů a obslužné rutiny podmínek, jako je NOT FOUND, pro zpracování řádek po řádku.

Přibližné funkce skic nahoře

Nové funkce umožňují vytváření a kombinování přibližných skic top-K pro distribuovanou top-K agregaci.

Další informace najdete v tématu approx_top_k Agregační funkce a předdefinované funkce.

Funkce skici n-tice

Nové agregační a skalární funkce pro náčrtky n-tic podporují jedinečné počítání a agregaci u párů klíč-souhrn.

Agregační funkce:

Skalární funkce:

Viz předdefinované funkce.

Vlastní závislosti pro uživatelsky definované tabulkové funkce Pythonu v katalogu Unity

Uživatelem definované funkce tabulek (UDTFs) v Unity Catalog Pythonu teď můžou používat vlastní závislosti pro externí knihovny, takže můžete používat balíčky nad rámec toho, co je dostupné v prostředí Databricks Runtime. Viz Rozšíření UDF pomocí vlastních závislostí.

Nové geoprostorové funkce

Nyní jsou k dispozici následující geoprostorové funkce:

  • st_estimatesrid funkce: Odhaduje nejlepší předpokládaný identifikátor prostorového odkazu (SRID) pro vstupní geometrii.
  • st_force2d funkce: Převede geografii nebo geometrii na 2D reprezentaci.
  • st_nrings funkce: Spočítá celkový počet kroužků v polygonu nebo multipolygonu, včetně vnějších i vnitřních kroužků.
  • st_numpoints funkce: Spočítá počet neprázdných bodů v zeměpisné oblasti nebo geometrii.

Podpora Photon pro geoprostorové funkce

Následující geoprostorové funkce se teď spouštějí na modulu Photon, aby se zrychlil výkon:

Upgrady knihoven

V této verzi nebyly upgradovány žádné knihovny.

Apache Spark

Databricks Runtime 18.1 zahrnuje Apache Spark 4.1.0. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v Databricks Runtime 18.0 a také následující další opravy chyb a vylepšení Sparku:

  • SPARK-54316 Vrátit zpět "Znovu použít [SC-213971] Konsolidovat GroupPandasIterUDFSerializer s GroupPandasUDFSerializer"
  • SPARK-54116 Vrátit zpět "[SC-213108][SQL] Přidání podpory režimu mimo haldu pro LongHashedRelation
  • SPARK-55350 Oprava ztráty počtu řádků při vytváření datového rámce z pandas s 0 sloupci
  • SPARK-55364 Učinit protokol SupportsIAdd a SupportsOrdering rozumnějším
  • SPARK-53656 Refaktoring MemoryStream pro použití SparkSession místo SQLContext
  • SPARK-55472 Zvýšení AttributeError z metod odebraných v knihovně pandas 3
  • SPARK-55224 Použití datového typu Spark jako referenční hodnoty při serializaci Pandas-Arrow
  • SPARK-55402 Přesun streamingSourceIdentifyingName z catalogTable do DataSource
  • SPARK-55459 Vyřešit trojnásobnou regresi výkonu v applyInPandas pro velké skupiny
  • SPARK-55317 Přidání uzlu logického plánu Sekvenčního unionu a pravidla plánování
  • SPARK-55424 Explicitně předejte název řady v convert_numpy
  • SPARK-55175 Extrahovat to_pandas transformátor ze serializátorů
  • SPARK-55304 Zavedení podpory řízení přístupu a triggeru.AvailableNow ve zdroji dat Pythonu – čtečka streamování
  • SPARK-55382 Nastavit Executor pro protokolování Running Spark version
  • SPARK-55408 Zpracování neočekávaných chyb argumentů klíčových slov souvisejících s funkcí datetime ve verzi 3 knihovny pandas
  • SPARK-55345 Nepředávejte jednotku ani ji nenastavujte jako Timedelta pro pandas 3
  • SPARK-54759 Správně chránit logiku ve Správci proměnných skriptů po zavedení kurzoru
  • SPARK-55409 Řešení chyby neočekávaného klíčového argumentu u read_excel s pandas 3
  • SPARK-55403 Oprava chyby v testech grafů s knihovnou pandas verze 3.
  • SPARK-55256 Vrátit zpět "[SC-218596][SQL] Podpora IGNOROVAT HODNOTY NULL / RESPECT NULLS pro array_agg a collect_list"
  • SPARK-55256 Podpora IGNORE NULLS / RESPECT NULLS pro array_agg a collect_list
  • SPARK-55395 Zakázání mezipaměti RDD v DataFrame.zipWithIndex
  • SPARK-55131 Zavedení nového oddělovače slučovacího operátoru pro RocksDB do prázdného řetězce pro zřetězení bez oddělovače
  • SPARK-55376 Nastavení argumentu numeric_only ve funkcích groupby přijímá pouze logickou hodnotu s knihovnou pandas 3
  • SPARK-55334 Povolit TimestampType a TimestampNTZType v convert_numpy
  • SPARK-55281 Přidání ipykernelu a IPythonu do seznamu volitelných balíčků mypy
  • SPARK-55336 Nechat createDF využít logiku create_batch pro oddělení
  • SPARK-55366 Odebrat errorOnDuplicatedFieldNames z Python UDFs (uživatelsky definovaných funkcí)
  • SPARK-54759 Podpora skriptování kurzoru SQL
  • SPARK-55302 Opravit vlastní metriky v případě KeyGroupedPartitioning
  • SPARK-55228 Implementace Dataset.zipWithIndex v rozhraní Scala API
  • SPARK-55373 Zlepšení chybové zprávy noHandlerFoundForExtension
  • SPARK-55356 Podpora aliasu pro PIVOT klauzuli
  • SPARK-55359 Zvýšit úroveň TaskResourceRequest na Stable
  • SPARK-55365 Zobecnění nástrojů pro převod matic šipek
  • SPARK-55106 Přidat integrační test Repartition pro operátory TransformWithState
  • SPARK-55086 Přidejte DataSourceReader.pushFilters do dokumentace k rozhraní API pro zdroje dat v Pythonu.
  • SPARK-46165 Přidání podpory prvku DataFrame.all axis=None
  • SPARK-55289 Vrátit zpět "[SC-218749][SQL] Opravit nespolehlivý test in-set-operations.sql zakázáním všesměrového spojení"
  • SPARK-55297 Obnovení typu timedelta dtype na základě původního typu dtype
  • SPARK-55291 Předzpracovat hlavičky metadat během konstrukce interceptoru klienta
  • SPARK-55155 Znovu použít "[SC-218401][SQL] Podpora skládacích výrazů v SET CATALOG příkazu
  • SPARK-55318 Optimalizace výkonu pro vector_avg/vector_sum
  • SPARK-55295 Rozšíření funkce ST_GeomFromWKB tak, aby převzala volitelnou hodnotu SRID
  • SPARK-55280 Přidání protokolu GetStatus pro podporu monitorování stavu provádění
  • SPARK-54969 Implementace nového převodu z arrow na pandas>
  • Extrahujte SPARK-55176 převodník arrow_to_pandas do ArrowArrayToPandasConversion
  • SPARK-55111 Vrátit "[SC-217817][SC-210791][SS] Nedokončená detekce přeoddělení při restartování dotazu"
  • SPARK-55252 Zlepšit HttpSecurityFilter pro přidání Content-Security-Policy záhlaví
  • SPARK-55111 Detekce nedokončeného opětovného dělení při restartování dotazu
  • SPARK-55105 Přidání integračního testu pro operátor join
  • SPARK-55260 Implementace podpory zápisu Parquet pro geografické typy
  • SPARK-54523 Oprava výchozího rozlišení během průchodu variant
  • SPARK-55328 Opětovné použití PythonArrowInput.codec v GroupedPythonArrowInput
  • SPARK-55246 Přidání testu pro Pyspark TWS a TWSInPandas a oprava chyby StatePartitionAllColumnFamiliesWriter
  • SPARK-55289 Oprava nespolehlivého testu in-set-operations.sql zakázáním vysílacího spojení
  • SPARK-55040 Refaktoring TaskContext a související pracovní protokol v rámci opravy motoru PySpark.
  • Spark-47996 podporuje křížové sloučení v rozhraní PANDAS API
  • SPARK-55031 Přidání výrazů agregační funkce vektoru avg/sum
  • SPARK-54410 Oprava podpory čtení pro anotaci logického typu varianty
  • SPARK-54776 Vraťte se zpět [SC-216482][SQL] Vylepšili jsme zprávu protokolů týkající se funkce lambda s UDF SQL.
  • SPARK-55123 Přidat SequentialUnionOffset pro sledování sekvenčního zpracování zdroje
  • SPARK-54972 Vylepšení poddotazů NOT IN s nenulovými sloupci
  • SPARK-54776 Vylepšili jsme zprávu protokolů týkající se funkce lambda s UDF SQL.
  • SPARK-53807 Oprava problémů se současným stavem mezi unlock a releaseAllLocksForTask v BlockInfoManager
  • SPARK-51831 Vrátit "[SC-207389][SQL] Pruning sloupců s existsJoin pro Datasource V2"
  • SPARK-54881 Zlepšení BooleanSimplification zpracování negace spojení a disjunkce v jednom průchodu
  • SPARK-54696 Vyčistit ArrowBuffers v Connect
  • SPARK-55009 Odstranit nepotřebnou kopii paměti z konstruktoru LevelDBTypeInfo/RocksDBTypeInfo.Index
  • SPARK-54877 Možnost konfigurovat zobrazení zásobníkové stopy na chybové stránce uživatelského rozhraní
  • SPARK-51831 Prořezávání sloupců s existsJoinen pro Zdroj dat V2
  • SPARK-55285 Oprava inicializace PythonArrowInput
  • SPARK-53960 Umožnit approx_top_k_accumulate/combine/estimate zpracovat NULL hodnoty
  • SPARK-55155 Vrátit "[SC-218401][SQL] Podpora skládacích výrazů v SET CATALOG příkazu"
  • SPARK-55155 Podpora skládacích výrazů v SET CATALOG příkazu
  • SPARK-49110 Vrátit zpět "[SC-218594][SQL] Zjednodušit SubqueryAlias.metadataOutput, aby vždy šířilo sloupce metadat"
  • SPARK-54399 Implementace funkce st_setsrid v scala a PySpark
  • SPARK-49110 Zjednodušit subqueryAlias.metadataOutput, aby vždy propagoval sloupce metadat
  • SPARK-55133 Oprava podmínky závodu v rámci správy životního cyklu pro IsolatedSessionState
  • SPARK-55262 Blokování geografických typů ve všech zdrojích dat založených na souborech s výjimkou Parquet
  • SPARK-54202 Povolit přetypování z GeometryType(srid) na GeometryType(ANY)
  • SPARK-54142 Implementace funkce st_srid v jazyce Scala a PySpark
  • SPARK-55237 Potlačení otravných zpráv při vyhledávání neexistující databáze
  • SPARK-55040 Zrušit změny "[SC-217628][PYTHON] Refactoring TaskContext a související pracovní protokol"
  • SPARK-55259 Implementace převodu schématu Parquet pro geografické typy
  • SPARK-55282 Nepoužívejte worker_util na straně ovladače
  • SPARK-54151 Zavedení architektury pro přidávání funkcí ST v PySparku
  • SPARK-55194 Odebrání GroupArrowUDFSerializer přesunutím zploštěné logiky do mapperu
  • SPARK-55020 Zakázání gc při provádění příkazu gRPC
  • SPARK-55053 Refaktoring pracovníků analýzy zdrojů dat a udtf, aby měli jednotný vstupní bod
  • SPARK-55040 Přepracování TaskContext a souvisejícího protokolu pracovníka
  • SPARK-55244 Použít np.nan jako výchozí hodnotu pro stringové typy v pandas
  • SPARK-55225 Obnovení do původního typu dtype pro datetime
  • SPARK-55154 Odeberte rychlou cestu k pd. Řada pro pandas 3
  • SPARK-55030 Přidání podpory vektorových norm/normalizačních výrazů funkcí
  • SPARK-55202 Oprava UNEXPECTED_USE_OF_PARAMETER_MARKER při použití parametru...
  • SPARK-54201 Umožnit převod z GeographyType(srid) na GeographyType(ANY)
  • SPARK-54244 Zavedení podpory převodu typů pro datové typy GEOMETRY
  • SPARK-54160 Implementace výrazu ST_SetSrid v SQL
  • SPARK-55046 PySpark – přidání metriky doby zpracování udf
  • SPARK-54101 Představení architektury pro přidávání funkcí ST v jazyce Scala
  • SPARK-54683 Sjednocení blokování geografických a časových typů
  • SPARK-55249 Umožnit funkci DataFrame.toJSON vrátit reprezentaci datového rámce jako JSON
  • SPARK-54521 Přidat podporu pro převod do a z WKB pro typ Geometrie
  • SPARK-54162 Povolit přetypování z GeographyType na GeometryType
  • SPARK-55146 Recheckin State Repartition API pro PySpark
  • SPARK-55140 Nemapovat předdefinované funkce na numpy verze pro pandas 3
  • SPARK-54243 Zavedení podpory převodu typů pro datové typy GEOGRAPHY
  • SPARK-55058 Vyvolání chyby u nekonzistentních metadat kontrolních bodů
  • SPARK-55108 Použijte nejnovější pandas stuby pro kontrolu typů
  • SPARK-54091 Implementace výrazu ST_Srid v SQL
  • SPARK-55104 Přidání podpory Spark Connect pro DataStreamReader.name()
  • SPARK-54996 Zpráva o čase příjezdu pro záznamy z nízkolatenčního paměťového toku
  • SPARK-55118 Nahrazení importů zástupných znaků ASM Opcodes
  • SPARK-54365 Přidání testu integrace repartition pro agregace, odstranění duplicitních dat, FMGWS a operátory SessionWindow
  • SPARK-55119 Oprava obslužného zpracování Continue: zabránění INTERNAL_ERROR a nesprávnému přerušení podmíněných příkazů
  • SPARK-54104 Zakázat přetypování geoprostorových typů do/z jiných datových typů
  • SPARK-55240 Refaktoring zpracování LazyTry stacktrace pro použití wrapperu místo potlačené výjimky
  • SPARK-55238 Přesun logiky mapování geografických SRS z main/scala do main/java
  • SPARK-55179 Přeskočení dychtivého ověřování názvu sloupce v df.col_name
  • SPARK-55055 Podpora SparkSession.Builder.create pro PySpark Classic
  • SPARK-55186 Umožňuje ArrowArrayToPandasConversion.convert_legacy vrátit pd. Datový rámec
  • SPARK-54079 Zavedení architektury pro přidávání výrazů ST v Catalystu
  • SPARK-54096 Podpora mapování prostorového referenčního systému v PySpark
  • SPARK-54801 Označení několika nových konfigurací 4.1 jako interních
  • SPARK-55146 Vrátit zpět "[SC-217936][SC-210779][SS] Rozhraní API pro přerozdělení stavu pro PySpark"
  • SPARK-54559 Předání možnosti profileru pomocí runnerConf
  • SPARK-55205 Oprava testů, kde se předpokládá, že typ řetězce se konvertuje na objekt
  • SPARK-55171 Oprava profileru paměti v iteru UDF
  • SPARK-55226 Rozpoznávání data a času s jinými jednotkami než [ns]
  • SPARK-55027 Přesun writeConf do PythonWorkerUtils
  • SPARK-55197 Extrakce _write_stream_start pomocné funkce pro odstranění duplicitní signální logiky START_ARROW_STREAM
  • SPARK-54179 Přidání nativní podpory pro Apache Tuple Sketches (#190848) (#191111)
  • SPARK-55151 Oprava RocksDBSuite testWithStateStoreCheckpointIds
  • SPARK-55146 Rozhraní API pro dělení stavu pro PySpark
  • SPARK-54232 Povolení serializace šipky pro typy Geografie a geometrie
  • SPARK-53957 Podpora GEOGRAFIE a GEOMETRIE v SpatialReferenceSystemMapper
  • SPARK-55169 Použití ArrowBatchTransformer.flatten_struct v ArrowStreamArrowUDTFSerializer
  • SPARK-55134 Opravit BasicExecutorFeatureStep aby házel IllegalArgumentException při špatných konfiguracích CPU pro exekutory
  • SPARK-54166 Zavedení kodérů typů pro geoprostorové typy v PySparku
  • SPARK-55138 Opravit convertToMapData vyvolávání chyby NullPointerException
  • SPARK-55168 Použijte ArrowBatchTransformer.flatten_struct v GroupArrowUDFSerializer
  • SPARK-55032 Refaktoring profilátorů v workers.py
  • SPARK-54990 Oprava způsobu implementace classproperty v session.py
  • SPARK-55076 Oprava problému s nápovědou typu v ml/mllib a přidání požadavku na scipy
  • SPARK-55162 Extrakce transformátorů z ArrowStreamUDFSerializer
  • SPARK-55121 Přidání DataStreamReader.name() do klasického PySparku
  • SPARK-54169 Představení typů zeměpisu a geometrie v zapisovači šipek
  • SPARK-51658 Zavedení obalových formátů pro geometrii a geografii v paměti
  • SPARK-54110 Zavedení kodérů typů pro typy Geografie a geometrie
  • SPARK-54956 Sjednocení mechanismu opakování při neurčitém shufflování
  • SPARK-55137 Refaktorovat GroupingAnalyticsTransformer a Analyzer kód
  • SPARK-54103 Představení tříd geografie a geometrie na straně klienta
  • SPARK-55160 Přímé předání vstupního schématu serializátorům
  • SPARK-55170 Extrahování vzoru čtení seskupených streamů ze serializátorů
  • SPARK-55125 Odebrání redundantních __init__ metod v serializátorech se šipkami
  • SPARK-55126 Odebrání nepoužívaného časového pásma a assign_cols_by_name ze ArrowStreamArrowUDFSerializer
  • SPARK-54980 Převedení úrovně izolace JDBC na řetězec
  • SPARK-55051 Bajtový řetězec přijímá KiB, MiB, GiB, TiB, PiB
  • SPARK-55025 Zlepšení výkonu knihovny pandas pomocí seznamového porozumění
  • SPARK-46165 Přidání podpory pro pandas.DataFrame.all axis=1
  • SPARK-55037 Opětovné implementace pozorování bez použití QueryExecutionListener
  • SPARK-54965 Oddělit zastaralý pa.Array –> pd.Series konvertor
  • SPARK-55016 Učinit SQLConf přímým atributem SparkSession, aby se zabránilo přetečení zásobníku
  • SPARK-55091 Omezení volání RPC Hivu pro DROP TABLE příkaz
  • SPARK-55097 Oprava problému, kde znovu přidáváním artefaktů v mezipaměti dojde k tichému odstranění bloků.
  • SPARK-55026 Optimalizovat BestEffortLazyVal.
  • SPARK-55091 Vrátit "[SC-217410][SQL] Snížení volání RPC pro DROP TABLE příkaz v Hive"
  • SPARK-54590 Podpora checkpointu V2 pro rewriter a repartitioning
  • SPARK-55016 Učinit SQLConf přímým atributem SparkSession, aby se zabránilo přetečení zásobníku
  • SPARK-55091 Omezení volání RPC Hivu pro DROP TABLE příkaz
  • SPARK-55016 Vrátit zpět "[SC-217401][SQL] Nastavit SQLConf jako přímou vlastnost SparkSession, aby se zabránilo přetečení zásobníku
  • SPARK-55016 Učinit SQLConf přímým atributem SparkSession, aby se zabránilo přetečení zásobníku
  • SPARK-55098 Vektorizované funkce definované uživatelem s řízením velikosti výstupní dávky selžou a mají za následek únik paměti
  • SPARK-54824 Přidání podpory pro multiGet a deleteRange pro úložiště stavů Rocksdb
  • SPARK-55054 Přidání podpory IDENTIFIED BY pro streamované funkce vracející hodnoty tabulky
  • SPARK-55029 Propagace názvu identifikujícího zdroj streamování skrze kanál řešení
  • SPARK-55071 Učinit, aby spark.addArtifact fungoval s cestami Windows
  • SPARK-54103 Vrátit zpět "[SC-210400][Geo][SQL] Zavedení tříd geografie a geometrie na straně klienta"
  • SPARK-54103 Představení tříd geografie a geometrie na straně klienta
  • SPARK-54033 Zavedení geoprostorových prováděcích tříd Catalyst na straně serveru
  • SPARK-54176 Představení datových typů Geografie a geometrie v PySpark Connect
  • SPARK-55089 Oprava výstupního schématu toJSON
  • SPARK-55035 Vyčištění náhodného prohazování v podřízených spuštěních
  • SPARK-55036 Přidání ArrowTimestampConversion pro zpracování časových pásem šipek
  • SPARK-54873 Zjednodušení rozlišení V2TableReference, protože ho může obsahovat pouze dočasné zobrazení
  • SPARK-52828 Učinit hashování pro dokončené řetězce nezávislé na kolaci.
  • SPARK-54175 Přidání typů geografie a geometrie do proto Spark Connect
  • SPARK-54961 Zavést GroupingAnalyticsTransformer
  • SPARK-55088 Zachovat metadata do/z_arrow_type/schématu
  • SPARK-55070 Povolit skrytý sloupec v rozlišení sloupců datového rámce
  • SPARK-55044 Zachování metadat v toArrowSchema/fromArrowSchema
  • SPARK-55043 Oprava časového cestování pomocí poddotazů obsahujících odkazy na tabulky
  • SPARK-54987 Změna výchozí hodnoty prefer_timestamp_ntz na True v from_arrow_type/from_arrow_schema
  • SPARK-54866 Refaktorovat funkce drop/RefreshFunction, aby se zabránilo vyhledávání katalogu
  • SPARK-55024 Použijte chybu REQUIRES_SINGLE_PART_NAMESPACE pro ověření oboru názvů katalogu relací
  • SPARK-54992 Nahrazení přetypování kontrolou modulu runtime pro make_timestamp
  • SPARK-55024 Vrátit změnu "[SC-216987][SQL] Použít chybu REQUIRES_SINGLE_PART_NAMESPACE pro ověření oboru názvů katalogu relace"
  • SPARK-54866 Vrátit zpět "[SC-216753][SQL] Přepracovat Drop/RefreshFunction, aby se zabránilo dotazování na katalog"
  • SPARK-55024 Použijte chybu REQUIRES_SINGLE_PART_NAMESPACE pro ověření oboru názvů katalogu relací
  • SPARK-54866 Refaktorovat funkce drop/RefreshFunction, aby se zabránilo vyhledávání katalogu
  • SPARK-54991 Správná typová anotace pro soubor streaming/listener.py
  • SPARK-54925 Přidání schopnosti získat výpis vláken pro PySpark
  • SPARK-54803 Podpora BY NAME s INSERT ... NAHRADIT WHERE
  • SPARK-54785 Přidání podpory pro agregace binárních skic v KLL (#188370) (#188860)
  • SPARK-54949 Přesunutí souboru pyproject.toml do kořenového adresáře úložiště
  • SPARK-54954 Oprava vzdálených souvisejících typových náznaků v util.py
  • SPARK-54922 Sjednocení způsobu předávání argumentů pracovníkům Pythonu
  • SPARK-54870 Podpora kolace pro char/varchar a CTAS/RTAS
  • SPARK-54762 Oprava _create_converter a covert přetížení podpisu
  • SPARK-55019 Povolit DROP TABLE odstranění zobrazení
  • SPARK-53103 Vyvolání chyby, pokud adresář stavu není při spuštění dotazu prázdný
  • SPARK-54995 Vytvoření rychlé cesty pro foreachPartition
  • SPARK-54634 Přidání jasné chybové zprávy pro prázdný predikát IN
  • SPARK-54984 Provádění pře-rozdělení stavu a integrace se State Rewriter
  • SPARK-54443 Integrace PartitionKeyExtraktoru do čtečky pro přerozdělení oddílů
  • SPARK-54907 Zavedení pravidla analyzátoru NameStreamingSources pro vývoj zdroje streamování
  • SPARK-54609 Aktualizace konfigurace typu čas tak, aby odpovídala konfiguraci OSS
  • SPARK-54988 Zjednodušení implementace ObservationManager.tryComplete
  • SPARK-54959 Úplné zakázání opakování při nesouladu kontrolních součtů shuffle, když je povoleno shuffle založené na push
  • SPARK-54940 Přidat testy pro odvození typu pa.scalar
  • SPARK-54634 Vrátit zpětně "[SC-216478][SQL] Přidání jasné chybové zprávy pro prázdný predikát IN"
  • SPARK-54337 Přidání podpory pro PyCapsule do Pysparku
  • SPARK-54634 Přidání jasné chybové zprávy pro prázdný predikát IN
  • SPARK-53785 Zdroj paměti pro RTM
  • SPARK-54883 Vyčištění chybových zpráv pro rozhraní příkazového řádku a přidání nového režimu chyb DEBUG
  • SPARK-54713 Přidání podpory pro výrazy funkcí podobnosti/vzdálenosti vektorů.
  • SPARK-54962 Oprava zpracování celých čísel s možnou hodnotou null v Pandas UDF
  • SPARK-54864 Přidání uzlů rCTE do NormalPlanu
  • SPARK-53847 Přidání ContinuousMemorySink pro testování režimu v reálném čase
  • SPARK-54865 Přidání metody foreachWithSubqueriesAndPruning do QueryPlan
  • SPARK-54930 Odstranit redundantní volání _accumulatorRegistry.clear() v worker.py
  • SPARK-54929 Oprava resetování taskContext._resources v cyklu způsobí uložení pouze posledního prostředku
  • SPARK-54963 Mějte na paměti createDataFrameprefer_timestamp_ntz, když infer_pandas_dict_as_map
  • SPARK-54920 Přesun logiky extrakce analýzy seskupení do společného modulu GroupingAnalyticsExtractor
  • SPARK-54924 Rewriter pro čtení stavu, transformaci a zápis nového stavu
  • SPARK-54872 Sjednocení výchozího zpracování hodnot sloupců mezi příkazy v1 a v2
  • SPARK-54905 Zjednodušení implementace foreachWithSubqueries v QueryPlan
  • SPARK-54682 Podpora zobrazení parametrů v části DESCRIBE PROCEDURE
  • SPARK-54933 Vyhněte se opakovanému načítání konfigurace binary_as_bytes v toLocalIterator
  • SPARK-54872 Vrátit zpět "[SC-216260][SQL] Sjednocení zpracování výchozí hodnoty sloupce mezi příkazy v1 a v2"
  • SPARK-51936 ReplaceTableAsSelect by měla místo připojení přepsat novou tabulku.
  • SPARK-54771 Odebrání pravidla ResolveUserSpecifiedColumns z RuleIdCollection
  • SPARK-54872 Sjednocení výchozího zpracování hodnot sloupců mezi příkazy v1 a v2
  • SPARK-54313 Přidání parametru --extra-properties-file pro vrstvení konfigurace
  • SPARK-54468 Přidání chybějících tříd chyb
  • SPARK-46741 Tabulka mezipaměti s CTE by měla fungovat, když je CTE v poddotazu ve výrazu plánu
  • SPARK-46741 Tabulka mezipaměti s CTE nebude fungovat
  • SPARK-54615 Vždy předejte runner_conf pracovníkovi Pythonu.
  • SPARK-53737 Přidání triggeru režimu v reálném čase
  • SPARK-54541 Přejmenování _LEGACY_ERROR_TEMP_1007 a přidání sqlState
  • SPARK-54718 Zachování názvů atributů během CTE newInstance()
  • SPARK-54621 Sloučit do sady aktualizací * zachovat vnořená pole, pokud ... je povolená funkce coerceNestedTypes
  • SPARK-54595 Zachování stávajícího chování MERGE INTO bez SCHEMA klauzule EVOLUTION
  • SPARK-54903 Umožnění funkce to_arrow_schema/to_arrow_type pro nastavení časového pásma
  • SPARK-52326 Přidat oddíly související s událostí ExternalCatalogEvent a zveřejnit je v odpovídajících operacích.
  • SPARK-54541 Vrátit zpět "[SC-215212][SQL] Přejmenovat _LEGACY_ERROR_TEMP_1007 a přidat sqlState
  • SPARK-54578 Provést vyčištění kódu na AssignmentUtils
  • SPARK-54830 Povolit ve výchozím nastavení opakování nejednoznačného přerozdělení na základě kontrolního součtu
  • SPARK-54525 Zakázání vnořeného koercování struktury v MERGE INTO pomocí konfigurace
  • SPARK-53784 Další zdrojová rozhraní API potřebná k podpoře provádění RTM
  • SPARK-54496 Oprava mechanismu evoluce schématu pro rozhraní API datových rámců
  • SPARK-54835 Vyhněte se zbytečným temp QueryExecution pro vnořené spouštění příkazů
  • SPARK-54541 Přejmenování _LEGACY_ERROR_TEMP_1007 a přidání sqlState
  • SPARK-54289 Povolit MERGE INTO zachování existujících polí struktury pro UPDATESET * v případě, že zdrojová struktura obsahuje méně vnořená pole než cílová struktura
  • SPARK-54720 Přidání SparkSession.emptyDataFrame se schématem
  • SPARK-54800 Změna výchozí implementace pro isObjectNotFoundException
  • SPARK-54686 Uvolnění kontrol tabulky DSv2 v dočasných zobrazeních a povolení nových sloupců nejvyšší úrovně
  • SPARK-54619 Přidání základní kontroly pro čísla konfigurace
  • SPARK-54726 Vylepšení výkonu pro InsertAdaptiveSparkPlan
  • SPARK-51966 Nahrazení select.select() pomocí select.poll() při spuštění v operačním systému POSIX
  • SPARK-54749 Oprava nesprávné metriky numOutputRows ve OneRowRelationExec
  • SPARK-54411 Představení zapisovače oddílů, který podporuje multi-CF
  • SPARK-54835 Vraťte se na [SC-215823][SQL] Vyhněte se nepotřebným temp QueryExecution pro vnořené spuštění příkazu.
  • SPARK-54867 Zavedení obálky NamedStreamingRelation pro identifikaci zdroje během analýzy
  • SPARK-54835 Vyhněte se zbytečným temp QueryExecution pro vnořené spouštění příkazů
  • SPARK-54491 Oprava vložení do dočasného zobrazení v případě selhání tabulky DSv2
  • SPARK-54871 Ořízněte aliasy ze skupinových a agregačních výrazů před provedením analytiky seskupení
  • SPARK-51920 Oprava zpracování typu namedTuple pro transfromWithState
  • SPARK-54526 Přejmenování _LEGACY_ERROR_TEMP_1133 a přidání sqlState
  • SPARK-54424 Selhání při obnovení mezipaměti nesmí způsobit selhání operací
  • SPARK-54894 Oprava předávání argumentů to_arrow_type
  • SPARK-53448 Převod datového rámce PySpark se sloupcem Variant na Pandas způsobí chybu
  • SPARK-54882 Odebrání starší verze PYARROW_IGNORE_TIMEZONE
  • SPARK-54504 Oprava aktualizace verze pro tabulky DSv2 s poddotazy
  • SPARK-54444 Uvolnění kontrol tabulky DSv2 za účelem obnovení předchozího chování
  • SPARK-54859 Referenční dokumentace k rozhraní API PySpark UDF s Arrow jako výchozím nástrojem
  • SPARK-54387 Revert "[ES-1688666] Revert "[SC-212394][SQL] Oprava recachingu tabulek DSv2"
  • SPARK-54753 oprava úniku paměti u ArtifactManageru
  • SPARK-54387 Vrátit "[SC-212394][SQL] Oprava recachování tabulek DSv2"
  • SPARK-54436 Oprava formátování chyb pro nekompatibilní kontroly metadat tabulek
  • SPARK-54849 Upgrade minimální verze pyarrow na verzi 18.0.0
  • SPARK-54022 Učinit rozpoznávání tabulek DSv2 citlivé na tabulky v mezipaměti
  • SPARK-54387 Oprava rekonstruování tabulek DSv2
  • SPARK-53924 Opětovné načtení tabulek DSv2 v zobrazeních vytvořených pomocí plánů pro každý přístup k zobrazení
  • SPARK-54561 Podpora bodu přerušení pro run-tests.py
  • SPARK-54157 Oprava aktualizace tabulek DSv2 v datové sadě
  • SPARK-54830 Vrátit "[CORE] Povolit opakování neurčitého shuffle na základě kontrolního součtu jako výchozí nastavení"
  • SPARK-54861 Po dokončení úlohy resetujte název vlákna úlohy na IDLE_TASK_THREAD_NAME
  • SPARK-54834 Přidání nových rozhraní SimpleProcedure a SimpleFunction
  • SPARK-54760 DelegatingCatalogExtension jako relační katalog podporuje funkce V1 i V2.
  • SPARK-54685 Odebrání redundantních odpovědí na pozorované metriky
  • SPARK-54853 Vždy zkontrolujte hive.exec.max.dynamic.partitions na straně Sparku.
  • SPARK-54840 Předběžné přidělení seznamu orcList
  • SPARK-54830 Povolit ve výchozím nastavení opakování nejednoznačného přerozdělení na základě kontrolního součtu
  • SPARK-54850 Vylepšit extractShuffleIds najít AdaptiveSparkPlanExec kdekoli ve stromu plánu
  • SPARK-54843 Try_to_number výraz nefunguje pro zadání prázdného řetězce
  • SPARK-54556 Vrácení zpět úspěšných fází mapování při přerozdělování, když je zjištěna neshoda kontrolního součtu.
  • SPARK-54760 Vrátit zpět "[SC-215670][SQL] DelegatingCatalogExtension jako katalog relací podporuje funkce V1 i V2"
  • SPARK-54760 DelegatingCatalogExtension jako relační katalog podporuje funkce V1 i V2.
  • SPARK-54818 TaskMemoryManager alokace selhala a měla by zaznamenat chybový zásobník, aby se pomohlo zkontrolovat využití paměti.
  • SPARK-54827 Přidání pomocné funkce TreeNode.containsTag
  • SPARK-54777 Vrátit zpět "[SC-215740][SQL] Změna zpracování chyb dropTable v JDBCTableCatalog.dropTable(...)"
  • SPARK-54777 Změna zpracování chyb dropTable v JDBCTableCatalog.dropTable(...)
  • SPARK-54817 Refaktorovat Unpivot logiku řešení na UnpivotTransformer
  • SPARK-54820 Zajistit pandas_on_spark_type kompatibilitu s numpy 2.4.0
  • SPARK-54799 Refaktorování UnpivotCoercion
  • SPARK-54754 OrcSerializer by neměl parsovat schéma při každém serializování
  • SPARK-54226 Rozšíření komprese Apache Arrow na Pandas UDF
  • SPARK-54787 Použití porozumění seznamu místo smyčk v knihovně pandas
  • SPARK-54690 Optimalizace Frame.__repr__ šipek nerozlišuje
  • SPARK-46166 Implementace pandas.DataFrame.any s axis=None
  • SPARK-54696 Čištění paměťových bufferů Arrow - následné zásahy
  • SPARK-54769 Odebrání mrtvého kódu v conversion.py
  • SPARK-54787 Použití porozumění seznamu v knihovně pandas _bool_column_labels
  • SPARK-54794 Potlačení podrobných záznamů skenování
  • SPARK-54782 Oprava verzí konfigurace
  • SPARK-54781 Vrácení informací o mezipaměti modelu ve formátu JSON
  • SPARK-54419 Offline repartition State Reader podporuje vícesloupcové rodiny
  • SPARK-54722 Registrace iterované agregované UDF Pandas pro použití v SQL
  • SPARK-54762 Vrátit zpět "[SC-215422][PYTHON] Oprava _create_converter a covert přetížení podpisu"
  • SPARK-54652 Vrátit zpět "[SC-215452][SQL] Dokončení konverze IDENTIFIER()"
  • SPARK-54762 Oprava _create_converter a covert přetížení podpisu
  • SPARK-52819 Zajištění, aby byl KryoSerializationCodec serializovatelný, k opravě chyb java.io.NotSerializableException v různých případech použití
  • SPARK-54711 Přidání časového limitu pro připojení vytvořeného daemonem
  • SPARK-54738 Přidání podpory profileru pro Pandas Grouped Iter agregovanou UDF
  • SPARK-54652 Úplný převod IDENTIFIER()
  • SPARK-54581 Parametr fetchsize je u konektoru Postgres nyní nerozlišující velikost písmen.
  • SPARK-54589 Konsolidace ArrowStreamAggPandasIterUDFSerializer do ArrowStreamAggPandasUDFSerializer
  • SPARK-41916 Distributor Torch: Podpora více procesů torchrun na úlohu, pokud task.gpu.amount > 1
  • SPARK-54707 Přepracovat hlavní logiku řešení na PIVOT
  • SPARK-54706 Zajištění práce DistributedLDAModel s místním systémem souborů
  • SPARK-53616 Představení API iterátoru pro knihovnu pandas seskupené uživatelsky definované funkce agregace
  • SPARK-54116 Přidání podpory režimu off-heap pro LongHashedRelation
  • SPARK-54656 Refaktorovat SupportsPushDownVariants na ScanBuilder mix-in
  • SPARK-54687 Přidejte zlatý soubor s řešením pro hraniční případy generátorů
  • SPARK-54708 Optimalizace vyčištění mezipaměti ML s využitím opožděného vytváření adresáře
  • SPARK-54116 Vrátit zpět "[SC-213108][SQL] Přidat podporu režimu mimo haldu pro LongHashedRelation"
  • SPARK-54116 Přidání podpory režimu off-heap pro LongHashedRelation
  • SPARK-54443 Extrahování klíčů oddílů pro všechny streamovací stavové operátory
  • SPARK-54687 Vrátit zpět "[SC-214791][SQL] Přidání zlatého souboru s hraničními případy rozlišení generátorů"
  • SPARK-54116 Vrátit zpět "[SC-213108][SQL] Přidat podporu režimu mimo haldu pro LongHashedRelation"
  • SPARK-54687 Přidejte zlatý soubor s řešením pro hraniční případy generátorů
  • SPARK-54116 Přidání podpory režimu off-heap pro LongHashedRelation
  • SPARK-54420 Představení offline rozdělování StatePartitionWriter pro rodinu sloupců s jedním sloupcem
  • SPARK-54689 Nastavení org.apache.spark.sql.pipelines interního balíčku a nastavení privátního EstimatorUtils
  • SPARK-54673 Refaktoring kódu analýzy syntaxe kanálu SQL pro sdílení a opakované použití
  • SPARK-54668 Přidání testů pro CTE ve více podřízených operátorech
  • SPARK-54669 Odebrání redundantního typování v rCTEs
  • SPARK-54587 Konsolidace veškerého souvisejícího kódu runner_conf
  • SPARK-54628 Odebrání všech nepotřebných explicitních argumentů super()
  • SPARK-54675 Přidání konfigurovatelného časového limitu pro vynucené ukončení vlákna údržebního fondu StateStore
  • SPARK-54639 Vyhněte se zbytečnému vytváření tabulek v serializátorech se šipkami
  • SPARK-49635 Odstranit návrh ANSI konfigurace v chybových zprávách CAST
  • SPARK-54664 Vyčištění kódu souvisejícího s listenerCache z connect.StreamingQueryManager
  • SPARK-54640 Nahradit select.select za select.poll na UNIX systému
  • SPARK-54662 Přidat viztracer a debugpy do dev/requirements.txt
  • SPARK-54632 Přidání možnosti použití Ruff pro lintování
  • SPARK-54585 Oprava vrácení zpět úložiště stavu, když je vlákno v přerušeném stavu
  • SPARK-54172 Sloučení do evoluce schématu by mělo přidávat pouze ty sloupce, které jsou odkazované.
  • SPARK-54438 Sloučení ArrowStreamAggArrowIterUDFSerializer do ArrowStreamAggArrowUDFSerializer
  • SPARK-54627 Odebrání redundantních inicializací v serializátorech
  • SPARK-54631 Přidání podpory pro profiler pro Arrow Grouped Iter Aggregate UDF
  • SPARK-54316 Znovu použít [SC-213971][CORE][PYTHON][SQL] Konsolidovat GroupPandasIterUDFSerializer s využitím GroupPandasUDFSerializer
  • SPARK-54392 Optimalizace JVM-Python komunikace pro počáteční stav TWS
  • SPARK-54617 Umožnění registrace uživatelem definovaných funkcí (UDF) pro seskupenou iterativní agregaci v SQL
  • SPARK-54544 Aktivace kontroly flake8 F811
  • SPARK-54650 Přesunutí konverze int do desetinného čísla na _create_converter_from_pandas
  • SPARK-54316 Zrušit "[SC-213971][CORE][PYTHON][SQL] Konsolidovat GroupPandasIterUDFSerializer s GroupPandasUDFSerializer"
  • SPARK-53687 Zavést WATERMARK klauzuli v příkazu SQL
  • SPARK-54316 Sloučit GroupPandasIterUDFSerializer s využitím GroupPandasUDFSerializer
  • SPARK-54598 Extrakce logiky pro čtení uživatelsky definovaných funkcí
  • SPARK-54622 Zvýšení úrovně RequiresDistributionAndOrdering a jeho požadovaných rozhraní na Evolving
  • SPARK-54624 Zajistěte, že uživatelské jméno na stránce historie je escapované.
  • SPARK-54580 Zvažte Hive 4.1 v HiveVersionSuite a HiveClientImpl.
  • SPARK-54068 Opravit to_feather pro podporu PyArrow 22.0.0
  • SPARK-54618 Zvýšit úroveň LocalScan na Stable
  • SPARK-54616 Označit SupportsPushDownVariants jako Experimental
  • SPARK-54607 Odebrání nepoužívané metody toStringHelper z AbstractFetchShuffleBlocks.java
  • SPARK-53615 Představení rozhraní API iterátoru pro seskupenou agregaci Arrow pomocí UDF
  • SPARK-54608 Vyhněte se dvojitému ukládání do mezipaměti převaděče typů v UDTF
  • SPARK-54600 Nepoužívejte pickle k ukládání a načítání modelů v pyspark.ml.connect
  • SPARK-54592 Nastavit estimatedSize jako soukromé
  • SPARK-54388 Zavést třídu StatePartitionReader, která prohledává surové bajty pro Single ColFamily
  • SPARK-54570 Správně předávat chybovou třídu v rámci nástroje Spark Connect
  • SPARK-54577 Optimalizace volání Py4J v odvození schématu
  • SPARK-54568 Vyhněte se zbytečnému převodu pomocí pandas během vytváření datového rámce z ndarray.
  • SPARK-54576 Přidání dokumentace pro nové agregační funkce založené na datasketches
  • SPARK-54574 Opětovné povolení FPGrowth při připojení
  • SPARK-54557 Učinit možnosti CSV/JSON/XmlOptions a CSV/JSON/XmlInferSchema srovnatelnými
  • SPARK-52798 Přidat funkci approx_top_k_combine
  • SPARK-54446 FPGrowth podporuje lokální souborový systém ve formátu Arrow
  • SPARK-54547 Přejmenování hostPort proměnné do hostTaskSchedulerImpl.(executorLost|logExecutorLoss) metod
  • SPARK-54558 Oprava vnitřní výjimky při použití obslužných rutin výjimek bez BEGIN/END
  • SPARK-52923 Povolit ShuffleManageru řídit push merge během registrace shuffle operace
  • SPARK-54474 Zahodit sestavu XML pro testy, které mají selhat
  • SPARK-54473 Přidání podpory čtení a zápisu Avro pro typ TIME
  • SPARK-54472 Přidání podpory čtení a zápisu ORC pro typ TIME
  • SPARK-54463 Přidání podpory serializace CSV a deserializace pro typ TIME
  • SPARK-52588 Approx_top_k: kumulujte a odhadujte
  • SPARK-54461 Přidání podpory serializace XML a deserializace pro typ TIME
  • SPARK-54451 Přidání serializace JSON a podpory deserializace pro typ TIME
  • SPARK-54537 Oprava problému ve SparkConnectDatabaseMetaData getSchemas/getTables, kde katalogy postrádají podporu oboru názvů
  • SPARK-54442 Přidání číselných převodních funkcí pro typ TIME
  • SPARK-54451 Vrátit zpět "[SC-212861][SQL] Přidání serializace JSON a podpory deserializace pro typ TIME
  • SPARK-54492 Přejmenování _LEGACY_ERROR_TEMP_1201 a přidání sqlState
  • SPARK-54531 Představení ArrowStreamAggPandasUDFSerializer
  • SPARK-54223 Přidání kontextu úlohy a datových metrik do protokolů Spouštěče Pythonu
  • SPARK-54272 Přidání aggTime pro SortAggregateExec
  • SPARK-53469 Schopnost vyčistit shuffle na serveru Thrift
  • SPARK-54219 Podpora konfigurace spark.cleaner.referenceTracking.blocking.timeout
  • SPARK-54475 Přidání hlavního serveru, branch-4.0-client, Python 3.11
  • SPARK-54451 Přidání serializace JSON a podpory deserializace pro typ TIME
  • SPARK-54285 Ukládání informací o časovém pásmu do mezipaměti, aby nedocházelo k nákladnému převodu časového razítka
  • SPARK-49133 Nastavte člena MemoryConsumer#used jako atomický, aby se zabránilo zablokování kódu uživatele
  • SPARK-46166 Implementace pandas.DataFrame.any s axis=1
  • SPARK-54532 Přidání podpory pro sqlstate pro PySparkException
  • Inicializace SPARK-54435 spark-pipelines by měla zabránit přepsání stávajícího adresáře.
  • SPARK-54247 Explicitně uzavřít socket pro util._load_from_socket

Podpora ovladačů Databricks ODBC/JDBC

Databricks podporuje ovladače ODBC/JDBC vydané v posledních 2 letech. Stáhněte si nedávno vydané ovladače a upgradujte (stáhněte rozhraní ODBC, stáhněte JDBC).

Systémové prostředí

  • Operační systém: Ubuntu 24.04.3 LTS
  • Java: Zulu21.42+19-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.1.0

Nainstalované knihovny Pythonu

Knihovna Version Knihovna Version Knihovna Version
aiohappyeyeballs 2.4.4 aiohttp 3.11.10 aiosignal 1.2.0
annotated-doc 0.0.4 anotované typy 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 arro3-core 0.6.5
šíp 1.3.0 asttokens 3.0.0 astunparse 1.6.3
async-lru 2.0.4 attrs 24.3.0 automatické příkazy 2.2.2
azure-common 1.1.28 Azure Core 1.37.0 azure-identity 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 azure-storage-blob (služba pro ukládání dat na platformě Azure) 12.28.0
Služba "Azure Storage File Data Lake" 12.22.0 babylón 2.16.0 backports.tarfile 1.2.0
BeautifulSoup4 4.12.3 černý 24.10.0 bělidlo 6.2.0
blikač 1.7.0 boto3 1.40.45 botocore 1.40.45
nástroje pro ukládání do mezipaměti 5.5.1 certifikát 2025.4.26 cffi 1.17.1
chardet 4.0.0 nástroj pro normalizaci znakové sady 3.3.2 klikni 8.1.8
cloudpickle 3.0.0 Komunikace 0.2.1 ContourPy 1.3.1
kryptografie 44.0.1 cyklista 0.11.0 Cython 3.1.5
Agenti Databricks 1.9.1 Databricks SDK 0.67.0 dataclasses-json 0.6.7
dbus-python 1.3.2 debugpy 1.8.11 dekoratér 5.1.1
defusedxml 0.7.1 deltalake 1.1.4 Deprecated 1.2.18
distlib 0.3.9 převod docstringu do formátu markdown 0.11 provedení 1.2.0
přehled aspektů 1.1.1 fastapi 0.128.0 fastjsonschema 2.21.1
zamykání souborů 3.17.0 nástroje pro písma 4.55.3 fqdn 1.5.1
frozenlist 1.5.0 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 google-auth (autentizace) 2.47.0
google-cloud-core 2.5.0 Úložiště Google Cloud 3.7.0 google-crc32c 1.8.0
google-resumable-media (pro snadné stahování/ukládání mediálních dat) 2.8.0 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 hf-xet 1.2.0
httpcore 1.0.9 httplib2 0.20.4 httpx 0.28.1
huggingface_hub 1.2.4 IDNA 3.7 importlib_metadata 8.5.0
časovat/skloňovat 7.3.1 iniconfig 1.1.1 ipyflow-core je jádrová komponenta systému ipyflow 0.0.209
ipykernel 6.29.5 ipython 8.30.0 ipython-genutils 0.2.0
ipywidgets 7.8.1 isodate 0.7.2 isodurace 20.11.0
jaraco.collections 5.1.0 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.2 Jinja2 3.1.6
chvění 0.12.0 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpatch 1.33 JSON ukazatel 3.0.0
jsonschema 4.23.0 Specifikace JSON schema 2023.7.1 jupyter události 0.12.0
jupyter-lsp 2.2.5 klient Jupyter 8.6.3 jupyter_core 5.7.2
jupyter_server 2.15.0 terminály_jupyter_server 0.5.3 jupyterlab 4.3.4
jupyterlab_pygments 0.3.0 jupyterlab_server 2.27.3 jupyterlab_widgets 1.1.11
kiwisolver 1.4.8 langchain-core 1.2.6 langchain-openai 1.1.6
langsmith 0.6.1 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 litellm 1.75.9 markdown:it-py 2.2.0
MarkupSafe 3.0.2 maršmeloun 3.26.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
špatné naladění 3.1.2 mlflow-skinny 3.8.1 mmh3 5.2.0
more-itertools 10.3.0 MSAL 1.34.0 msal-extensions 1.3.1
vícejazyčný slovník 6.1.0 mypy-extensions 1.0.0 nbclient 0.10.2
nbconvert 7.16.6 nbformat 5.10.4 nest-asyncio 1.6.0
nodeenv 1.10.0 poznámkový blok 7.3.2 notebook_shim 0.2.4
numpy (knihovna pro numerické výpočty v Pythonu) 2.1.3 oauthlib 3.2.2 openai 2.14.0
opentelemetry-api 1.39.1 opentelemetry-proto 1.39.1 opentelemetry-sdk 1.39.1
opentelemetry-sémantické-konvence 0,60b1 orjson 3.11.5 přepíše 7.4.0
balení 24,2 pandas 2.2.3 pandocfilters 1.5.0
Parso 0.8.4 specifikace cesty 0.10.3 bábovka 1.0.1
pexpect 4.8.0 polštář 11.1.0 pip 25.0.1
platformdirs 4.3.7 plotly 5.24.1 Pluggy (nástroj pro správu pluginů v Pythonu) 1.5.0
prometheus_client 0.21.1 nástroj "prompt-toolkit" 3.0.43 propcache 0.3.1
proto-plus 1.27.0 protobuf 5.29.4 psutil 5.9.0
psycopg2 2.9.11 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 21.0.0 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.71 pycparser 2.21 Pydantic (Python knihovna pro validaci a nastavení dat) 2.10.6
pydantic_core 2.27.2 pyflakes 3.2.0 Pygments 2.19.1
PyGObject 3.48.2 pyiceberg 0.10.0 PyJWT 2.10.1
pyodbc 5.2.0 pyparsing 3.2.0 pyright 1.1.394
pyroaring 1.0.3 pytest 8.3.5 python-dateutil 2.9.0.post0
python-dotenv 1.2.1 python-json-logger (Python knihovna pro logování do formátu JSON) 3.2.1 python-lsp-jsonrpc 1.1.2
python-lsp-server 1.12.2 Pytoolconfig 1.2.6 knihovna pytz pro zpracování časových zón v Pythonu 2024.1
PyYAML 6.0.2 pyzmq 26.2.0 odkazování 0.30.2
regulární výraz 2024.11.6 požadavky 2.32.3 requests-toolbelt 1.0.0
rfc3339-validator (validátor formátu RFC 3339) 0.1.4 rfc3986-validátor 0.1.1 bohatý 13.9.4
lano 1.13.0 rpds-py 0.22.3 Rsa 4.9.1
s3transfer 0.14.0 scikit-learn 1.6.1 SciPy 1.15.3
narozený v moři 0.13.2 Send2Trash 1.8.2 setuptools (nástroj pro vytváření a distribuci Python projektů) 78.1.1
shellingham 1.5.4 Šest 1.17.0 smmap 5.0.0
sniffio 1.3.0 setříděné kontejnery 2.4.0 sítko na polévku 2.5
sqlparse 0.5.5 ssh-import-id 5.11 datová hromádka 0.6.3
hvězdička 0.50.0 strictyaml 1.7.3 houževnatost 9.0.0
dokončeno 0.17.1 threadpoolctl 3.5.0 tiktoken 0.12.0
tinycss2 1.4.0 tokenize_rt 6.1.0 tokenizátory 0.22.2
tomli 2.0.1 tornádo 6.5.1 tqdm 4.67.1
drobné vlastnosti 5.14.3 typová ochrana 4.3.0 typer-slim 0.21.1
types-python-dateutil 2.9.0.20251115 inspekce psaní na klávesnici 0.9.0 rozšíření_typingu 4.12.2
tzdata 2024.1 ujson 5.10.0 bezobslužné aktualizace 0,1
uri-template 1.3.0 urllib3 2.3.0 uuid_utils 0.12.0
uvicorn 0.40.0 virtualenv 20.29.3 wadllib 1.3.6
wcwidth (šířka znaků) 0.2.5 webcolors 25.10.0 webová kódování 0.5.1
websocket-klient 1.8.0 whatthepatch 1.0.2 wheel 0.45.1
kdykoli 0.7.3 widgetsnbextension (rozšíření pro widgety v notebooku) 3.6.6 zabalený 1.17.0
yapf 0.40.2 yarlif 1.18.0 zipový uzávěr 3.21.0
zstandard 0.23.0

Nainstalované knihovny jazyka R

Knihovny R se instalují ze snímku CRAN Posit Package Manager z 2025-11-20.

Knihovna Version Knihovna Version Knihovna Version
šíp 22.0.0 žádost o heslo 1.2.1 ověřit, že 0.2.1
zpětné přenosy 1.5.0 báze 4.5.1 base64enc 0,1-3
bigD 0.3.1 bit 4.6.0 64bit 4.6.0-1
bitops 1.0-9 objekt blob 1.2.4 bootování 1.3-30
připravovat nápoje 1.0-10 elán 1.1.5 koště 1.0.10
bslib 0.9.0 kašmír 1.1.0 volající 3.7.6
caret 7.0-1 cellranger 1.1.0 cron 2.3-62
třída 7.3-22 CLI 3.6.5 Clipr 0.8.0
hodiny 0.7.3 cluster 2.1.6 codetools 0.2-20
commonmark 2.0.0 kompilátor 4.5.1 config 0.3.2
v rozporu 1.2.0 cpp11 0.5.2 pastelka 1.5.3
přihlašovací údaje 2.0.3 kroucení 7.0.0 datová tabulka 1.17.8
datové sady 4.5.1 DBI 1.2.3 dbplyr 2.5.1
Popis 1.4.3 devtools 2.4.6 schéma 1.6.5
diffobj 0.3.6 hodnota hash 0.6.39 dolní osvětlení 0.4.5
dplyr 1.1.4 dtplyr 1.3.2 e1071 1.7-16
tři tečky 0.3.2 hodnotit 1.0.5 fanoušci 1.0.7
barvy 2.1.2 Fastmap (rychlé mapování) 1.2.0 fontawesome 0.5.3
pro kočky 1.0.1 foreach 1.5.2 zahraničí 0.8–86
fs 1.6.6 budoucnost 1.68.0 budoucnost.použít 1.20.0
kloktání 1.6.0 obecné typy 0.1.4 Gert 2.2.0
ggplot2 4.0.1 Gh 1.5.0 git2r 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 globální 0.18.0
lepidlo 1.8.0 googledrive 2.1.2 googlesheets4 1.1.2
Gower 1.0.2 Grafika 4.5.1 grDevices 4.5.1
mřížka 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 gtable 0.3.6 bezpečnostní přilba 1.4.2
útočiště 2.5.5 vyšší 0.11 HMS 1.1.4
htmlové nástroje 0.5.8.1 htmlwidgets (interaktivní HTML prvky) 1.6.4 httpuv 1.6.16
httr 1.4.7 httr2 1.2.1 identifikátory 1.0.1
ini 0.3.1 ipred 0.9-15 isoband 0.2.7
Iterátory 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
šťavnatý džus 0.1.0 KernSmooth 2.23-22 knitr 1.50
značení 0.4.3 později 1.4.4 mřížka 0.22-5
láva 1.8.2 životní cyklus 1.0.4 poslouchej 0.10.0
litedown 0.8 lubridate 1.9.4 magrittr 2.0.4
Markdown 2.0 Hmotnost 7.3-60.0.1 Matice 1.6-5
zapamatujte si 2.0.1 metody 4.5.1 mgcv 1.9-1
mim 0,13 miniUI 0.1.2 mlflow 3.6.0
ModelMetrics 1.2.2.2 modelář 0.1.11 nlme 3.1-164
nnet (neuronová síť) 7.3-19 numDeriv (Numerická derivace) 2016.8 - 1.1 OpenSSL 2.3.4
otel 0.2.0 rovnoběžný 4.5.1 paralelně 1.45.1
pilíř 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
plyr 1.8.9 pochvala 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 processx 3.8.6 prodlim 2025.04.28
profvis 0.4.0 pokrok 1.2.3 progressr 0.18.0
promisy 1.5.0 proto 1.0.0 proxy 0,4-27
p.s. 1.9.1 purrr 1.2.0 R6 2.6.1
ragg 1.5.0 "randomForest" 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.1.0
RcppEigen 0.3.4.0.2 schopný reagovat 0.4.4 reactR 0.6.1
čtenář 2.1.6 readxl 1.4.5 recepty 1.3.1
odvetný zápas 2.0.0 odvetný zápas 2 2.1.2 dálková ovládání 2.5.0
reprodukovatelný příklad 2.1.1 reshape2 1.4.5 rlang 1.1.6
rmarkdown 2.30 RODBC 1.3-26 roxygen2 7.3.3
rpart 4.1.23 rprojroot 2.1.1 Rserve 1.8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
rvest 1.0.5 S7 0.2.1 Sass 0.4.10
váhy 1.4.0 selektor 0.4-2 informace o sezení 1.2.3
obrazec 1.4.6.1 lesklý 1.11.1 sourcetools 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 řídké vektory 0.3.4
prostorový 7.3-17 spline 4.5.1 sqldf 0.4-11
SQUAREM 2021.1 statistické údaje 4.5.1 Stats4 4.5.1
řetězce 1.8.7 stringr 1.6.0 přežití 3.5-8
frajerský krok 5.17.14.1 systém 3.4.3 systemfonts 1.3.1
tcltk 4.5.1 testthat (nástroj pro testování) 3.3.0 formátování textu 1.0.4
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 změna času 0.3.0 datum a čas 4051.111
tinytex 0.58 nářadí 4.5.1 tzdb 0.5.0
ověřovač URL 1.0.1 použij tohle 3.2.1 utf8 1.2.6
utils 4.5.1 Univerzální jednoznačný identifikátor (UUID) 1.2-1 V8 8.0.1
vctrs 0.6.5 viridisLite 0.4.2 vrrrm 1.6.6
Waldo 0.6.2 hmatový chlup 0.4.1 (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) 3.0.2
xfun 0.54 xml2 1.5.0 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.2.0
soubor ZIP 2.3.3

Nainstalované knihovny Java a Scala (verze clusteru Scala 2.13)

ID skupiny Identifikátor artefaktu Version
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client (klient Amazon Kinesis) 1.15.3
com.amazonaws aws-java-sdk Automatické škálování 1.12.681
com.amazonaws aws-java-sdk-cloudformation 1.12.681
com.amazonaws aws-java-sdk-cloudfront 1.12.681
com.amazonaws aws-java-sdk-cloudhsm 1.12.681
com.amazonaws „aws-java-sdk-cloudsearch“ 1.12.681
com.amazonaws aws-java-sdk-cloudtrail 1.12.681
com.amazonaws aws-java-sdk-cloudwatch 1.12.681
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.681
com.amazonaws aws-java-sdk-codedeploy (Balíček AWS SDK pro Java - CodeDeploy) 1.12.681
com.amazonaws aws-java-sdk-cognitoidentity 1.12.681
com.amazonaws aws-java-sdk-cognitosync 1.12.681
com.amazonaws aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) 1.12.681
com.amazonaws aws-java-sdk-core 1.12.681
com.amazonaws aws-java-sdk-datapipeline 1.12.681
com.amazonaws aws-java-sdk-directconnect 1.12.681
com.amazonaws aws-java-sdk-directory 1.12.681
com.amazonaws aws-java-sdk-dynamodb 1.12.681
com.amazonaws aws-java-sdk-ec2 1.12.681
com.amazonaws aws-java-sdk-ecs 1.12.681
com.amazonaws aws-java-sdk-efs 1.12.681
com.amazonaws aws-java-sdk-elasticache 1.12.681
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.681
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.681
com.amazonaws aws-java-sdk-elastictranscoder 1.12.681
com.amazonaws aws-java-sdk-emr 1.12.681
com.amazonaws aws-java-sdk-glacier (AWS Java SDK pro Glacier) 1.12.681
com.amazonaws aws-java-sdk-glue (balíček pro vývoj softwaru v Java od AWS, určený pro Glue služby) 1.12.681
com.amazonaws aws-java-sdk-iam 1.12.681
com.amazonaws aws-java-sdk-importexport 1.12.681
com.amazonaws aws-java-sdk-kinesis 1.12.681
com.amazonaws aws-java-sdk-kms 1.12.681
com.amazonaws aws-java-sdk-lambda 1.12.681
com.amazonaws aws-java-sdk-logs 1.12.681
com.amazonaws aws-java-sdk-strojové učení 1.12.681
com.amazonaws aws-java-sdk-opsworks 1.12.681
com.amazonaws aws-java-sdk-rds 1.12.681
com.amazonaws aws-java-sdk-redshift 1.12.681
com.amazonaws aws-java-sdk-route53 1.12.681
com.amazonaws aws-java-sdk-s3 1.12.681
com.amazonaws aws-java-sdk-ses 1.12.681
com.amazonaws aws-java-sdk-simpledb 1.12.681
com.amazonaws aws-java-sdk-simpleworkflow 1.12.681
com.amazonaws aws-java-sdk-sns 1.12.681
com.amazonaws aws-java-sdk-sqs 1.12.681
com.amazonaws aws-java-sdk-ssm 1.12.681
com.amazonaws aws-java-sdk-storagegateway (balíček nástrojů pro přístup k AWS Storage Gateway) 1.12.681
com.amazonaws aws-java-sdk-sts 1.12.681
com.amazonaws podpora AWS Java SDK 1.12.681
com.amazonaws aws-java-sdk-workspaces 1.12.681
com.amazonaws jmespath-java 1.12.681
com.clearspring.analytics datový proud 2.9.8
com.databricks Rserve 1.8-3
com.databricks Databricks SDK pro Java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware technologie kryo-stínění 4.0.3
com.esotericsoftware Minlog 1.3.0
com.fasterxml spolužák 1.5.1
com.fasterxml.jackson.core jackson-annotations (poznámky Jackson) 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core Jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.kofein kofein 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib Nativní odkaz pro Javu 1.1
com.github.fommil.netlib Nativní odkaz pro Javu Verze 1.1 pro místní uživatele
com.github.fommil.netlib nativní_systém-java 1.1
com.github.fommil.netlib nativní_systém-java Verze 1.1 pro místní uživatele
com.github.fommil.netlib netlib-native_ref-linux-x86_64 Verze 1.1 pro místní uživatele
com.github.fommil.netlib netlib-nativní_systém-linux-x86_64 Verze 1.1 pro místní uživatele
com.github.luben zstd-jni 1.5.7-6
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.auth google-auth-library-credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value automatické poznámky k hodnotám 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.11.0
com.google.crypto.tink Tink 1.16.0
com.google.errorprone poznámky_náchylné_k_chybám 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava neúspěšný přístup 1.0.3
com.google.guava guave 33.4.8-jre
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) 2.3.10
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre11
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (komprimační algoritmus LZF) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer Paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers (nástroj pro analýzu dat) 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec commons-codec 1.19.0
společné sbírky společné sbírky 3.2.2
commons-dbcp commons-dbcp 1.4
Nahrávání souborů v Commons Nahrávání souborů v Commons 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
commons-logging (nástroj pro záznamy) commons-logging (nástroj pro záznamy) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.4
dev.ludovic.netlib Blas 3.0.4
dev.ludovic.netlib LAPACK 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift vzduchový kompresor 2.0.2
io.delta delta-sharing-client_2.13 1.3.9
io.dropwizard.metrics anotace metrik 4.2.37
io.dropwizard.metrics jádro metrik 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics metriky – kontroly stavu 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics Metrics-JMX 4.2.37
io.dropwizard.metrics Metriky-json 4.2.37
io.dropwizard.metrics metriky pro JVM 4.2.37
io.dropwizard.metrics metrikové servlety 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7.Final
io.netty netty-buffer 4.2.7.Final
io.netty netty-codec 4.2.7.Final
io.netty netty-codec-base 4.2.7.Final
io.netty netty-codec-classes-quic 4.2.7.Final
io.netty netty-codec-compression 4.2.7.Final
io.netty netty-kodek-http 4.2.7.Final
io.netty netty-codec-http2 4.2.7.Final
io.netty netty-codec-http3 4.2.7.Final
io.netty netty-codec-marshalling 4.2.7.Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7.Final
io.netty netty-codec-socks 4.2.7.Final
io.netty netty-common 4.2.7.Final
io.netty netty-handler 4.2.7.Final
io.netty Netty-handler-proxy 4.2.7.Final
io.netty netty-resolver 4.2.7.Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes (softwarová knihovna) 2.0.74.Final
io.netty netty-transport 4.2.7.Final
io.netty netty-transport-classes-epoll 4.2.7.Final
io.netty netty-transport-classes-io_uring 4.2.7.Final
io.netty netty-transport-classes-kqueue 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.2.7.Final
io.opencensus opencensus-api 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleklient_obecný 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_sledovatel_společný 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx kolektor 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktivace 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API pro transakce 1.1
javax.xml.bind jaxb-api 2.2.11
Javolution Javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine nakládačka 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
síť.sněhová vločka snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr StringTemplate 3.2.1
org.apache.ant mravenec 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant Ant launcher 1.10.11
org.apache.arrow komprese šipkou 18.3.0
org.apache.arrow šipkový formát 18.3.0
org.apache.arrow jádro šipkové paměti 18.3.0
org.apache.arrow šipka-paměť-netty 18.3.0
org.apache.arrow arrow-memory-netty-buffer-záplata 18.3.0
org.apache.arrow šipkový vektor 18.3.0
org.apache.avro Avro 1.12.1
org.apache.avro avro-ipc 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons commons-collections4 4.5.0
org.apache.commons commons-compress (softwarová knihovna pro kompresi dat) 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons Commons-text (textové nástroje) 1.14.0
org.apache.kurátor kurátor-klient 5.9.0
org.apache.kurátor kurátorský rámec 5.9.0
org.apache.kurátor kurátorovy recepty 5.9.0
org.apache.datasketches datasketches-java 6.2.0
org.apache.datasketches datasketches-paměť 3.0.2
org.apache.derby fotbalové derby 10.14.2.0
org.apache.hadoop běhové prostředí klienta Hadoop 3.4.2
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc (JDBC ovladač pro Apache Hive) 2.3.10
org.apache.hive hive-llap-client (klient pro Apache Hive s možností LLAP) 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive Hive-shims 2.3.10
org.apache.hive rozhraní pro úložiště Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims plánovač hive-shims 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy břečťan 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j šablona rozložení log4j ve formátu JSON 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-shaded-protobuf
org.apache.orc Formát ORC 1.1.1-shaded-protobuf
org.apache.orc orc-mapreduce 2.2.0-shaded-protobuf
org.apache.orc orčí podložky 2.2.0
org.apache.poi Poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus poznámky pro publikum 0.13.0
org.apache.zookeeper ošetřovatel zvířat v zoo 3.9.4
org.apache.zookeeper zookeeper-jute 3.9.4
org.checkerframework checker-qual 3.43.0
org.codehaus.janino společný kompilátor 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms (framework pro práci s relačními databázemi) 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty jetty-client 10.0.26
org.eclipse.jetty jetty-http 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty Jetty-plus 10.0.26
org.eclipse.jetty proxy pro službu Jetty 10.0.26
org.eclipse.jetty bezpečnost Jetty 10.0.26
org.eclipse.jetty jetty-server 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty jetty-util 10.0.26
org.eclipse.jetty Jetty-webová aplikace 10.0.26
org.eclipse.jetty jetty-xml 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-lokátor 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 OSGi vyhledávač zdrojů 1.0.3
org.glassfish.hk2.external aopalliance-přebaleno 2.6.1
org.glassfish.hk2.external jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) 2.41
org.glassfish.jersey.containers jersey-container-servlet-jádro 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core společný dres 2.41
org.glassfish.jersey.core Jersey-server (aplikační server frameworku Jersey) 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator Hibernate Validator 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist Javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.locationtech.jts jts-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.22.1
org.objenesis objenesis 3.4
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt testovací rozhraní 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest kompatibilní s scalatestem 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Finální
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1