Poznámka:
Přístup k této stránce vyžaduje autorizaci. Můžete se zkusit přihlásit nebo změnit adresáře.
Přístup k této stránce vyžaduje autorizaci. Můžete zkusit změnit adresáře.
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Konec podpory a historie ukončení životnosti. Pro všechny podporované verze Databricks Runtime vizte poznámky k vydání Databricks Runtime - verze a kompatibilita.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 12.2 LTS, který využívá Apache Spark 3.3.2.
Tato verze zahrnuje všechny funkce, vylepšení a opravy chyb ze všech předchozích verzí Databricks Runtime. Databricks vydala tuto verzi v březnu 2023.
Změny chování
[Zásadní změna] Nová verze Pythonu vyžaduje aktualizaci klientů Databricks Connect V1 Python.
Poznámka:
Následující aktualizace přesune verzi Pythonu v Databricks Runtime 12.2 LTS na verzi 3.9.21. Verze 3.9.21 nezavádí žádné změny chování.
Pokud chcete použít požadované opravy zabezpečení, upgraduje se verze Pythonu v Databricks Runtime 12.2 LTS z verze 3.9.5 na verzi 3.9.19. Vzhledem k tomu, že tyto změny můžou způsobit chyby v klientech, kteří používají konkrétní funkce PySpark, musí být všechny klienty používající Databricks Connect V1 pro Python s Modulem Databricks Runtime 12.2 LTS aktualizovány na Python 3.9.7 nebo novější.
Nové funkce a vylepšení
- Python upgradovaný z verze 3.9.19 na verzi 3.9.21
- vývoj schématu Delta Lake podporuje zadávání zdrojových sloupců v příkazech sloučení
- Úlohy strukturovaného streamování se podporují v clusterech s režimem sdíleného přístupu.
- Nové funkce prediktivních vstupně-výstupních operací
- podpora implicitního laterálního aliasování sloupců
- Nová funkce forEachBatch
- Standardizované možnosti připojení pro federaci dotazů
- Rozšířená knihovna funkcí SQL pro správu polí
- Nová funkce masky pro anonymizaci řetězců
- Běžné chybové stavy nyní vrací SQLSTATE.
- Vyvolání funkcí generátoru v klauzuli FROM
- Podpora pro protocol buffers je obecně dostupná
- Přechod k definici proměnných a funkcí poznámkového bloku
- Rychlá oprava notebooku pro automatický import knihoven
- Opravy chyb
Python upgradovaný z verze 3.9.19 na verzi 3.9.21
Verze Pythonu v Databricks Runtime 12.2 LTS se aktualizuje z verze 3.9.19 na 3.9.21.
Vývoj schématu Delta Lake podporuje zadávání zdrojových sloupců v příkazech sloučení.
Nyní můžete zadat sloupce, které jsou přítomné pouze ve zdrojové tabulce, a to v akcích vložení nebo aktualizace pro příkazy sloučení, pokud je povolen vývoj schématu. V Databricks Runtime 12.1 a níže je možné použít pouze INSERT * nebo UPDATE SET * akce pro vývoj schématu při sloučení. Viz Automatický vývoj schématu pro sloučení.
Úlohy strukturovaného streamování se podporují v clusterech s režimem sdíleného přístupu.
Strukturované streamování teď můžete použít k interakci s katalogem Unity na výpočetních prostředcích se standardním režimem přístupu. Platí některá omezení. Podívejte se na Jaké funkce strukturovaného streamování podporuje katalog Unity?.
Nové funkce prediktivních vstupně-výstupních operací
Podpora Photon pro jímku Foreachbatch je nyní k dispozici. Úlohy, které streamují ze zdroje a sloučí do tabulek Delta nebo zapisují do několika jímek, teď můžou těžit z fotonizované Foreachbatch jímky.
Podpora implicitního laterálního aliasingu sloupců
Azure Databricks teď ve výchozím nastavení podporuje implicitní laterální aliasy sloupců. Teď můžete použít výraz zadaný dříve ve stejném seznamu SELECT. Například SELECT 1 AS a, a + 1 AS b lze a v a + 1 vyřešit jako dříve definované 1 AS a. Prozkoumejte překlad jmen pro více podrobností v pořadí vyřešení.
Pokud chcete tuto funkci vypnout, můžete nastavit spark.sql.lateralColumnAlias.enableImplicitResolution na false.
Nová funkce forEachBatch
Photon je nyní podporován při zápisu pomocí foreachBatch do datového úložiště.
Standardizované možnosti připojení pro sjednocení dotazů
Teď můžete použít jednotnou sadu možností (hostitel, port, databáze, uživatel, heslo) pro připojení ke zdrojům dat podporovaným ve federaci dotazů.
Port je volitelné a používá výchozí číslo portu pro každý zdroj dat, pokud není zadáno.
Rozšířená knihovna funkcí SQL pro správu polí
Nyní můžete odebrat všechny prvky NULL z pole pomocí array_compact. Pokud chcete k poli připojit prvky, použijte array_append.
Nová funkce masky pro anonymizaci řetězců
Vyvolání funkce masky k anonymizaci citlivých řetězcových hodnot.
Běžné chybové stavy nyní vrací SQLSTATEs.
Většina chybových podmínek, které Databricks Runtime nyní obsahuje, má zdokumentované hodnoty SQLSTATE, jež lze použít k testování chyb způsobem, který je v souladu se standardem SQL.
Vyvolání funkcí generátoru v klauzuli FROM
Nyní můžete použít generátorové funkce vracející tabulkové hodnoty, jako je explode, v běžném použití v klauzuli FROM dotazu. Tím se zarovná vyvolání funkce generátoru s jinými integrovanými a uživatelem definovanými funkcemi tabulky.
Podpora Protocol Buffers je obecně dostupná
Pomocí funkcí from_protobuf a to_protobuf můžete vyměňovat data mezi binárními typy a strukturami. Viz Protokolové buffery pro čtení a zápis.
Přechod k definici proměnných a funkcí poznámkového bloku
V poznámkových blocích můžete rychle přejít k definici proměnné, funkce nebo kódu za %run výrokem kliknutím pravým tlačítkem na název proměnné nebo funkce.
Rychlá oprava poznámkového bloku pro knihovny automatického importu
Poznámkové bloky Databricks nyní nabízejí funkci rychlé opravy pro automatický import knihoven. Pokud zapomenete importovat knihovnu, jako je pandas, najeďte myší na upozornění na podtrženou syntaxi a potom klikněte na Rychlá oprava, tyto funkce vyžadují, aby byl v pracovním prostoru povolený Pomocník pro Databricks.
Opravy chyb
- Vylepšili jsme konzistenci chování potvrzení Delta pro prázdné transakce týkající se příkazů
update,delete, amerge. NaWriteSerializableúrovni izolace příkazy, které nemají žádné změny, teď vytvoří prázdný commit.SerializableNa úrovni izolace teď takové prázdné transakce nevytvoří potvrzení.
Změny chování
Změny chování s novou funkcí aliasu laterálního sloupce
Nová funkce aliasu bočního sloupce zavádí změny chování v následujících případech během řešení názvů.
- Alias laterálního sloupce teď má přednost před korelovanými odkazy se stejným názvem. Například pro tento dotaz
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1),c1ve vnitřníc1 AS c2byl vyřešen na korelovaný odkazt.c1, ale nyní se změní na lateral column alias1 AS c1. Dotaz nyní vrátíNULL. - Alias laterálního sloupce teď má přednost před parametry funkce se stejným názvem. Například pro funkci
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, xsexv těle funkce přeložil na parametr funkce x, ale ve funkci došlo ke změnám týkajícím se aliasu laterálního sloupcex + 1v těle funkce. DotazSELECT * FROM func(1)nyní vrátí2, 2. - Pokud chcete funkci aliasu laterálního sloupce vypnout, nastavte
spark.sql.lateralColumnAlias.enableImplicitResolutionnafalse. Další informace najdete v tématu Rozlišení názvů.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- filelock od 3.8.2 do 3.9.0
- joblib od 1.1.0 do 1.1.1
- platformdirs z verze 2.6.0 na verzi 2.6.2
- whatthepatch z 1.0.3 na 1.0.4
- Upgradované knihovny jazyka R:
- třída od 7.3-20 do 7.3-21
- codetools verze od 0.2-18 do 0.2-19
- HMOTNOST od 7.3-58 do 7.3-58.2
- nlme od 3.1-160 do 3.1-162
- Rserve od 1.8-11 do 1.8-12
- SparkR od 3.3.1 do 3.3.2
Změny chování
- Uživatelé teď musí mít při vytváření schématu s definovaným umístěním oprávnění k
SELECTaMODIFYk libovolnému souboru.
Apache Spark
Databricks Runtime 12.2 zahrnuje Apache Spark 3.3.2. Tato verze zahrnuje všechny opravy a vylepšení Sparku zahrnuté v předchozí verzi a také následující:
- [SPARK-42416] [SC-123205][sc-122851][SQL] Operace datové sady by neměly znovu vyřešit analyzovaný logický plán.
- [SPARK-41848] Revert "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][core] Oprava nadplánování úkolu pomocí TaskResourceProfile"
- [SPARK-42162] [SC-122711][es-556261] Zavedení výrazu MultiCommutativeOp jako optimalizace paměti pro kanonizaci velkých stromů komutativních výrazů
- [SPARK-42406] [SC-122998][protobuf][Cherry-pick] Oprava rekurzivního nastavení hloubky pro funkce Protobuf
- [SPARK-42002] [SC-122476][connect][PYTHON] Implementace třídy DataFrameWriterV2
- [SPARK-41716] [SC-122545][connect] Přejmenujte _catalog_to_pandas na _execute_and_fetch v Katalogu
- [SPARK-41490] [SC-121774][sql] Přiřaďte jméno _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][spark-41623][SPARK-41612][connect] Zrealizovat Catalog.cacheTable, isCached a zrušení cache
- [SPARK-42191] [SC-121990][sql] Podpora udf 'luhn_check'
- [SPARK-42253] [SC-121976][python] Přidání testu pro detekci duplicitní třídy chyb
- [SPARK-42268] [SC-122251][connect][PYTHON] Přidat UserDefinedType v Protos
-
[SPARK-42231] [SC-121841][sql] Převod
MISSING_STATIC_PARTITION_COLUMNnainternalError - [SPARK-42136] [SC-122554] Změna struktury výpočtu rozdělení výstupu BroadcastHashJoinExec
-
[SPARK-42158] [SC-121610][sql] Integrace
_LEGACY_ERROR_TEMP_1003doFIELD_NOT_FOUND - [SPARK-42192] [12.x][sc-121820][PYTHON] Migrace chyby type z pyspark/sql/dataframe.py do PySparkTypeError
- [SPARK-35240] Vrátit “[SC-118242][ss] Použít CheckpointFileManager ...
- [SPARK-41488] [SC-121858][sql] Přiřadit název _LEGACY_ERROR_TEMP_1176 (a 1177)
-
[SPARK-42232] [SC-122267][sql] Přejmenovat třídu chyb:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION - [SPARK-42346] [SC-122480][sql] Přepsat jedinečné agregace po sloučení poddotazů
-
[SPARK-42306] [SC-122539][sql] Integrace
_LEGACY_ERROR_TEMP_1317doUNRESOLVED_COLUMN.WITH_SUGGESTION -
[SPARK-42234] [SC-122354][sql] Přejmenování třídy chyby:
UNSUPPORTED_FEATURE.REPEATED_PIVOT -
[SPARK-42343] [SC-122437][core] Ignorujte
IOExceptionvhandleBlockRemovalFailure, pokud je SparkContext zastavený. - [SPARK-41295] [SC-122442][spark-41296][SQL] Přejmenování tříd chyb
- [SPARK-42320] [SC-122478][sql] Přiřadit název _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][connect] SparkConnectClient nyní podporuje RetryPolicies
- [SPARK-38728] [SC-116723][sql] Otestujte třídu chyb: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Samostatné příklady v PySparku
- [SPARK-39347] [SC-122457][ss] Oprava chyby výpočtu časového okna, když je čas události < 0
-
[SPARK-42336] [SC-122458][core] Místo
getOrElse()v ResourceAllocatoru použijtecontains(). - [SPARK-42125] [SC-121827][connect][PYTHON] Pandas UDF v nástroji Spark Connect
- [SPARK-42217] [SC-122263][sql] Podpora implicitního laterálního aliasu sloupců v dotazech s Oknem
- [SPARK-35240] [SC-118242][ss] Použijte CheckpointFileManager pro manipulaci s kontrolními soubory kontrolního bodu
- [SPARK-42294] [SC-122337][sql] Zahrnout výchozí hodnoty sloupců ve výstupu DESCRIBE pro tabulky V2
- [SPARK-41979] Vrátit změnu „Vrátit zpět „[12.x][sc-121190][SQL] Přidat chybějící tečky pro chybové zprávy ve třídách chyb.““
- [SPARK-42286] [SC-122336][sql] Záložní cesta k předchozímu kódu codegen pro komplexní výraz s CAST
- [SPARK-42275] [SC-122249][connect][PYTHON] Vyhněte se použití vestavěného seznamu, slovníku ve statickém typování
- [SPARK-41985] [SC-122172][sql] Centralizace dalších pravidel pro rozlišení sloupců
- [SPARK-42126] [SC-122330][python][CONNECT] Přijímání návratového typu v řetězcích DDL pro skalární UDF funkce v Pythonu ve Spark Connect.
- [SPARK-42197] [SC-122328][sc-121514][CONNECT] Znovu použije inicializaci JVM a samostatné skupiny konfigurace, které se nastaví ve vzdáleném místním režimu.
- [SPARK-41575] [SC-120118][sql] Přiřadit název _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Zrušit “[SC-122172][sql] Centralizovat další pravidla překladu sloupců”
- [SPARK-42123] [SC-122234][sc-121453][SQL] Zahrnout výchozí hodnoty sloupců ve výstupu DESCRIBE a SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][sql] Centralizace dalších pravidel pro rozlišení sloupců
- [SPARK-42284] [SC-122233][connect] Před spuštěním testů klienta se ujistěte, že server pro připojení je sestaven.
-
[SPARK-42239] [SC-121790][sql] Integrace
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY -
[SPARK-42278] [SC-122170][sql] Pushdown DS V2 podporuje podporu dialektů JDBC kompilovaných
SortOrdersamy - [SPARK-42259] [SC-122168][sql] ResolveGroupingAnalytics by se měly postarat o Python UDAF
- [SPARK-41979] Vrátit zpět "[12.x][sc-121190][SQL] Přidat chybějící tečky pro chybové zprávy ve třídách chyb."
- [SPARK-42224] [12.x][sc-121708][CONNECT] Migrace typeError do chybové architektury pro funkce Spark Connect
- [SPARK-41712] [12.x][sc-121189][PYTHON][connect] Migrujte chyby Spark Connect do architektury chyb PySpark.
- [SPARK-42119] [SC-121913][sc-121342][SQL] Přidat integrované tabulkou hodnotové funkce inline a inline_outer
- [SPARK-41489] [SC-121713][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][sc-121163][SPARK-41598][python][CONNECT] Představuje chybu PySparkValueError a PySparkTypeError
- [SPARK-42081] [SC-121723][sql] Vylepšení ověřování změn plánu
- [SPARK-42225] [12.x][sc-121714][CONNECT] Přidejte SparkConnectIllegalArgumentException ke zpracování chyby Spark Connect přesněji.
-
[SPARK-42044] [12.x][sc-121280][SQL] Oprava nesprávné chybové zprávy pro
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY - [SPARK-42194] [12.x][sc-121712][PS] Povolit parametr sloupců při vytváření datového rámce se řadou.
- [SPARK-42078] [12.x][sc-120761][PYTHON] Migrovat chyby vyvolané JVM do PySparkException.
- [SPARK-42133] [12.x][sc-121250] Přidání základních metod rozhraní API datové sady do klienta SparkConnect Scala
- [SPARK-41979] [12.x][sc-121190][SQL] Přidejte chybějící tečky pro chybové zprávy ve třídách chyb.
- [SPARK-42124] [12.x][sc-121420][PYTHON][connect] Skalární Inline Python UDF v Spark Connect
- [SPARK-42051] [SC-121994][sql] Podpora codegenu pro HiveGenericUDF
- [SPARK-42257] [SC-121948][core] Odebrání nepoužívané proměnné externího řazení
- [SPARK-41735] [SC-121771][sql] Pro SparkListenerSQLExecutionEnd použijte MINIMÁLNÍ místo STANDARD.
-
[SPARK-42236] [SC-121882][sql] Upřesnit
NULLABLE_ARRAY_OR_MAP_ELEMENT -
[SPARK-42233] [SC-121775][sql] Zlepšení chybové zprávy pro
PIVOT_AFTER_GROUP_BY -
[SPARK-42229] [SC-121856][core] Migrace
SparkCoreErrorsdo tříd chyb - [SPARK-42163] [SC-121839][sql] Oprava vyřazování schématu pro neskládaný index pole nebo mapový klíč
- [SPARK-40711] [SC-119990][sql] Přidání metrik velikosti přelití pro okno
-
[SPARK-42023] [SC-121847][spark-42024][CONNECT][python] Umožnit
createDataFrameAtomicType -> StringTypepřevod - [SPARK-42202] [SC-121837][connect][Test] Vylepšení logiky zastavení testovacího serveru E2E
- [SPARK-41167] [SC-117425][sql] Zlepšení výkonu operátoru LIKE s více podmínkami vytvořením vyváženého predikátu výrazového stromu
- [SPARK-41931] [SC-121618][sql] Lepší chybová zpráva pro neúplnou definici komplexního typu
- [SPARK-36124] [SC-121339][sc-110446][SQL] Podpora poddotazů s korelací prostřednictvím UNION
- [SPARK-42090] [SC-121290][3.3] Zavedení počtu opakování pro SASL v RetryingBlockTransferoru.
-
[SPARK-42157] [SC-121264][core]
spark.scheduler.mode=FAIRby měl poskytovat plánovač FAIR - [SPARK-41572] [SC-120772][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2149
-
[SPARK-41983] [SC-121224][sql] Přejmenování & zlepšení chybové zprávy pro
NULL_COMPARISON_RESULT -
[SPARK-41976] [SC-121024][sql] Zlepšení chybové zprávy pro
INDEX_NOT_FOUND - [SPARK-41994] [SC-121210][sc-120573] Přiřazování SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Opakování požadavků SASL
- [SPARK-38591] [SC-121018][sql] Přidání flatMapSortedGroups a cogroupSorted
-
[SPARK-41975] [SC-120767][sql] Zlepšení chybové zprávy pro
INDEX_ALREADY_EXISTS - [SPARK-42056] [SC-121158][sql][PROTOBUF] Přidání chybějících možností pro funkce Protobuf
-
[SPARK-41984] [SC-120769][sql] Přejmenování & zlepšení chybové zprávy pro
RESET_PERMISSION_TO_ORIGINAL - [SPARK-41948] [SC-121196][sql] Oprava NPE pro třídy chyb: CANNOT_PARSE_JSON_FIELD
-
[SPARK-41772] [SC-121176][connect][PYTHON] Oprava nesprávného názvu sloupce v
withFieldsouboru doctest -
[SPARK-41283] [SC-121175][connect][PYTHON] Přidání
array_appendk připojení - [SPARK-41960] [SC-120773][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][sql] Oprava getPartitionFiltersAndDataFilters() pro zpracování filtrů bez odkazovaných atributů
-
[SPARK-42096] [SC-121012][connect] Vyčištění kódu pro modul
connect -
[SPARK-42099] [SC-121114][spark-41845][CONNECT][python] Oprava
count(*)acount(col(*)) - [SPARK-42045] [SC-120958][sc-120450][SQL] V režimu ANSI SQL by měly funkce Round/Bround vrátit chybu při přetečení celého čísla.
- [SPARK-42043] [SC-120968][connect] Výsledek klienta Scala s testy E2E
- [SPARK-41884] [SC-121022][connect] Podpora naivní n-tice jako vnořená struktura
-
[SPARK-42112] [SC-121011][sql][SS] Přidání kontroly null před ukončením funkce
ContinuousWriteRDD#computedataWriter - [SPARK-42077] [SC-120553][connect][PYTHON] Literál by měl vyvolat chybu TypeError pro nepodporovaný datový typ
-
[SPARK-42108] [SC-120898][sql] Transformace Analyzátoru
Count(*)naCount(1) -
[SPARK-41666] [SC-120928][sc-119009][PYTHON] Poskytování podpory pro parametrizované SQL
sql() - [SPARK-40599] [SC-120930][sql] Uvolnit typ pravidla multiTransform, aby alternativy mohly být jakýmkoli druhem Seq.
-
[SPARK-41574] [SC-120771][sql] Aktualizace
_LEGACY_ERROR_TEMP_2009jakoINTERNAL_ERROR. - [SPARK-41579] [SC-120770][sql] Přiřadit název _LEGACY_ERROR_TEMP_1249
-
[SPARK-41974] [SC-120766][sql] Převod
INCORRECT_END_OFFSETnaINTERNAL_ERROR - [SPARK-41530] [SC-120916][sc-118513][CORE] Přejmenování MedianHeap na PercentileMap a podpora percentilu
- [SPARK-41757] [SC-120608][spark-41901][CONNECT] Oprava reprezentace řetězců pro třídu sloupců
- [SPARK-42084] [SC-120775][sql] Vyhněte se úniku omezení jen pro kvalifikovaný přístup
- [SPARK-41973] [SC-120765][sql] Přiřaďte název _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][sql] SPJ: Odstranit možnost v KeyGroupedPartitioning#partitionValuesOpt
-
[SPARK-42079] [SC-120712][connect][PYTHON] Přejmenování zpráv proto pro
toDFawithColumnsRenamed - [SPARK-42089] [SC-120605][connect][PYTHON] Oprava problémů s názvy proměnných ve vnořených funkcích lambda
- [SPARK-41982] [SC-120604][sql] Oddíly typu řetězce by neměly být považovány za číselné typy.
- [SPARK-40599] [SC-120620][sql] Přidání metod multiTransform do TreeNode pro generování alternativ
-
[SPARK-42085] [SC-120556][connect][PYTHON] Umožnit
from_arrow_schemapodporovat vnořené typy - [SPARK-42057] [SC-120507][sql][PROTOBUF] Oprava způsobu zpracování výjimky ve generování zpráv o chybách.
-
[SPARK-41586] [12.x][všechny testy][SC-120544][python] Představuje
pyspark.errorsa třídy chyb pro PySpark. -
[SPARK-41903] [SC-120543][connect][PYTHON
Literal] by měl podporovat 1-dim ndarray -
[SPARK-42021] [SC-120584][connect][PYTHON] Vytvořit podporu
createDataFrameproarray.array - [SPARK-41896] [SC-120506][sql] Filtrování podle indexu řádků vrátí prázdné výsledky.
- [SPARK-41162] [SC-119742][sql] Oprava anti- a semijoinu pro samo spojení s agregacemi
- [SPARK-41961] [SC-120501][sql] Podpora tabulkových funkcí s LATERAL
- [SPARK-41752] [SC-120550][sql][UI] Seskupit vnořené spouštění pod kořenovým spuštěním
- [SPARK-42047] [SC-120586][spark-41900][CONNECT][python][12.X] Literál by měl podporovat datové typy Numpy
- [SPARK-42028] [SC-120344][connect][PYTHON] Zkrácení časových razítek nanosekund
- [SPARK-42011] [SC-120534][connect][PYTHON] Implementace DataFrameReader.csv
-
[SPARK-41990] [SC-120532][sql] Použijte
FieldReference.columnmístoapplyv převodu filtru V1 na V2. - [SPARK-39217] [SC-120446][sql] Umožňuje DPP podporovat prořezávání na straně sjednocení
-
[SPARK-42076] [SC-120551][connect][PYTHON] Převod
arrow -> rowsdat faktoru naconversion.py -
[SPARK-42074] [SC-120540][sql] Povolení
KryoSerializervTPCDSQueryBenchmarkk vynucení registrace třídy SQL - [SPARK-42012] [SC-120517][připojení][PYTHON] Implementace DataFrameReader.orc
-
[SPARK-41832] [SC-120513][connect][PYTHON] Oprava
DataFrame.unionByName, přidání možnosti allow_missing_columns -
[SPARK-38651] [SC-120514] [SQL] Přidat
spark.sql.legacy.allowEmptySchemaWrite -
[SPARK-41991] [SC-120406][sql]
CheckOverflowInTableInsertby měl přijmout ExpressionProxy jako potomek - [SPARK-41232] [SC-120073][sql][PYTHON] Přidání funkce array_append
- [SPARK-42041] [SC-120512][spark-42013][CONNECT][python] DataFrameReader by měl podporovat seznam cest.
-
[SPARK-42071] [SC-120533][core] Registrace
scala.math.Ordering$Reversedo KryoSerializeru - [SPARK-41986] [SC-120429][sql] Zavedení náhodného prohazování u singlePartition
- [SPARK-42016] [SC-120428][connect][PYTHON] Povolit testy související s vnořeným sloupcem
-
[SPARK-42042] [SC-120427][connect][PYTHON]
DataFrameReaderby měl podporovat schéma StructType. -
[SPARK-42031] [SC-120389][core][SQL] Vyčištění
removemetod, které není třeba přepsat -
[SPARK-41746] [SC-120463][spark-41838][SPARK-41837][spark-41835][SPARK-41836][spark-41847][CONNECT][python] Umožnit, aby
createDataFrame(rows/lists/tuples/dicts)podporoval vnořené typy - [SPARK-41437] [SC-117601][SQL][VŠECHNY TESTY] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1
-
[SPARK-41840] [SC-119719][connect][PYTHON] Přidání chybějícího aliasu
groupby - [SPARK-41846] [SC-119717][connect][PYTHON] Povolení doctestů pro okenní funkce
- [SPARK-41914] [SC-120094][sql] FileFormatWriter materializuje plán AQE před přístupem k outputOrdering.
- [SPARK-41805] [SC-119992][sql] Opakované použití výrazů v WindowSpecDefinition
- [SPARK-41977] [SC-120269][spark-41978][CONNECT] SparkSession.range by měl přijímat jako argumenty hodnoty typu float.
-
[SPARK-42029] [SC-120336][connect] Přidat pravidla shadingu Guava do
connect-commonk zabránění selhání spuštění - [SPARK-41989] [SC-120334][python] Vyhněte se narušení konfigurace logování způsobené modulem pyspark.pandas
- [SPARK-42003] [SC-120331][sql] Omezení duplicitního kódu v ResolveGroupByAll
- [SPARK-41635] [SC-120313][sql] Oprava skupiny podle všech zpráv o chybách
- [SPARK-41047] [SC-120291][sql] Vylepšení dokumentace pro zaokrouhlování
- [SPARK-41822] [SC-120122][connect] Nastavení připojení gRPC pro klienta Scala/JVM
-
[SPARK-41879] [SC-120264][connect][PYTHON] Umožnit
DataFrame.collectpodporu vnořených typů -
[SPARK-41887] [SC-120268][connect][PYTHON] Upravit
DataFrame.hint, aby přijal parametr typu seznam - [SPARK-41964] [SC-120210][connect][PYTHON] Přidání seznamu nepodporovaných vstupně-výstupních funkcí
- [SPARK-41595] [SC-120097][sql] Podpora generátorové funkce explode/explode_outer v klauzuli FROM
-
[SPARK-41957] [SC-120121][connect][PYTHON] Umožnit doctest pro
DataFrame.hint -
[SPARK-41886] [SC-120141][connect][PYTHON]
DataFrame.intersectvýstup doctestu má jiné pořadí - [SPARK-41442] [SC-117795][sql][VŠECHNY TESTY] Aktualizujte hodnotu METRIKY SQL pouze v případě sloučení s platnou metrikou.
- [SPARK-41944] [SC-120046][connect] Předat konfigurace, když je zapnutý lokální vzdálený režim
-
[SPARK-41708] [SC-119838][sql] Přetáhněte informace v1write do
WriteFiles -
[SPARK-41780] [SC-120000][sql] By měl vyvolat INVALID_PARAMETER_VALUE. PATTERN, pokud jsou parametry
regexpneplatné - [SPARK-41889] [SC-119975][sql] Připojení původní příčiny k neplatné chyběPatternError & refaktoring tříd chyb INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][sql] Vytváření tříd případů AvroScanBuilder a JsonScanBuilder
- [SPARK-41945] [SC-120010][connect][PYTHON] Python: Připojení dat ztracených sloupců klienta s pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][sc-119087][SQL][connect] Nezávislé kodéry
- [SPARK-41354] [SC-119995][connect][PYTHON] Implementace RepartitionByExpression
-
[SPARK-41581] [SC-119997][sql] Aktualizace
_LEGACY_ERROR_TEMP_1230jakoINTERNAL_ERROR -
[SPARK-41928] [SC-119972][connect][PYTHON] Přidejte nepodporovaný seznam pro
functions - [SPARK-41933] [SC-119980][connect] Zadejte místní režim, který automaticky spustí server.
- [SPARK-41899] [SC-119971][connect][PYTHON] createDataFrame by měl respektovat schéma DDL poskytnuté uživatelem.
-
[SPARK-41936] [SC-119978][connect][PYTHON] Znovu použijte
withMetadatak přepracováníwithColumnsproto - [SPARK-41898] [SC-119931][connect][PYTHON] Kontrola typů parametrů Window.rowsBetween, Window.rangeBetween shodná s pyspark
-
[SPARK-41939] [SC-119977][connect][PYTHON] Přidání nepodporovaného seznamu pro funkce
catalog -
[SPARK-41924] [SC-119946][connect][PYTHON] Umožnit StructType podporu pro metadata a implementaci
DataFrame.withMetadata -
[SPARK-41934] [SC-119967][connect][PYTHON] Přidejte nepodporovaný seznam funkcí pro
session -
[SPARK-41875] [SC-119969][connect][PYTHON] Přidání testovacích případů pro
Dataset.to() - [SPARK-41824] [SC-119970][connect][PYTHON] Ignorovat doctest pro vysvětlení funkce connect
-
[SPARK-41880] [SC-119959][connect][PYTHON] Upravte funkci
from_jsonk přijetí neliterálního schématu -
[SPARK-41927] [SC-119952][connect][PYTHON] Přidejte nepodporovaný seznam pro
GroupedData -
[SPARK-41929] [SC-119949][connect][PYTHON] Přidání funkce
array_compact -
[SPARK-41827] [SC-119841][connect][PYTHON] Upravte
GroupBytak, aby přijímal seznam sloupců -
[SPARK-41925] [SC-119905][sql] Ve výchozím nastavení povolte
spark.sql.orc.enableNestedColumnVectorizedReader -
[SPARK-41831] [SC-119853][connect][PYTHON]
DataFrame.selectdovolit přijmutí seznamu sloupců -
[SPARK-41455] [SC-119858][connect][PYTHON]
DataFrame.collectzahoďte informace o časovém pásmu. -
[SPARK-41923] [SC-119861][connect][PYTHON] Přidání
DataFrame.writeTodo nepodporovaného seznamu - [SPARK-41912] [SC-119837][sql] Poddotaz by neměl ověřovat CTE
-
[SPARK-41828] [SC-119832][connect][PYTHON][12.x] Zajistit, aby
createDataFramepodporovalo prázdný datový rámec - [SPARK-41905] [SC-119848][connect] Podpora názvů jako řetězců ve slice
- [SPARK-41869] [SC-119845][connect] Odmítnout jeden řetězec v dropDuplicates
-
[SPARK-41830] [SC-119840][connect][PYTHON]
DataFrame.samplepřijmout stejné parametry jako PySpark - [SPARK-41849] [SC-119835][connect] Implementovat DataFrameReader.text
- [SPARK-41861] [SC-119834][sql] Zajistit, aby metoda build() ve v2 ScanBuilders vracela typovaný scan
-
[SPARK-41825] [SC-119710][connect][PYTHON] Povolení doctestů souvisejících s
DataFrame.show -
[SPARK-41855] [SC-119804][sc-119410][SPARK-41814][spark-41851][SPARK-41852][connect][PYTHON][12.x] Zajistit správné zpracování None/NaN popisovačem
createDataFrame -
[SPARK-41833] [SC-119685][spark-41881][SPARK-41815][connect][PYTHON] Zajistit, aby
DataFrame.collectsprávně zpracovával None/NaN/Array/Binary. - [SPARK-39318] [SC-119713][sql] Odstranit soubory tpch-plan-stability se statistikami golden files
- [SPARK-41791] [SC-119745] Přidání nových typů sloupců metadat zdroje souborů
- [SPARK-41790] [SC-119729][sql] Nastavte správně formát čtečky TRANSFORM a zapisovače.
-
[SPARK-41829] [SC-119725][connect][PYTHON] Přidejte chybějící parametr řazení v
SortasortWithinPartitions - [SPARK-41576] [SC-119718][sql] Přiřazení názvu _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][connect][PYTHON] Oprava doctestu pro DataFrame.describe
- [SPARK-41871] [SC-119714][connect] Parametr nápovědy datového rámce může být str, float nebo int.
- [SPARK-41720] [SC-119076][sql] Přejmenovat unresolvedFunc na UnresolvedFunctionName
- [SPARK-41573] [SC-119567][sql] Přiřadit název _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][sql] Oprava chyby správnosti související s výchozími hodnotami v čtečce Orc
-
[SPARK-41582] [SC-119482][sc-118701][CORE][sql] Opakované použití
INVALID_TYPED_LITERALmísto_LEGACY_ERROR_TEMP_0022
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 12.2.
Systémové prostředí
-
Operační systém: Ubuntu 20.04.5 LTS
- Poznámka: Toto je verze Ubuntu používaná kontejnery Databricks Runtime. Kontejnery Databricks Runtime běží na virtuálních počítačích poskytovatele cloudu, které můžou používat jinou verzi Ubuntu nebo linuxovou distribuci.
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.21
- R: 4.2.2
- Delta Lake: 2.2.0
Nainstalované knihovny Pythonu
| Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
| attrs | 21.4.0 | zpětný hovor | 0.2.0 | backports.entry-points-selectable (volitelné vstupní body) | 1.2.0 |
| BeautifulSoup4 | 4.11.1 | černý | 22.3.0 | bělidlo | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | certifikát | 2021.10.8 |
| cffi | 1.15.0 | chardet | 4.0.0 | nástroj pro normalizaci znakové sady | 2.0.4 |
| klikni | 8.0.4 | kryptografie | 3.4.8 | cyklista | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| dekoratér | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
| převod docstringu do formátu markdown | 0.11 | vstupní body | 0,4 | provedení | 0.8.3 |
| přehled aspektů | 1.0.0 | fastjsonschema | 2.16.2 | zamykání souborů | 3.9.0 |
| nástroje pro písma | 4.25.0 | IDNA | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.1.1 | jsonschema | 4.4.0 | klient Jupyter | 6.1.12 |
| jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | JupyterLab widgets | 1.0.0 |
| kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | špatné naladění | 0.8.4 |
| mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
| nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
| poznámkový blok | 6.4.8 | numpy (knihovna pro numerické výpočty v Pythonu) | 1.21.5 | balení | 21.3 |
| pandas | 1.4.2 | pandocfilters | 1.5.0 | Parso | 0.8.3 |
| specifikace cesty | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
| PickleShare | 0.7.5 | Polštář | 9.0.1 | pip | 21.2.4 |
| platformdirs | 2.6.2 | plotly | 5.6.0 | Pluggy (nástroj pro správu pluginů v Pythonu) | 1.0.0 |
| prometheus-client | 0.13.1 | nástroj "prompt-toolkit" | 3.0.20 | protobuf | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
| pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
| pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| python-lsp-server | 1.6.0 | knihovna pytz pro zpracování časových zón v Pythonu | 2021.3 | pyzmq | 22.3.0 |
| požadavky | 2.27.1 | requests-unixsocket | 0.2.0 | lano | 0.22.0 |
| s3transfer | 0.5.0 | scikit-learn | 1.0.2 | SciPy | 1.7.3 |
| narozený v moři | 0.11.2 | Send2Trash | 1.8.0 | setuptools (nástroj pro vytváření a distribuci Python projektů) | 61.2.0 |
| šest | 1.16.0 | sítko na polévku | 2.3.1 | ssh-import-id | 5.10 |
| datová hromádka | 0.2.0 | statsmodels | 0.13.2 | houževnatost | 8.0.1 |
| dokončeno | 0.13.1 | testovací cesta | 0.5.0 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornádo | 6.1 |
| drobné vlastnosti | 5.1.1 | rozšíření_typingu | 4.1.1 | ujson | 5.1.0 |
| bezobslužné aktualizace | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth (šířka znaků) | 0.2.5 | webová kódování | 0.5.1 | whatthepatch | 1.0.4 |
| wheel | 0.37.0 | widgetsnbextension (rozšíření pro widgety v notebooku) | 3.6.1 | yapf | 0.31.0 |
Nainstalované knihovny jazyka R
Knihovny R jsou nainstalovány ze snímku Microsoft CRAN z 2022-11-11. Snímek už není k dispozici.
| Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
|---|---|---|---|---|---|
| šíp | 10.0.0 | žádost o heslo | 1.1 | ověřit, že | 0.2.1 |
| zpětné portování | 1.4.1 | báze | 4.2.2 | base64enc | 0,1-3 |
| bit | 4.0.4 | 64bit | 4.0.5 | objekt blob | 1.2.3 |
| bootování | 1.3-28 | připravovat nápoje | 1.0-8 | elán | 1.1.3 |
| koště | 1.0.1 | bslib | 0.4.1 | kašmír | 1.0.6 |
| volající | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
| cron | 2.3-58 | třída | 7.3-21 | CLI | 3.4.1 |
| Clipr | 0.8.0 | hodiny | 0.6.1 | cluster | 2.1.4 |
| codetools | 0.2-19 | barevný prostor | 2.0-3 | commonmark | 1.8.1 |
| kompilátor | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
| pastelka | 1.5.2 | přihlašovací údaje | 1.3.2 | kroucení | 4.3.3 |
| datová tabulka | 1.14.4 | datové sady | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | Popis | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | hodnota hash | 0.6.30 | dolní osvětlení | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| tři tečky | 0.3.2 | hodnotit | 0.18 | fanoušci | 1.0.3 |
| barvy | 2.1.1 | Fastmap (rychlé mapování) | 1.1.0 | fontawesome | 0.4.0 |
| pro kočky | 0.5.2 | foreach | 1.5.2 | zahraničí | 0,8-82 |
| kovárna | 0.2.0 | fs | 1.5.2 | budoucnost | 1.29.0 |
| budoucnost.použít | 1.10.0 | kloktání | 1.2.1 | obecné typy | 0.1.3 |
| Gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1–4 | globální | 0.16.1 |
| lepidlo | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.0 | Grafika | 4.2.2 | grDevices | 4.2.2 |
| mřížka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtable | 0.3.1 | ochranná přilba | 1.2.0 | útočiště | 2.5.1 |
| vyšší | 0,9 | HMS | 1.1.2 | htmlové nástroje | 0.5.3 |
| htmlwidgets (interaktivní HTML prvky) | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
| identifikátory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.6 | Iterátory | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | KernSmooth | 2,23–20 | knitr | 1,40 |
| značení | 0.4.2 | později | 1.3.0 | mřížka | 0.20-45 |
| láva | 1.7.0 | životní cyklus | 1.0.3 | poslouchej | 0.8.0 |
| lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
| Hmotnost | 7.3-58.2 | *Matrix* | 1.5-1 | zapamatujte si | 2.0.1 |
| metody | 4.2.2 | mgcv | 1.8-41 | mim | 0.12 |
| miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelář | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-162 | nnet (neuronová síť) | 7.3-18 |
| numDeriv (Numerická derivace) | 2016.8 - 1.1 | OpenSSL | 2.0.4 | rovnoběžný | 4.2.2 |
| paralelně | 1.32.1 | pilíř | 1.8.1 | pkgbuild | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
| plogr | 0.2.0 | plyr | 1.8.7 | pochvala | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | pokrok | 1.2.2 |
| progressr | 0.11.0 | promisy | 1.2.0.1 | proto | 1.0.0 |
| proxy | 0,4-27 | p.s. | 1.7.2 | purrr | 0.3.5 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| "randomForest" | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| čtenář | 2.1.3 | readxl | 1.4.1 | recepty | 1.0.3 |
| odvetný zápas | 1.0.1 | odvetný zápas 2 | 2.1.2 | dálková ovládání | 2.4.2 |
| reprodukovatelný příklad | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.2 | váhy | 1.2.1 |
| selektor | 0.4-2 | informace o sezení | 1.2.2 | obrazec | 1.4.6 |
| lesklý | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
| SparkR | 3.3.2 | prostorový | 7.3-11 | spline | 4.2.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | statistické údaje | 4.2.2 |
| Stats4 | 4.2.2 | řetězce | 1.7.8 | stringr | 1.4.1 |
| přežití | 3.4-0 | systém | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat (nástroj pro testování) | 3.1.5 | formátování textu | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | změna času | 0.1.1 | datum a čas | 4021.106 |
| tinytex | 0.42 | nářadí | 4.2.2 | tzdb | 0.3.0 |
| ověřovač URL | 1.0.1 | použij tohle | 2.1.6 | utf8 | 1.2.2 |
| utils | 4.2.2 | Univerzální jednoznačný identifikátor (UUID) | 1.1-0 | vctrs | 0.5.0 |
| viridisLite | 0.4.1 | vrrrm | 1.6.0 | Waldo | 0.4.0 |
| hmatový chlup | 0,4 | (v případě, že je možné poskytnout smysl slova "withr", by bylo možné ho přeložit) | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
| yaml | 2.3.6 | zip (jako formát souboru) | 2.2.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
| ID skupiny | Identifikátor artefaktu | Verze |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client (klient Amazon Kinesis) | 1.12.0 |
| com.amazonaws | aws-java-sdk Automatické škálování | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
| com.amazonaws | „aws-java-sdk-cloudsearch“ | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy (Balíček AWS SDK pro Java - CodeDeploy) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfigurace balíčku SDK pro Javu od AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java SDK pro Glacier) | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue (balíček pro vývoj softwaru v Java od AWS, určený pro Glue služby) | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-strojové učení | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway (balíček nástrojů pro přístup k AWS Storage Gateway) | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | podpora AWS Java SDK | 1.12.189 |
| com.amazonaws | knihovny AWS Java SDK SWF | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | datový proud | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | technologie kryo-stínění | 4.0.2 |
| com.esotericsoftware | Minlog | 1.3.0 |
| com.fasterxml | spolužák | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations (poznámky Jackson) | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | Jackson-databind | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.kofein | kofein | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | jádro | 1.1.2 |
| com.github.fommil.netlib | Nativní odkaz pro Javu | 1.1 |
| com.github.fommil.netlib | native_ref - nativní prvky javy | 1.1 |
| com.github.fommil.netlib | nativní_systém-java | 1.1 |
| com.github.fommil.netlib | nativní systém java-native | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib – nativní systém – linux – x86_64 – nativy | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.8.6 |
| com.google.crypto.tink | Cink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guave | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.VYDÁNÍ |
| com.lihaoyi | zdrojový_kód_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (software development kit pro úložiště dat Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (komprimační algoritmus LZF) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | Paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app-2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers (nástroj pro analýzu dat) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| společné sbírky | společné sbírky | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| Nahrávání souborů v Commons | Nahrávání souborů v Commons | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (nástroj pro záznamy) | commons-logging (nástroj pro záznamy) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blas | 2.2.1 |
| dev.ludovic.netlib | LAPACK | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | vzduchový kompresor | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.3 |
| io.dropwizard.metrics | jádro metrik | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | Metrics-JMX | 4.1.1 |
| io.dropwizard.metrics | Metriky-json | 4.1.1 |
| io.dropwizard.metrics | metriky pro JVM | 4.1.1 |
| io.dropwizard.metrics | metrikové servlety | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | netty-handler | 4.1.74.Final |
| io.netty | netty-resolver | 4.1.74.Final |
| io.netty | netty-tcnative-classes (softwarová knihovna) | 2.0.48.Final |
| io.netty | netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleklient_obecný | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | kolektor | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktivace | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | API pro transakce | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | nakládačka | 1,2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| síť.sněhová vločka | snowflake-ingest-sdk | 0.9.6 |
| síť.sněhová vločka | snowflake-jdbc | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mravenec | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | Ant launcher | 1.9.2 |
| org.apache.arrow | šipkový formát | 7.0.0 |
| org.apache.arrow | jádro šipkové paměti | 7.0.0 |
| org.apache.arrow | šipka-paměť-netty | 7.0.0 |
| org.apache.arrow | šipkový vektor | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress (softwarová knihovna pro kompresi dat) | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | Commons-text (textové nástroje) | 1.10.0 |
| org.apache.kurátor | kurátor-klient | 2.13.0 |
| org.apache.kurátor | kurátorský rámec | 2.13.0 |
| org.apache.kurátor | kurátorovy recepty | 2.13.0 |
| org.apache.derby | fotbalové derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-klient-API | 3.3.4-databricks |
| org.apache.hadoop | běhové prostředí klienta Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc (JDBC ovladač pro Apache Hive) | 2.3.9 |
| org.apache.hive | hive-llap-client (klient pro Apache Hive s možností LLAP) | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | Hive-shims | 2.3.9 |
| org.apache.hive | rozhraní pro úložiště Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | plánovač hive-shims | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | břečťan | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orčí podložky | 1.7.6 |
| org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | poznámky pro publikum | 0.13.0 |
| org.apache.zookeeper | ošetřovatel zvířat v zoo | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | společný kompilátor | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (framework pro práci s relačními databázemi) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | pokračování Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | proxy pro službu Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | bezpečnost Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-webová aplikace | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket – běžné | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-lokátor | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi vyhledávač zdrojů | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-přebaleno | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject (pokud je to potřeba, přidejte vysvětlení nebo typický český termín v závorce) | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (nástroj pro zpracování požadavků v Java EE) | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-jádro | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | společný dres | 2.36 |
| org.glassfish.jersey.core | Jersey-server (aplikační server frameworku Jersey) | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | Hibernate Validator | 6.1.0.Final |
| org.javassist | Javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | anotace | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | MariaDB Java klient | 2.7.4 |
| org.mlflow | mlflow-spark | 2.1.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | vymezovací pásky | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.28.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | testovací rozhraní | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1,2 |
| org.scalanlp | breeze_2.12 | 1,2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | nepoužitý | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | makro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |