Databricks Runtime 12.1 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 12.1, který využívá Apache Spark 3.3.1.
Databricks vydala tuto verzi v lednu 2023.
Nové funkce a vylepšení
- Funkce tabulek Delta Lake podporované pro správu protokolů
- Prediktivní vstupně-výstupní operace pro aktualizace jsou ve verzi Public Preview
- Průzkumník katalogu je teď dostupný pro všechny osoby.
- Podpora více stavových operátorů v jednom dotazu streamování
- Podpora vyrovnávacích pamětí protokolu je ve verzi Public Preview
- Podpora ověřování registru schématu Confluent
- Podpora sdílení historie tabulek se sdílenými složkami Delta
- Podpora streamování se sdílenými složkami Delta
- Verze tabulky využívající časové razítko se teď podporuje pro tabulky Delta Sharing v katalogech.
- Podpora PRO WHEN NOT MATCHED BY SOURCE for MERGE INTO
- Optimalizovaná kolekce statistik pro CONVERT TO DELTA
- Podpora katalogu Unity pro rozbalení tabulek
Funkce tabulek Delta Lake podporované pro správu protokolů
Služba Azure Databricks zavedla podporu funkcí tabulek Delta Lake, která zavádí podrobné příznaky určující, které funkce jsou podporovány danou tabulkou. Podívejte se, jak Azure Databricks spravuje kompatibilitu funkcí Delta Lake?
Prediktivní vstupně-výstupní operace pro aktualizace jsou ve verzi Public Preview
Prediktivní vstupně-výstupní operace nyní urychlují DELETE
MERGE
a UPDATE
operace pro tabulky Delta s vektory odstranění povolenými na výpočetních prostředcích s podporou Photon. Podívejte se, co je prediktivní vstupně-výstupní operace?
Průzkumník katalogu je teď dostupný pro všechny osoby.
Průzkumník katalogu je nyní k dispozici pro všechny osoby Azure Databricks při použití Databricks Runtime 7.3 LTS a vyšší.
Podpora více stavových operátorů v jednom dotazu streamování
Uživatelé teď můžou zřetězovat stavové operátory s režimem připojení v dotazu streamování. Ne všechny operátory jsou plně podporované. Připojení k časovému intervalu streamu streamu a flatMapGroupsWithState
neumožňuje zřetězeným jiným stavovým operátorům.
Podpora vyrovnávacích pamětí protokolu je ve verzi Public Preview
Pomocí funkcí from_protobuf
a to_protobuf
funkcí můžete vyměňovat data mezi binárními a strukturami. Viz Vyrovnávací paměti protokolu pro čtení a zápis.
Podpora ověřování registru schématu Confluent
Integrace Azure Databricks s Confluent Schema Registry teď podporuje adresy externího registru schématu s ověřováním. Tato funkce je k dispozici pro from_avro
funkce , to_avro
, from_protobuf
a to_protobuf
funkce. Viz Protobuf nebo Avro.
Podpora sdílení historie tabulek se sdílenými složkami Delta
Tabulku teď můžete sdílet s úplnou historií pomocí rozdílového sdílení, což příjemcům umožňuje provádět dotazy na čas a dotazovat se na tabulku pomocí strukturovaného streamování Sparku. WITH HISTORY
se místo toho doporučuje CHANGE DATA FEED
, i když se tato možnost nadále podporuje. Viz ALTER SHARE a Přidání tabulek do sdílené složky.
Podpora streamování se sdílenými složkami Delta
Strukturované streamování Sparku teď funguje s formátem deltasharing
zdrojové tabulky Delta Sharing, která byla sdílena pomocí WITH HISTORY
.
Verze tabulky využívající časové razítko se teď podporuje pro tabulky Delta Sharing v katalogech.
Syntaxi TIMESTAMP AS OF
SQL teď můžete použít v SELECT
příkazech k určení verze tabulky Delta Sharing, která je připojená v katalogu. Tabulky musí být sdíleny pomocí WITH HISTORY
.
Podpora PRO WHEN NOT MATCHED BY SOURCE for MERGE INTO
Teď můžete přidat WHEN NOT MATCHED BY SOURCE
klauzule pro MERGE INTO
aktualizaci nebo odstranění řádků ve zvolené tabulce, které nemají shodu ve zdrojové tabulce na základě podmínky sloučení. Nová klauzule je dostupná v JAZYCE SQL, Python, Scala a Java. Viz SLOUČIT DO.
Optimalizovaná kolekce statistik pro CONVERT TO DELTA
Shromažďování statistik pro CONVERT TO DELTA
operaci je teď mnohem rychlejší. Tím se sníží počet úloh, které by mohly být využity NO STATISTICS
k efektivitě.
Podpora katalogu Unity pro rozbalení tabulek
Tato funkce byla původně vydána ve verzi Public Preview. Je to ga od 25. října 2023.
Vyřazenou spravovanou nebo externí tabulku teď můžete vrátit zpět do existujícího schématu během sedmi dnů od vyřazení. Viz UNDROP TABLE and SHOW TABLES DROPPED.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- filelock od 3.8.0 do 3.8.2
- platformdirs from 2.5.4 to 2.6.0
- instalační nástroje od 58.0.4 do 61.2.0
- Upgradované knihovny jazyka R:
- Upgradované knihovny Java:
- io.delta.delta-sharing-spark_2.12 od 0.5.2 do 0.6.2
- org.apache.hive.hive-storage-api od 2.7.2 do 2.8.1
- org.apache.parquet.parquet-column od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-common od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-encoding od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-format-structures from 1.12.3-databricks-0001 to 1.12.3-databricks-0002
- org.apache.parquet.parquet-hadoop od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.apache.parquet.parquet-jackson od 1.12.3-databricks-0001 do 1.12.3-databricks-0002
- org.tukaani.xz od 1.8 do 1.9
Apache Spark
Databricks Runtime 12.1 zahrnuje Apache Spark 3.3.1. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 12.0 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-41405] [SC-119769] [12.1.0] Vrátí zpět "[SC-119411][SQL] Centralizace logiky překladu sloupců a [SC-117170][SPARK-41338][SQL] Řešení vnějších odkazů a normálních sloupců ve stejné dávce analyzátoru
- [SPARK-41405] [SC-119411] [SQL] Centralizace logiky překladu sloupců
- [SPARK-41859] [SC-119514] [SQL] CreateHiveTableAsSelectCommand by měl správně nastavit příznak přepsání
- [SPARK-41659] [SC-119526] [CONNECT] [12.X] Povolení doctestů v souboru pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427] [SQL] Oprava regrese výkonu čtečky ORC kvůli funkci VÝCHOZÍ hodnoty
- [SPARK-41807] [SC-119399] [JÁDRO] Odeberte neexistující třídu chyb: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
- [SPARK-41578] [12.x] [SC-119273] [SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362] [SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373] [CONNECT] Odvození názvů ze seznamu slovníků ve SparkSession.createDataFrame
- [SPARK-40993] [SC-119504] [SPARK-41705] [CONNECT] [12.X] Přesunutí dokumentace a skriptu Spark Connect do dokumentace pro vývoj a Python
- [SPARK-41534] [SC-119456] [CONNECT] [SQL] [12.x] Nastavení počátečního klientského modulu pro Spark Connect
- [SPARK-41365] [SC-118498] [UŽIVATELSKÉ ROZHRANÍ] [3.3] Stránka uživatelského rozhraní fází se nepodaří načíst pro proxy server v konkrétním prostředí yarn.
- [SPARK-41481] [SC-118150] [JÁDRO] [SQL] Opakované použití
INVALID_TYPED_LITERAL
místo_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305] [SQL] Revisit stateful expression handling
- [SPARK-41726] [SC-119248] [SQL] Odstranit
OptimizedCreateHiveTableAsSelectCommand
- [SPARK-41271] [SC-118648] [SC-118348] [SQL] Podpora parametrizovaných dotazů SQL podle
sql()
- [SPARK-41066] [SC-119344] [CONNECT] [PYTHON] Implementace
DataFrame.sampleBy
aDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402] [SC-119012] [SQL] [VŠECHNY TESTY] Pull out v1 write to WriteFiles
- [SPARK-41565] [SC-118868] [SQL] Přidání třídy chyb
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925] [SQL] Funkce DECODE vrátí nesprávné výsledky při předání hodnoty NULL.
- [SPARK-41554] [SC-119274] Oprava změny desítkového měřítka při zmenšení měřítka o m...
- [SPARK-41065] [SC-119324] [CONNECT] [PYTHON] Implementace
DataFrame.freqItems
aDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404] [SPARK-41745] [CONNECT] [12.X] Opakované testy dokumentu a přidání chybějícího aliasu sloupce do count()
- [SPARK-41069] [SC-119310] [CONNECT] [PYTHON] Implementace
DataFrame.approxQuantile
aDataFrame.stat.approxQuantile
- [SPARK-41809] [SC-119367] [CONNECT] [PYTHON] Podpora funkce
from_json
DataType Schema - [SPARK-41804] [SC-119382] [SQL] Volba správné velikosti prvku pro
InterpretedUnsafeProjection
pole UDT - [SPARK-41786] [SC-119308] [CONNECT] [PYTHON] Odstranění duplicitních dat pomocných funkcí
- [SPARK-41745] [SC-119378] [SPARK-41789] [12.X] Vytvoření
createDataFrame
seznamu podpory řádků - [SPARK-41344] [SC-119217] [SQL] Vymazání chyby v případě, že se v katalogu SupportsCatalogOptions nenašla tabulka
- [SPARK-41803] [SC-119380] [CONNECT] [PYTHON] Přidání chybějící funkce
log(arg1, arg2)
- [SPARK-41808] [SC-119356] [CONNECT] [PYTHON] Nastavení možností podpory funkcí JSON
- [SPARK-41779] [SC-119275] [SPARK-41771] [CONNECT] [PYTHON] Nastavit
__getitem__
filtr podpory a vybrat - [SPARK-41783] [SC-119288] [SPARK-41770] [CONNECT] [PYTHON] Podpora operace sloupce – Žádná
- [SPARK-41440] [SC-119279] [CONNECT] [PYTHON] Vyhněte se operátoru mezipaměti pro obecnou ukázku.
- [SPARK-41785] [SC-119290] [CONNECT] [PYTHON] Implementovat
GroupedData.mean
- [SPARK-41629] [SC-119276] [CONNECT] Podpora rozšíření protokolu ve vztahu a výrazu
- [SPARK-41417] [SC-118000] [JÁDRO] [SQL] Přejmenovat
_LEGACY_ERROR_TEMP_0019
naINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342] [CONNECT] [12.X] Správné zpracování chyb pro Server nebo klienta Spark Connect
- [SPARK-41292] [SC-119357] [CONNECT] [12.X] Okno podpory v oboru názvů pyspark.sql.window
- [SPARK-41493] [SC-119339] [CONNECT] [PYTHON] Nastavení možností podpory funkcí CSV
- [SPARK-39591] [SC-118675] [SS] Asynchronní sledování průběhu
- [SPARK-41767] [SC-119337] [CONNECT] [PYTHON] [12.X] Implementovat
Column.{withField, dropFields}
- [SPARK-41068] [SC-119268] [CONNECT] [PYTHON] Implementovat
DataFrame.stat.corr
- [SPARK-41655] [SC-119323] [CONNECT] [12.X] Povolení doctestů ve sloupci pyspark.sql.connect.column
- [SPARK-41738] [SC-119170] [CONNECT] Mix ClientId v mezipaměti SparkSession
- [SPARK-41354] [SC-119194] [CONNECT] Přidat
RepartitionByExpression
do proto - [SPARK-41784] [SC-119289] [CONNECT] [PYTHON] Přidání chybějícího
__rmod__
sloupce - [SPARK-41778] [SC-119262] [SQL] Přidání aliasu "reduce" do ArrayAggregate
- [SPARK-41067] [SC-119171] [CONNECT] [PYTHON] Implementovat
DataFrame.stat.cov
- [SPARK-41764] [SC-119216] [CONNECT] [PYTHON] Zajištění konzistentního názvu operace interního řetězce s funkcí FunctionRegistry
- [SPARK-41734] [SC-119160] [CONNECT] Přidání nadřazené zprávy pro katalog
- [SPARK-41742] [SC-119263] Podpora df.groupBy().agg({"*":"count"})
- [SPARK-41761] [SC-119213] [CONNECT] [PYTHON] Oprava aritmetických operací:
__neg__
,__pow__
__rpow__
- [SPARK-41062] [SC-118182] [SQL] Přejmenovat
UNSUPPORTED_CORRELATED_REFERENCE
naCORRELATED_REFERENCE
- [SPARK-41751] [SC-119211] [CONNECT] [PYTHON] Opravit
Column.{isNull, isNotNull, eqNullSafe}
- [SPARK-41728] [SC-119164] [CONNECT] [PYTHON] [12.X] Implementace
unwrap_udt
funkce - [SPARK-41333] [SC-119195] [SPARK-41737] Implementovat
GroupedData.{min, max, avg, sum}
- [SPARK-41751] [SC-119206] [CONNECT] [PYTHON] Opravit
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081] [SQL] Podpora implicitního překladu aliasů laterálního sloupce u agregace
- [SPARK-41529] [SC-119207] [CONNECT] [12.X] Implementace SparkSession.stop
- [SPARK-41729] [SC-119205] [JÁDRO] [SQL] [12.X] Přejmenovat
_LEGACY_ERROR_TEMP_0011
naUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078] [CONNECT] [12.X] Odstranění duplicitních dat tisku a repr_html ve společnosti LogicalPlan
- [SPARK-41740] [SC-119169] [CONNECT] [PYTHON] Implementovat
Column.name
- [SPARK-41733] [SC-119163] [SQL] [SS] Použití vyřezávání na základě stromového vzoru pro pravidlo ResolveWindowTime
- [SPARK-41732] [SC-119157] [SQL] [SS] Použití vyřezávání na základě stromového vzoru pro pravidlo SessionWindowing
- [SPARK-41498] [SC-119018] Šíření metadat prostřednictvím sjednocení
- [SPARK-41731] [SC-119166] [CONNECT] [PYTHON] [12.X] Implementace přístupového objektu sloupce
- [SPARK-41736] [SC-119161] [CONNECT] [PYTHON]
pyspark_types_to_proto_types
by měla podporovatArrayType
- [SPARK-41473] [SC-119092] [CONNECT] [PYTHON] Implementace
format_number
funkce - [SPARK-41707] [SC-119141] [CONNECT] [12.X] Implementace rozhraní API katalogu v nástroji Spark Connect
- [SPARK-41710] [SC-119062] [CONNECT] [PYTHON] Implementovat
Column.between
- [SPARK-41235] [SC-119088] [SQL] [PYTHON] Vysoká funkce: implementace array_compact
- [SPARK-41518] [SC-118453] [SQL] Přiřazení názvu ke třídě chyb
_LEGACY_ERROR_TEMP_2422
- [SPARK-41723] [SC-119091] [CONNECT] [PYTHON] Implementace
sequence
funkce - [SPARK-41703] [SC-119060] [CONNECT] [PYTHON] Kombinování typu NullType a typed_null v literálu
- [SPARK-41722] [SC-119090] [CONNECT] [PYTHON] Implementace 3 chybějících funkcí časového intervalu
- [SPARK-41503] [SC-119043] [CONNECT] [PYTHON] Implementace transformačních funkcí oddílů
- [SPARK-41413] [SC-118968] [SQL] Vyhněte se náhodnému propojování v případě neshody klíčů oddílů, ale výrazy spojení jsou kompatibilní.
- [SPARK-41700] [SC-119046] [CONNECT] [PYTHON] Odstranit
FunctionBuilder
- [SPARK-41706] [SC-119094] [CONNECT] [PYTHON]
pyspark_types_to_proto_types
by měla podporovatMapType
- [SPARK-41702] [SC-119049] [CONNECT] [PYTHON] Přidání neplatných operací sloupců
- [SPARK-41660] [SC-118866] [SQL] Šíření sloupců metadat pouze v případě, že se používají
- [SPARK-41637] [SC-119003] [SQL] ORDER BY ALL
- [SPARK-41513] [SC-118945] [SQL] Implementace akumulátoru pro shromažďování metrik počtu řádků mapperu
- [SPARK-41647] [SC-119064] [CONNECT] [12.X] Odstranění duplicit docstrings v pyspark.sql.connect.functions
- [SPARK-41701] [SC-119048] [CONNECT] [PYTHON] Podpora provozu sloupce
decimal
- [SPARK-41383] [SC-119015] [SPARK-41692] [SPARK-41693]
cube
Implementacerollup
apivot
- [SPARK-41635] [SC-118944] [SQL] SESKUPOVAT PODLE VŠECH
- [SPARK-41645] [SC-119057] [CONNECT] [12.X] Odstranění duplicitních dat v souboru docstring v pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951] [CONNECT] [PYTHON] Přesunutí výrazů do expressions.py
- [SPARK-41687] [SC-118949] [CONNECT] Odstranění duplicitních dat v souboru docstring ve pyspark.sql.connect.group
- [SPARK-41649] [SC-118950] [CONNECT] Odstranění duplicitních dat v souboru docstrings v pyspark.sql.connect.window
- [SPARK-41681] [SC-118939] [CONNECT] Factor GroupedData out to group.py
- [SPARK-41292] [SC-119038] [SPARK-41640] [SPARK-41641] [CONNECT] [PYTHON] [12.X] Implementace
Window
funkcí - [SPARK-41675] [SC-119031] [SC-118934] [CONNECT] [PYTHON] [12.X] Podpora operace se sloupci
datetime
- [SPARK-41672] [SC-118929] [CONNECT] [PYTHON] Povolení zastaralých funkcí
- [SPARK-41673] [SC-118932] [CONNECT] [PYTHON] Implementovat
Column.astype
- [SPARK-41364] [SC-118865] [CONNECT] [PYTHON] Implementace
broadcast
funkce - [SPARK-41648] [SC-118914] [CONNECT] [12.X] Odstranění duplicitních dat v souboru docstring v souboru pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915] [CONNECT] [12.X] Odstranění duplicitních dat z docstrings v pyspark.sql.connect.session
- [SPARK-41643] [SC-118862] [CONNECT] [12.X] Odstranění duplicitních dat ve sloupci pyspark.sql.connect.column
- [SPARK-41663] [SC-118936] [CONNECT] [PYTHON] [12.X] Implementace zbývajících funkcí lambda
- [SPARK-41441] [SC-118557] [SQL] Podpora generování bez požadovaného podřízeného výstupu pro hostování vnějších odkazů
- [SPARK-41669] [SC-118923] [SQL] Předčasné vyřazování v canCollapseExpressions
- [SPARK-41639] [SC-118927] [SQL] [PROTOBUF] : Odebrání ScalaReflectionLock ze schématuConverters
- [SPARK-41464] [SC-118861] [CONNECT] [PYTHON] Implementovat
DataFrame.to
- [SPARK-41434] [SC-118857] [CONNECT] [PYTHON] Počáteční
LambdaFunction
implementace - [SPARK-41539] [SC-118802] [SQL] Přemapovat statistiky a omezení pro výstup v logickém plánu pro LogRDD
- [SPARK-41396] [SC-118786] [SQL] [PROTOBUF] OneOf field support and recursion checks
- [SPARK-41528] [SC-118769] [CONNECT] [12.X] Sloučení oboru názvů rozhraní Spark Connect a PySpark API
- [SPARK-41568] [SC-118715] [SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1236
- [SPARK-41440] [SC-118788] [CONNECT] [PYTHON] Implementovat
DataFrame.randomSplit
- [SPARK-41583] [SC-118718] [SC-118642] [CONNECT] [PROTOBUF] Přidání Spark Connect a protobuf do setup.py s určením závislostí
- [SPARK-27561] [SC-101081] [12.x] [SQL] Podpora implicitního překladu aliasů laterálního sloupce v Projectu
- [SPARK-41535] [SC-118645] [SQL] Správně nastavit hodnotu null pro pole intervalu kalendáře v
InterpretedUnsafeProjection
poli aInterpretedMutableProjection
- [SPARK-40687] [SC-118439] [SQL] Podpora maskování dat předdefinované funkce Maska
- [SPARK-41520] [SC-118440] [SQL] Rozdělte AND_OR TreePattern na samostatné a NEBO stromovépatterny.
- [SPARK-41349] [SC-118668] [CONNECT] [PYTHON] Implementace prvku DataFrame.hint
- [SPARK-41546] [SC-118541] [CONNECT] [PYTHON]
pyspark_types_to_proto_types
by měla podporovat typ struktury. - [SPARK-41334] [SC-118549] [CONNECT] [PYTHON] Přesunutí
SortOrder
proto z relací na výrazy - [SPARK-41387] [SC-118450] [SS] Assert current end offset from Kafka data source for Trigger.AvailableNow
- [SPARK-41508] [SC-118445] [JÁDRO] [SQL] Přejmenování
_LEGACY_ERROR_TEMP_1180
aUNEXPECTED_INPUT_TYPE
odebrání_LEGACY_ERROR_TEMP_1179
- [SPARK-41319] [SC-118441] [CONNECT] [PYTHON] Implementujte sloupec. {when, otherwise} a function
when
withUnresolvedFunction
- [SPARK-41541] [SC-118460] [SQL] Oprava volání nesprávné podřízené metody v SQLShuffleWriteMetricsReporter.decRecordsWritten()
- [SPARK-41453] [SC-118458] [CONNECT] [PYTHON] Implementovat
DataFrame.subtract
- [SPARK-41248] [SC-118436] [SC-118303] [SQL] Pokud chcete povolit nebo zakázat částečné výsledky JSON, přidejte spark.sql.json.enablePartialResults.
- [SPARK-41437] Vrátit zpět "[SC-117601][SQL] Neoptimalizovat inputquery dvakrát pro záložní zápis v1"
- [SPARK-41472] [SC-118352] [CONNECT] [PYTHON] Implementace zbývajících řetězcových/binárních funkcí
- [SPARK-41526] [SC-118355] [CONNECT] [PYTHON] Implementovat
Column.isin
- [SPARK-32170] [SC-118384] [JÁDRO] Zlepšete spekulaci prostřednictvím metrik úkolů fáze.
- [SPARK-41524] [SC-118399] [SS] Rozlišení SQLConf a extraOptions ve StateStoreConf pro jeho použití v RocksDBConf
- [SPARK-41465] [SC-118381] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365] [SQL] Podpora LongToUnsafeRowMap ignorujeDuplicatedKey
- [SPARK-41409] [SC-118302] [JÁDRO] [SQL] Přejmenovat
_LEGACY_ERROR_TEMP_1043
naWRONG_NUM_ARGS.WITHOUT_SUGGESTION
- [SPARK-41438] [SC-118344] [CONNECT] [PYTHON] Implementovat
DataFrame.colRegex
- [SPARK-41437] [SC-117601] [SQL] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1
- [SPARK-41314] [SC-117172] [SQL] Přiřazení názvu ke třídě chyb
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241] [CONNECT] [PYTHON] Refaktoring LiteralExpression pro podporu datového typu
- [SPARK-41448] [SC-118046] Zajištění konzistentních ID úloh MR v FileBatchWriter a FileFormatWriter
- [SPARK-41456] [SC-117970] [SQL] Zlepšení výkonu try_cast
- [SPARK-41495] [SC-118125] [CONNECT] [PYTHON] Implementace
collection
funkcí: P~Z - [SPARK-41478] [SC-118167] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1234
- [SPARK-41406] [SC-118161] [SQL] Refaktoring chybové zprávy,
NUM_COLUMNS_MISMATCH
aby byla obecnější - [SPARK-41404] [SC-118016] [SQL] Refaktoring
ColumnVectorUtils#toBatch
pro testováníColumnarBatchSuite#testRandomRows
primitivnějšího datového typu - [SPARK-41468] [SC-118044] [SQL] Oprava zpracování PlanExpression v EquivalentExpressions
- [SPARK-40775] [SC-118045] [SQL] Oprava duplicitních položek popisu pro prohledávání souborů V2
- [SPARK-41492] [SC-118042] [CONNECT] [PYTHON] Implementace funkcí MISC
- [SPARK-41459] [SC-118005] [SQL] Oprava prázdného výstupu protokolu operací serveru thrift
- [SPARK-41395] [SC-117899] [SQL]
InterpretedMutableProjection
by se měly použítsetDecimal
k nastavení hodnot null pro desetinné čárky v nebezpečném řádku. - [SPARK-41376] [SC-117840] [JÁDRO] [3.3] Oprava logiky kontroly Netty preferDirectBufs při spuštění exekutoru
- [SPARK-41484] [SC-118159] [SC-118036] [CONNECT] [PYTHON] [12.x] Implementace
collection
funkcí: E~M - [SPARK-41389] [SC-117426] [JÁDRO] [SQL] Opakované použití
WRONG_NUM_ARGS
místo_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920] [SQL] Typ data a časového razítka může přetypovat na TimestampNTZ
- [SPARK-41435] [SC-117810] [SQL] Změna volání
invalidFunctionArgumentsError
,curdate()
pokudexpressions
není prázdná - [SPARK-41187] [SC-118030] [JÁDRO] LiveExecutor MemoryLeak v AppStatusListener při spuštění ExecutorLost
- [SPARK-41360] [SC-118083] [JÁDRO] Pokud se exekutor ztratil, vyhněte se opětovné registraci objektu BlockManager.
- [SPARK-41378] [SC-117686] [SQL] Statistiky sloupců podpory v DS v2
- [SPARK-41402] [SC-117910] [SQL] [CONNECT] [12.X] Override prettyName of StringDecode
- [SPARK-41414] [SC-118041] [CONNECT] [PYTHON] [12.x] Implementace funkcí data a časového razítka
- [SPARK-41329] [SC-117975] [CONNECT] Řešení cyklických importů ve Spark Connectu
- [SPARK-41477] [SC-118025] [CONNECT] [PYTHON] Správné odvození datového typu celých čísel literálů
- [SPARK-41446] [SC-118024] [CONNECT] [PYTHON] [12.x] Zajištění
createDataFrame
podpory schématu a dalších typů vstupních datových sad - [SPARK-41475] [SC-117997] [CONNECT] Oprava chyby příkazu lint-scala a překlepu
- [SPARK-38277] [SC-117799] [SS] Vymazání dávky zápisu po potvrzení úložiště stavů RocksDB
- [SPARK-41375] [SC-117801] [SS] Vyhněte se prázdné nejnovější sadě KafkaSourceOffset
- [SPARK-41412] [SC-118015] [CONNECT] Implementovat
Column.cast
- [SPARK-41439] [SC-117893] [CONNECT] [PYTHON] Implementace
DataFrame.melt
aDataFrame.unpivot
- [SPARK-41399] [SC-118007] [SC-117474] [CONNECT] Refaktoring testů souvisejících se sloupci na test_connect_column
- [SPARK-41351] [SC-117957] [SC-117412] [CONNECT] [12.x] Sloupec by měl podporovat != – operátor
- [SPARK-40697] [SC-117806] [SC-112787] [SQL] Přidání odsazení znaku na straně čtení pro pokrytí externích datových souborů
- [SPARK-41349] [SC-117594] [CONNECT] [12.X] Implementace prvku DataFrame.hint
- [SPARK-41338] [SC-117170] [SQL] Řešení vnějších odkazů a normálních sloupců ve stejné dávce analyzátoru
- [SPARK-41436] [SC-117805] [CONNECT] [PYTHON] Implementace
collection
funkcí: A~C - [SPARK-41445] [SC-117802] [CONNECT] Implementace DataFrameReader.parquet
- [SPARK-41452] [SC-117865] [SQL]
to_char
by měla vrátit hodnotu null, pokud má formát hodnotu null. - [SPARK-41444] [SC-117796] [CONNECT] Podpora read.json()
- [SPARK-41398] [SC-117508] [SQL] Uvolněte omezení připojení děleném úložištěm, když se klíče oddílů po filtrování modulu runtime neshodují
- [SPARK-41228] [SC-117169] [SQL] Přejmenujte a vylepšete chybovou zprávu pro
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. - [SPARK-41381] [SC-117593] [CONNECT] [PYTHON] Implementace
count_distinct
asum_distinct
funkce - [SPARK-41433] [SC-117596] [CONNECT] Nastavení maximálního počtu dávek šipky ke konfiguraci
- [SPARK-41397] [SC-117590] [CONNECT] [PYTHON] Implementace části řetězcových/binárních funkcí
- [SPARK-41382] [SC-117588] [CONNECT] [PYTHON] Implementace
product
funkce - [SPARK-41403] [SC-117595] [CONNECT] [PYTHON] Implementovat
DataFrame.describe
- [SPARK-41366] [SC-117580] [CONNECT] DF.groupby.agg() by měl být kompatibilní.
- [SPARK-41369] [SC-117584] [CONNECT] Přidání společného připojení ke stínovanému jar serverů
- [SPARK-41411] [SC-117562] [SS] Oprava chyby s podporou vodoznaku s více stavovým operátorem
- [SPARK-41176] [SC-116630] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476] [CONNECT] [PYTHON] [12.X] Implementace agregačních funkcí
- [SPARK-41363] [SC-117470] [CONNECT] [PYTHON] [12.X] Implementace normálních funkcí
- [SPARK-41305] [SC-117411] [CONNECT] Vylepšení dokumentace pro příkaz proto
- [SPARK-41372] [SC-117427] [CONNECT] [PYTHON] Implementace datového rámce TempView
- [SPARK-41379] [SC-117420] [SS] [PYTHON] Poskytnutí naklonované relace Sparku v datovém rámci v uživatelské funkci pro jímku foreachBatch v PySparku
- [SPARK-41373] [SC-117405] [SQL] [CHYBA] Přejmenování CAST_WITH_FUN_SUGGESTION na CAST_WITH_FUNC_SUGGESTION
- [SPARK-41358] [SC-117417] [SQL] Refaktoring
ColumnVectorUtils#populate
metody pro použitíPhysicalDataType
místoDataType
- [SPARK-41355] [SC-117423] [SQL] Řešení problému s ověřením názvu tabulky Hive
- [SPARK-41390] [SC-117429] [SQL] Aktualizace skriptu použitého k vygenerování
register
funkceUDFRegistration
- [SPARK-41206] [SC-117233] [SC-116381] [SQL] Přejmenování třídy
_LEGACY_ERROR_TEMP_1233
chyb naCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310] [CONNECT] [PYTHON] [12.X] Implementace matematických funkcí
- [SPARK-40970] [SC-117308] [CONNECT] [PYTHON] Seznam podpory [sloupec] pro argument Join
- [SPARK-41345] [SC-117178] [CONNECT] Přidání nápovědy pro připojení proto
- [SPARK-41226] [SC-117194] [SQL] [12.x] Refaktoring typů Sparku zavedením fyzických typů
- [SPARK-41317] [SC-116902] [CONNECT] [PYTHON] [12.X] Přidání základní podpory pro DataFrameWriter
- [SPARK-41347] [SC-117173] [CONNECT] Přidání přetypování do proto výrazu
- [SPARK-41323] [SC-117128] [SQL] Current_schema podpory
- [SPARK-41339] [SC-117171] [SQL] Zavřete a znovu vytvořte dávku zápisu RocksDB místo pouhého vymazání.
- [SPARK-41227] [SC-117165] [CONNECT] [PYTHON] Implementace křížového spojení datového rámce
- [SPARK-41346] [SC-117176] [CONNECT] [PYTHON] Implementace
asc
adesc
funkce - [SPARK-41343] [SC-117166] [CONNECT] Přesun parsování FunctionName na straně serveru
- [SPARK-41321] [SC-117163] [CONNECT] Cílové pole podpory pro UnresolvedStar
- [SPARK-41237] [SC-117167] [SQL] Opětovné použití třídy
UNSUPPORTED_DATATYPE
chyb pro_LEGACY_ERROR_TEMP_0030
- [SPARK-41309] [SC-116916] [SQL] Opakované použití
INVALID_SCHEMA.NON_STRING_LITERAL
místo_LEGACY_ERROR_TEMP_1093
- [SPARK-41276] [SC-117136] [SQL] [ML] [MLLIB] [PROTOBUF] [PYTHON] [R] [SS] [AVRO] Optimalizace použití konstruktoru
StructType
- [SPARK-41335] [SC-117135] [CONNECT] [PYTHON] Podpora IsNull a IsNotNull ve sloupci
- [SPARK-41332] [SC-117131] [CONNECT] [PYTHON] Oprava
nullOrdering
vSortOrder
- [SPARK-41325] [SC-117132] [CONNECT] [12.X] Oprava chybějícího prům() pro GroupBy v DF
- [SPARK-41327] [SC-117137] [JÁDRO] Oprava
SparkStatusTracker.getExecutorInfos
informací o zapnutí/offHeapStorageMemory - [SPARK-41315] [SC-117129] [CONNECT] [PYTHON] Implementace
DataFrame.replace
aDataFrame.na.replace
- [SPARK-41328] [SC-117125] [CONNECT] [PYTHON] Přidání logického a řetězcového rozhraní API do sloupce
- [SPARK-41331] [SC-117127] [CONNECT] [PYTHON] Přidat
orderBy
adrop_duplicates
- [SPARK-40987] [SC-117124] [JÁDRO]
BlockManager#removeBlockInternal
by mělo zajistit, aby zámek byl řádně odemknut. - [SPARK-41268] [SC-117102] [SC-116970] [CONNECT] [PYTHON] Refaktoring sloupce pro kompatibilitu rozhraní API
- [SPARK-41312] [SC-116881] [CONNECT] [PYTHON] [12.X] Implementace objektu DataFrame.withColumnRenamed
- [SPARK-41221] [SC-116607] [SQL] Přidání třídy chyb
INVALID_FORMAT
- [SPARK-41272] [SC-116742] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_2019
- [SPARK-41180] [SC-116760] [SQL] Opakované použití
INVALID_SCHEMA
místo_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880] [PYTHON] [SS] [12.X] Přetypování instancí NumPy na primitivní typy Pythonu v aktualizaci GroupState
- [SPARK-41174] [SC-116609] [JÁDRO] [SQL] Rozšíření třídy chyb uživatelům kvůli neplatnému
format
to_binary()
- [SPARK-41264] [SC-116971] [CONNECT] [PYTHON] Podpora více datových typů literálů
- [SPARK-41326] [SC-116972] [CONNECT] Oprava chybějícího vstupu odstranění duplicitních dat
- [SPARK-41316] [SC-116900] [SQL] Povolení koncové rekurze, kdykoli je to možné
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Podpora řetězcových výrazů ve filtru
- [SPARK-41256] [SC-116932] [SC-116883] [CONNECT] Implementace prvku DataFrame.withColumn(s)
- [SPARK-41182] [SC-116632] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680] [SQL] Migrace chyb možností mapování do tříd chyb
- [SPARK-40940] [SC-115993] [12.x] Odeberte kontroly vícestavových operátorů pro dotazy streamování.
- [SPARK-41310] [SC-116885] [CONNECT] [PYTHON] Implementace datového rámce.toDF
- [SPARK-41179] [SC-116631] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741] [SQL] BHJ LeftAnti neaktualizuje čísloOutputRows, pokud je kódgen zakázán
- [SPARK-41148] [SC-116878] [CONNECT] [PYTHON] Implementace
DataFrame.dropna
aDataFrame.na.drop
- [SPARK-41217] [SC-116380] [SQL] Přidání třídy chyb
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875] [CONNECT] [PYTHON] Vylepšení prvku DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Homogenizace chování sparkSession.range()
- [SPARK-41306] [SC-116860] [CONNECT] Vylepšení dokumentace k protou výrazu Connect
- [SPARK-41280] [SC-116733] [CONNECT] Implementace datového rámce.tail
- [SPARK-41300] [SC-116751] [CONNECT] Schéma bez sady se interpretuje jako schéma.
- [SPARK-41255] [SC-116730] [SC-116695] [CONNECT] Přejmenování remotesparkSession
- [SPARK-41250] [SC-116788] [SC-116633] [CONNECT] [PYTHON] Datový rámec. toPandas by neměly vracet volitelný datový rámec pandas
- [SPARK-41291] [SC-116738] [CONNECT] [PYTHON]
DataFrame.explain
by měly tisknout a vracet žádné - [SPARK-41278] [SC-116732] [CONNECT] Vyčištění nepoužívaného atributu QualifiedAttribute ve výrazu.proto
- [SPARK-41097] [SC-116653] [JÁDRO] [SQL] [SS] [PROTOBUF] Odebrání redundantního převodu kolekce na základě kódu Scala 2.13
- [SPARK-41261] [SC-116718] [PYTHON] [SS] Oprava problému s aplikací ApplyInPandasWithState, pokud sloupce seskupovací klíče nejsou seřazené od nejstaršího pořadí
- [SPARK-40872] [SC-116717] [3.3] Záložní blok náhodného náhodného prohazování, pokud je blok náhodného náhodného prohazování sloučený s vložením nulové velikosti
- [SPARK-41114] [SC-116628] [CONNECT] Podpora místních dat pro LocalRelation
- [SPARK-41216] [SC-116678] [CONNECT] [PYTHON] Implementovat
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670] [CONNECT] [PYTHON] Podpora více předdefinovaných datových typů
- [SPARK-41230] [SC-116674] [CONNECT] [PYTHON] Odebrat
str
z typu agregačního výrazu - [SPARK-41224] [SC-116652] [SPARK-41165] [SPARK-41184] [CONNECT] Optimalizovaná implementace shromažďování na základě šipky pro streamování ze serveru do klienta
- [SPARK-41222] [SC-116625] [CONNECT] [PYTHON] Sjednocení definic psaní
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Zakažte nepodporované funkce.
- [SPARK-41201] [SC-116526] [CONNECT] [PYTHON] Implementace
DataFrame.SelectExpr
v klientovi Pythonu - [SPARK-41203] [SC-116258] [CONNECT] Podpora objektu Dataframe.tansform v klientovi Pythonu
- [SPARK-41213] [SC-116375] [CONNECT] [PYTHON] Implementace
DataFrame.__repr__
aDataFrame.dtypes
- [SPARK-41169] [SC-116378] [CONNECT] [PYTHON] Implementovat
DataFrame.drop
- [SPARK-41172] [SC-116245] [SQL] Migrace nejednoznačné chyby ref do třídy chyb
- [SPARK-41122] [SC-116141] [CONNECT] Vysvětlení rozhraní API může podporovat různé režimy
- [SPARK-41209] [SC-116584] [SC-116376] [PYTHON] Zlepšení odvození typu PySpark v metodě _merge_type
- [SPARK-41196] [SC-116555] [SC-116179] [CONNECT] Homogenizace verze protobuf napříč serverem pro připojení Sparku, aby používala stejnou hlavní verzi.
- [SPARK-35531] [SC-116409] [SQL] Aktualizace statistik tabulek Hive bez zbytečného převodu
- [SPARK-41154] [SC-116289] [SQL] Nesprávné ukládání relačních do mezipaměti pro dotazy se specifikací časového cestování
- [SPARK-41212] [SC-116554] [SC-116389] [CONNECT] [PYTHON] Implementovat
DataFrame.isEmpty
- [SPARK-41135] [SC-116400] [SQL] Přejmenovat
UNSUPPORTED_EMPTY_LOCATION
naINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265] [SQL] Přidání rozhraní API rozšíření pro plánování normalizace pro ukládání do mezipaměti
- [SPARK-41054] [SC-116447] [UŽIVATELSKÉ ROZHRANÍ] [JÁDRO] Podpora RocksDB jako KVStore v živém uživatelském rozhraní
- [SPARK-38550] [SC-115223] Vrátit zpět [SQL][CORE] K uložení dalších informací o ladění pro živé uživatelské rozhraní použijte úložiště založené na disku.
- [SPARK-41173] [SC-116185] [SQL] Přesunutí
require()
z konstruktorů řetězcových výrazů - [SPARK-41188] [SC-116242] [JÁDRO] [ML] Nastavení exekutoruEnv OMP_NUM_THREADS na spark.task.cpus ve výchozím nastavení pro procesy JVM exekutoru Sparku
- [SPARK-41130] [SC-116155] [SQL] Přejmenovat
OUT_OF_DECIMAL_TYPE_RANGE
naNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238] [SQL] Přiřazení názvu ke třídě chyb _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073] [SQL] Omezení převodu kolekce při vytváření AtributMap
- [SPARK-41139] [SC-115983] [SQL] Zlepšení třídy chyb:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997] [PROTOBUF] Vyžadování stínování pro soubor JAR třídy Java, zlepšení zpracování chyb
- [SPARK-40999] [SC-116168] Šíření nápovědy do poddotazů
- [SPARK-41017] [SC-116054] [SQL] Podpora vyřazování sloupců s několika nedeterministickými filtry
- [SPARK-40834] [SC-114773] [SQL] Sledování konečného stavu SQL v uživatelském rozhraní pomocí SparkListenerSQLExecutionEnd
- [SPARK-41118] [SC-116027] [SQL]
to_number
/try_to_number
měla by se vrátitnull
, pokud je formátnull
- [SPARK-39799] [SC-115984] [SQL] DataSourceV2: Zobrazení rozhraní katalogu
- [SPARK-40665] [SC-116210] [SC-112300] [CONNECT] Vyhněte se vkládání Spark Connect v binární verzi Apache Sparku
- [SPARK-41048] [SC-116043] [SQL] Vylepšení dělení a řazení výstupu pomocí mezipaměti AQE
- [SPARK-41198] [SC-116256] [SS] Oprava metrik v dotazu streamování s zdrojem streamování CTE a DSv1
- [SPARK-41199] [SC-116244] [SS] Oprava potíží s metrikami při spoluužívaném zdroji streamování DSv1 a zdroje streamování DSv2
- [SPARK-40957] [SC-116261] [SC-114706] Přidání mezipaměti paměti v HDFSMetadataLogu
- [SPARK-40940] Vrátit zpět "[SC-115993] Odebrat kontrolu vícestavových operátorů pro dotazy streamování."
- [SPARK-41090] [SC-116040] [SQL] Vyvolání výjimky
db_name.view_name
při vytváření dočasného zobrazení pomocí rozhraní API datové sady - [SPARK-41133] [SC-116085] [SQL] Integrace
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
doNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182] [SC-111442] [CONNECT] Potvrzení výpisu kódu 9
- [SPARK-40448] [SC-114447] [SC-111314] [CONNECT] Spark Connect build as Driver Plugin with Shaded Dependencies
- [SPARK-41096] [SC-115812] [SQL] Podpora čtení typu parquet FIXED_LEN_BYTE_ARRAY
- [SPARK-41140] [SC-115879] [SQL] Přejmenování třídy
_LEGACY_ERROR_TEMP_2440
chyb naINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438] [SQL] Neshoda mezi FileSourceScanExec a Orc a ParquetFileFormat při vytváření sloupcového výstupu
- [SPARK-41155] [SC-115991] [SQL] Přidání chybové zprávy do schemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Odeberte kontroly vícestavových operátorů pro dotazy streamování.
- [SPARK-41098] [SC-115790] [SQL] Přejmenovat
GROUP_BY_POS_REFERS_AGG_EXPR
naGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912] [SQL] Selhání kontroly typů migrace čísel na třídy chyb
- [SPARK-41059] [SC-115658] [SQL] Přejmenovat
_LEGACY_ERROR_TEMP_2420
naNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662] [SQL] Převést DATATYPE_MISMATCH UNSPECIFIED_FRAME na INTERNAL_ERROR
- [SPARK-40973] [SC-115132] [SQL] Přejmenovat
_LEGACY_ERROR_TEMP_0055
naUNCLOSED_BRACKETED_COMMENT
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 12.1.
Prostředí systému
- Operační systém: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
krásnásoup4 | 4.11.1 | černý | 22.3.0 | bělit | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kliknutí | 8.0.4 | kryptografie | 3.4.8 | cyklista | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | ladění | 1.5.1 |
dekoratér | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | vstupní body | 0,4 | vykonávající | 0.8.3 |
přehled omezujících vlastností | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 |
verizonsolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | špatně zamyšlení | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
poznámkový blok | 6.4.8 | numpy | 1.21.5 | balení | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Polštář | 9.0.1 | jádro | 21.2.4 |
platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
čistý-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
žádosti | 2.27.1 | requests-unixsocket | 0.2.0 | lano | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Šest | 1.16.0 | polévky | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | houževnatost | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornádo | 6.1 |
vlastnosti | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
bezobslužné upgrady | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
kolo | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku Microsoft CRAN 11.11.2022.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šipka | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
backporty | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bitové | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
startování | 1.3-28 | vařit | 1.0-8 | verva | 1.1.3 |
koště | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
volající | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-20 | Rozhraní příkazového řádku | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-18 | barevný prostor | 2.0-3 | commonmark | 1.8.1 |
– kompilátor | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
pastelka | 1.5.2 | přihlašovací údaje | 1.3.2 | kudrna | 4.3.3 |
data.table | 1.14.4 | Power BI | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | trávit | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
tři tečky | 0.3.2 | evaluate | 0,18 | fanynky | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | zahraniční | 0.8-82 |
kovat | 0.2.0 | Fs | 1.5.2 | budoucnost | 1.29.0 |
future.apply | 1.10.0 | kloktadlo | 1.2.1 | Generik | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globálních objektů | 0.16.1 |
lepidlo | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | Grafika | 4.2.2 | grDevices | 4.2.2 |
mřížka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | bezpečnostní přilba | 1.2.0 | útočiště | 2.5.1 |
highr | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iterátory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | pletení | 1,40 |
značení | 0.4.2 | později | 1.3.0 | mříž | 0.20-45 |
láva | 1.7.0 | lifecycle | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | sleva | 1.3 |
MŠE | 7.3-58 | Matice | 1.5-1 | memoise | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
paralelně | 1.32.1 | pilíř | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | chválit | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Průběh | 1.2.2 |
progressr | 0.11.0 | sliby | 1.2.0.1 | proto | 1.0.0 |
plná moc | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | Analýza rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recepty | 1.0.3 |
odvetný zápas | 1.0.1 | rematch2 | 2.1.2 | vzdálená zařízení | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | drzá napodobenina | 0.4.2 | váhy | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | tvar | 1.4.6 |
lesklý | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | prostorový | 7.3-11 | spline křivky | 4.2.2 |
sqldf | 0.4-11 | ČTVEREC | 2021.1 | statistické údaje | 4.2.2 |
Statistiky 4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
přežití | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | časový interval | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | Uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | podpora aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní native_ref javy | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní native_system javy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metriky – jádro | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty- common | 4.1.74.Final |
io.netty | obslužná rutina netty | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | kódování parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | cílové skupiny a poznámky | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | pokračování jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | žerzejové společné | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podložky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |