Modul runtime 1.2
Microsoft Fabric Runtime je platforma integrovaná v Azure založená na Apache Sparku, která umožňuje spouštění a správu prostředí přípravy dat a datových věd. Tento dokument se zabývá komponentami a verzemi modulu runtime 1.2.
Microsoft Fabric Runtime 1.2 je nejnovější verze modulu runtime GA. Mezi hlavní komponenty modulu Runtime 1.2 patří:
- Apache Spark 3.4.1
- Operační systém: Mariner 2.0
- Java: 11
- Scala: 2.12.17
- Python: 3.10
- Delta Lake: 2.4.0
- R: 4.2.2
Microsoft Fabric Runtime 1.2 obsahuje kolekci výchozích balíčků na úrovni, včetně úplné instalace Anaconda a běžně používaných knihoven pro Javu/Scala, Python a R. Tyto knihovny se automaticky zahrnou při používání poznámkových bloků nebo úloh na platformě Microsoft Fabric. Úplný seznam knihoven najdete v dokumentaci. Microsoft Fabric pravidelně nasadí aktualizace údržby pro modul Runtime 1.2 a poskytuje opravy chyb, vylepšení výkonu a opravy zabezpečení. Udržování aktuálnosti zajišťuje optimální výkon a spolehlivost úloh zpracování dat.
Nové funkce a vylepšení Verze Sparku 3.4.1
Apache Spark 3.4.0 je pátou verzí na řádku 3.x. Tato verze, řízená opensourcovou komunitou, vyřešila více než 2 600 lístků Jira. Představuje klienta Pythonu pro Spark Připojení, vylepšuje strukturované streamování pomocí asynchronního sledování průběhu a stavového zpracování Pythonu. Rozšiřuje pokrytí rozhraní API Pandas s podporou vstupu NumPy, zjednodušuje migraci z tradičních datových skladů prostřednictvím dodržování předpisů ANSI a nových integrovaných funkcí. Zlepšuje také produktivitu vývoje a možnosti ladění pomocí profilace paměti. Modul runtime 1.2 je navíc založený na Apache Sparku 3.4.1, což je verze údržby zaměřená na opravy stability.
Hlavní přednosti
- Implementace podpory výchozích hodnot pro sloupce v tabulkách (SPARK-38334)
- Podpora ČASOVÉHO RAZÍTKA BEZ datového typu TIMEZONE (SPARK-35662)
- Podpora odkazů na laterální aliasy sloupců (SPARK-27561)
- Posílení využití SQLSTATE pro třídy chyb (SPARK-41994)
- Povolení spojení s filtry Bloom ve výchozím nastavení (SPARK-38841)
- Lepší škálovatelnost uživatelského rozhraní Sparku a stabilita ovladačů pro velké aplikace (SPARK-41053)
- Sledování asynchronního průběhu ve strukturovaném streamování (SPARK-39591)
- Libovolné stavové zpracování Pythonu ve strukturovaném streamování (SPARK-40434)
- Vylepšení pokrytí rozhraní API Pandas (SPARK-42882) a podpora vstupu NumPy v PySparku (SPARK-39405)
- Poskytnutí profileru paměti pro uživatelem definované funkce PySpark (SPARK-40281)
- Implementace distributora PyTorch (SPARK-41589)
- Publikování artefaktů SBOM (softwarové vyúčtování materiálů) (SPARK-41893)
- Implementace podpory výchozích hodnot pro sloupce v tabulkách (SPARK-38334)
- Podpora parametrizovaného SQL (SPARK-41271, SPARK-42702)
- Implementace podpory výchozích hodnot pro sloupce v tabulkách (SPARK-38334)
- Přidání Dataset.as(StructType) (SPARK-39625)
- Podpora parametrizovaného SQL (SPARK-41271, SPARK-42702)
- Přidání nepřekontání nebo roztavení (SPARK-38864, SPARK-39876)
- Podpora odkazů na laterální aliasy sloupců (SPARK-27561)
- Klauzule posunu výsledku podpory (SPARK-28330, SPARK-39159)
- Časové razítko podpory bez datového typu časového pásma (SPARK-35662)
- Podpora skalárních poddotazů v časovém cestování (SPARK-39306)
- Zajištění kompatibility rozhraní API katalogu s 3vrstvým oborem názvů (SPARK-39235)
- Časové razítko podpory v sekundách pro TimeTravel pomocí možností datového rámce (SPARK-39633)
- Přidání SparkSession.config(Mapa) (SPARK-40163)
- Podpora změny výchozí databáze katalogu relací (SPARK-35242)
- Podpora Protobuf pro Spark – from_protobuf AND to_protobuf (SPARK-40654)
- Přidání klauzule WHEN NOT MATCHED BY SOURCE pro MERGE INTO (SPARK-40921)
- Uvolnění omezení řazení pro možnosti sloupce CREATE TABLE (SPARK-40944)
- Ekvivalent SQL pro příkaz přepsání datového rámce (SPARK-40956)
- Podpora generování bez požadovaného podřízeného výstupu pro hostování vnějších odkazů (SPARK-41441)
- ORDER BY ALL (SPARK-41637)
- GROUP BY ALL (SPARK-41635)
- Přidání flatMapSortedGroups a cogroupSorted (SPARK-38591)
- Podpora poddotazů s korelovanými predikáty bez rovnosti (SPARK-36114)
- Podpora poddotazů s korelací prostřednictvím UNION/INTERSECT/EXCEPT (SPARK-36124)
- Oprava chyby OOM se nedá hlásit, když AQE (adaptivní spouštění dotazů) ve Sparku 42290
- Oprava logiky oříznutí nezpracovala správně řídicí znaky ASCII (SPARK-44383)
- Dataframe.joinWith outer-join by měla vrátit hodnotu null pro řádek bez porovnání (SPARK-37829)
- Pomocí nástrojů získáte přepínač pro dynamické přidělování používané v místním kontrolním bodu (SPARK-42421).
- Přidání výjimky CapturedException do nástrojů (SPARK-42078)
- Podpora FUNKCE SELECT DEFAULT s FUNKCÍ ORDER BY, LIMIT, OFFSET pro vložení zdrojové relace (SPARK-43071)
- Klient Pythonu pro Spark Připojení (SPARK-39375)
Přečtěte si úplnou verzi poznámky k verzi pro konkrétní verzi Apache Sparku, a to tak , že navštívíte Spark 3.4.0 i Spark 3.4.1.
Nové vlastní optimalizace dotazů
Podpora souběžných zápisů ve Sparku
Při provádění paralelních vložení dat do stejné tabulky pomocí dotazu SQL INSERT INTO dochází k chybě 404 se zprávou Operace selhala: Zadaná cesta neexistuje. Tato chyba může vést ke ztrátě dat. Naše nová funkce, algoritmus potvrzení výstupu souboru, tento problém řeší, což zákazníkům umožňuje bezproblémově provádět paralelní vkládání dat.
Pokud chcete získat přístup k této funkci, povolte spark.sql.enable.concurrentWrites
příznak funkce, který je ve výchozím nastavení povolený od modulu Runtime 1.2 (Spark 3.4). I když je tato funkce dostupná i v jiných verzích Sparku 3, není ve výchozím nastavení povolená. Tato funkce nepodporuje paralelní provádění dotazů INSERT OVERWRITE, kde každá souběžná úloha přepisuje data v různých oddílech stejné tabulky dynamicky. Pro tento účel Nabízí Spark alternativní funkci, kterou je možné aktivovat konfigurací spark.sql.sources.partitionOverwriteMode
nastavení na dynamickou.
Inteligentní čtení, která přeskočí soubory z neúspěšných úloh
Pokud v aktuálním systému potvrzení Sparku selže vložení do úlohy tabulky, ale některé úkoly jsou úspěšné, soubory vygenerované úspěšnými úkoly společně se soubory z neúspěšné úlohy. Tato koexistence může uživatelům způsobit nejasnost, protože je obtížné rozlišovat mezi soubory patřícími k úspěšným a neúspěšných úlohách. Navíc, když jedna úloha čte z tabulky, zatímco jiná vkládá data souběžně do stejné tabulky, může úloha čtení přistupovat k nepotvrzeným datům. Pokud úloha zápisu selže, může úloha čtení zpracovat nesprávná data.
Příznak spark.sql.auto.cleanup.enabled
řídí naši novou funkci a řeší tento problém. Pokud je tato možnost povolená, Spark automaticky přeskočí čtení souborů, které nebyly potvrzeny při provádění spark.read
nebo výběru dotazů z tabulky. Soubory zapsané před povolením této funkce se budou dál číst jako obvykle.
Tady jsou viditelné změny:
- Všechny soubory teď v názvu souboru obsahují
tid-{jobID}
identifikátor. _success
Místo značky obvykle vytvořené ve výstupním umístění po úspěšném dokončení úlohy se vygeneruje nová_committed_{jobID}
značka. Tato značka přidruží úspěšná ID úloh k určitým názvům souborů.- Zavedli jsme nový příkaz SQL, který uživatelé můžou pravidelně spouštět za účelem správy úložiště a čištění nepotvrzených souborů. Syntaxe tohoto příkazu je následující:
- Vyčištění konkrétního adresáře:
CLEANUP ('/path/to/dir') [RETAIN number HOURS];
- Vyčištění konkrétní tabulky:
CLEANUP [db_name.]table_name [RETAIN number HOURS];
V této syntaxi představuje identifikátor URI umístění,path/to/dir
ve kterém je vyžadováno vyčištění, anumber
jedná se o hodnotu typu typu double představující dobu uchování. Výchozí doba uchovávání je nastavená na sedm dnů.
- Vyčištění konkrétního adresáře:
- Zavedli jsme novou možnost konfigurace s názvem
spark.sql.deleteUncommittedFilesWhileListing
, která je ve výchozím nastavení nastavenáfalse
. Povolením této možnosti dojde k automatickému odstranění nepotvrzených souborů během čtení, ale tento scénář může zpomalit operace čtení. Pokud je cluster nečinný, doporučujeme ručně spustit příkaz pro vyčištění místo povolení tohoto příznaku.
Průvodce migrací z modulu runtime 1.1 do modulu runtime 1.2
Při migraci z modulu runtime 1.1 s využitím Apache Sparku 3.3 na modul runtime 1.2 s využitím Apache Sparku 3.4 si projděte oficiálního průvodce migrací. Tady jsou klíčové zvýraznění:
Základ
- Vzhledem k tomu, že Spark 3.4, ovladač Sparku vlastní
PersistentVolumnClaim
a pokusí se znovu použít, pokud nejsou přiřazené k živým exekutorům. Chcete-li obnovit chování před Spark 3.4, můžete nastavitspark.kubernetes.driver.ownPersistentVolumeClaim
false
aspark.kubernetes.driver.reusePersistentVolumeClaim
nafalse
hodnotu . - Od Sparku 3.4 ovladač Sparku sleduje data náhodného prohazování, když je povolené dynamické přidělování bez služby náhodného náhodného prohazování. Pokud chcete obnovit chování před Sparkem 3.4, můžete nastavit
spark.dynamicAllocation.shuffleTracking.enabled
nafalse
hodnotu . - Vzhledem k tomu, že Spark 3.4, se Spark pokusí vyřadit sadu RDD (odolnou distribuovanou datovou sadu) z mezipaměti a zamíchá bloky, pokud jsou splněné a
spark.decommission.enabled
spark.storage.decommission.enabled
jsou pravdivé. Pokud chcete obnovit chování před Sparkem 3.4, můžete nastavit obojíspark.storage.decommission.rddBlocks.enabled
ispark.storage.decommission.shuffleBlocks.enabled
nafalse
hodnotu . - Vzhledem k tomu, že Spark 3.4, Spark používá úložiště RocksDB, pokud
spark.history.store.hybridStore.enabled
je true. Pokud chcete obnovit chování před Sparkem 3.4, můžete nastavitspark.history.store.hybridStore.diskBackend
naLEVELDB
hodnotu .
PySpark
- Ve Sparku 3.4 je schéma sloupce pole odvozeno sloučením schémat všech prvků v poli. Chcete-li obnovit předchozí chování, ve kterém je schéma odvozeno pouze z prvního prvku, můžete nastavit
spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled
natrue
hodnotu . - Pokud ve Sparku 3.4 používáte pandas v rozhraní Spark API
Groupby.apply
, pokud není zadaný návratovýfunc
typ parametru acompute.shortcut_limit
je nastaven na hodnotu 0, počet řádků vzorkování se automaticky nastaví na 2. Tato úprava zajišťuje, že vždy existují alespoň dva řádky vzorkování, aby se zachovala přesná odvození schématu. - Pokud je v rozhraní Spark 3.4 knihovna Pandas v rozhraní Spark API
Index.insert
mimo hranice, vyvolá indexError sindex {} is out of bounds for axis 0 with size {}
cílem sledovat chování pandas 1.4. - Ve Sparku 3.4 se název řady zachová v Knihovně Pandas v rozhraní Spark API
Series.mode
, aby byl v souladu s chováním pandas 1.4. - Ve Sparku 3.4 typ první kontroly
value
rozhraní Pandas v rozhraní Spark APIIndex.__setitem__
jeColumn
typ, aby se zabránilo neočekávanému vyvolání neočekávanýchValueError
výrazů,is_list_like
jako je Can't convert column into bool: use '&' for 'and', '|' for 'or', '~' for 'not' při vytváření logických výrazů datového rámce.) - Ve Sparku 3.4 se knihovna Pandas v rozhraní Spark API
astype('category')
aktualizuje takécategories.dtype
podle původních datdtype
, aby sledovala chování pandas 1.4. - Ve Sparku 3.4 podporuje Pandas v rozhraní Spark API skupinu pomocí indexování
GroupBy.head
umístění aGroupBy.tail
sledování pandas 1.4. Záporné argumenty teď fungují správně a výsledkem jsou oblasti vzhledem ke konci a začátku každé skupiny. Dříve vrátily záporné argumenty prázdné rámce. - Ve Sparku 3.4 odvozuje proces schématu
groupby.apply
v Pandas ve Sparku nejprve typ pandas, aby se zajistila co největší přesnost pandasdtype
. - Ve Sparku 3.4
Series.concat
se parametr řazení respektuje, aby sledoval chování knihovny pandas 1.4. - Ve Sparku 3.4
DataFrame.__setitem__
vytvoří kopii a nahradí existující pole, která nebudou přepsána tak, aby sledovala chování pandas 1.4. - Ve Sparku 3.4 získaly
SparkSession.sql
nové parametryargs
rozhraní APIsql
a Pandas ve Sparku, které poskytují vazbu pojmenovaných parametrů na literály SQL. - Ve Sparku 3.4 následuje rozhraní Pandas API ve Sparku pro knihovnu pandas 2.0 a některá rozhraní API byla ve Sparku 3.4 zastaralá nebo odebraná podle změn provedených v knihovně pandas 2.0. Další podrobnosti najdete v [poznámkách k verzi knihovny pandas](https://pandas.pydata.org/docs/dev/whatsnew/).
SQL, datové sady a datový rámec
- Vzhledem k tomu, že Spark 3.4, příkazy INSERT INTO s explicitním seznamem sloupců obsahujícím méně sloupců, než je cílová tabulka, automaticky přidá odpovídající výchozí hodnoty pro zbývající sloupce (nebo NULL pro libovolný sloupec, který nemá explicitně přiřazenou výchozí hodnotu). Ve Sparku 3.3 nebo starších by tyto příkazy selhaly a vrátily by chyby, které hlásí, že počet zadaných sloupců neodpovídá počtu sloupců v cílové tabulce. Zakázáním
spark.sql.defaultColumn.useNullsForMissingDefaultValues
se obnoví předchozí chování. - Vzhledem k tomu, že Spark 3.4, číslo nebo číslo(*) z Teradata se považuje za desetinné číslo (38 18). Ve Sparku 3.3 nebo starším se číslo nebo číslo(*) z Teradata považuje za desetinné číslo (38, 0), v takovém případě se desetinná část odebere.
- Vzhledem k tomu, že databáze Spark 3.4, v1, tabulka, trvalé zobrazení a identifikátor funkce obsahuje jako název katalogu "spark_catalog", pokud je definována databáze, například identifikátor tabulky je:
spark_catalog.default.t
. Chcete-li obnovit starší chování, nastavtespark.sql.legacy.v1IdentifierNoCatalog
hodnotutrue
. - Vzhledem k tomu, že Spark 3.4, pokud je zapnutý režim ANSI SQL (konfigurace
spark.sql.ansi.enabled
), Spark SQL vždy vrátí výsledek NULL při získání hodnoty mapy s neexistující klíčem. Ve Sparku 3.3 nebo starším došlo k chybě. - Vzhledem k tomu, že Spark 3.4, rozhraní příkazového řádku
spark-sql
SQL netiskne před chybovou zprávou předError in query:
chybovou zprávouAnalysisException
. - Vzhledem k tomu, že Spark 3.4,
split
funkce ignoruje koncové prázdné řetězce, pokudregex
je parametr prázdný. - Vzhledem k tomu, že Spark 3.4,
to_binary
funkce vyvolá chybu pro poškozenýstr
vstup. Umožňujetry_to_binary
tolerovat poškozený vstup a místo toho vrátit hodnotu NULL.- Platný
Base64
řetězec by měl obsahovat symboly zbase64
abecedy (A-Za-z0-9+/), volitelné odsazení (=
) a volitelné prázdné znaky. Prázdné znaky se při převodu přeskočí s výjimkou případů, kdy předchází symboly odsazení. Pokud je odsazení přítomno, měl by uzavřít řetězec a dodržovat pravidla popsaná v dokumentu RFC 4648 § 4. - Platné šestnáctkové řetězce by měly obsahovat pouze povolené symboly (0-9A-Fa-f).
- Platné hodnoty
fmt
nerozlišují malá a velká písmenahex
,base64
,utf-8
, .utf8
- Platný
- Vzhledem k tomu, že Spark 3.4, Spark vyvolá výjimku pouze
PartitionsAlreadyExistException
v případě, že vytváří oddíly, ale některé z nich už existují. Ve Sparku 3.3 nebo starším může Spark vyvolat buďPartitionsAlreadyExistException
neboPartitionAlreadyExistsException
. - Vzhledem k tomu, Spark 3.4, Spark ověří specifikace oddílu v ALTER PARTITION
spark.sql.storeAssignmentPolicy
chování , což může způsobit výjimku, pokud převod typu selže, napříkladALTER TABLE .. ADD PARTITION(p='a')
pokud sloupecp
je typu int. Chcete-li obnovit starší chování, nastavtespark.sql.legacy.skipTypeValidationOnAlterPartition
hodnotutrue
. - Vzhledem k tomu, že Spark 3.4, vektorizované čtenáře jsou ve výchozím nastavení povolené pro vnořené datové typy (pole, mapování a struktura). Chcete-li obnovit starší chování, nastavte
spark.sql.orc.enableNestedColumnVectorizedReader
aspark.sql.parquet.enableNestedColumnVectorizedReader
nastavtefalse
. - Vzhledem k tomu,
BinaryType
že Spark 3.4 není ve zdroji dat CSV podporovaný. Ve Sparku 3.3 nebo starších můžou uživatelé psát binární sloupce ve zdroji dat CSV, ale výstupní obsah v souborech CSV je , což jeObject.toString()
bezvýznamné. Pokud uživatelé čtou tabulky CSV s binárními sloupci, Spark vyvoláUnsupported type: binary
výjimku. - Vzhledem k tomu, že Spark 3.4, jsou ve výchozím nastavení povolená spojení s filtry kvetu. Chcete-li obnovit starší chování, nastavte
spark.sql.optimizer.runtime.bloomFilter.enabled
hodnotufalse
.
Strukturované streamování
- Vzhledem k tomu,
Trigger.Once
že Spark 3.4 je zastaralý a uživatelům se doporučuje migrovat zTrigger.Once
Trigger.AvailableNow
. Další podrobnosti najdete v spark-39805. - Vzhledem k tomu, že Spark 3.4, výchozí hodnota konfigurace pro načítání posunu Kafka (
spark.sql.streaming.kafka.useDeprecatedOffsetFetching
) se změní ztrue
nafalse
. Výchozí nastavení už nespočítá v plánování na základě skupin příjemců, což má vliv na požadovaný seznam ACL. Další informace najdete v tématu Integrace kafka strukturovaného streamování.
Nové funkce a vylepšení Delta Lake 2.4
Delta Lake je opensourcový projekt , který umožňuje vytvořit architekturu jezera nad datovými jezery. Delta Lake poskytuje transakce ACID, škálovatelné zpracování metadat a sjednocuje zpracování streamovaných a dávkových dat nad stávajícími datovými jezery.
Konkrétně Delta Lake nabízí:
- Transakce ACID ve Sparku: Serializovatelné úrovně izolace zajišťují, aby čtenáři nikdy neviděli nekonzistentní data.
- Škálovatelné zpracování metadat: Využívá výkon distribuovaného zpracování Sparku ke zpracování všech metadat pro petabajtové tabulky s miliardami souborů.
- Sjednocení streamování a dávek : Tabulka v Delta Lake je dávková tabulka a zdroj streamování a jímka. Streamování ingestování dat, dávkové historické backfillování, interaktivní dotazy fungují jenom mimo kancelář.
- Vynucení schématu: Automaticky zpracovává varianty schématu, aby se zabránilo vkládání chybných záznamů během příjmu dat.
- Doba trvání: Správa verzí dat umožňuje vrácení zpět, úplné historické záznamy auditu a reprodukovatelné experimenty strojového učení.
- Upserty a odstranění: Podporuje operace sloučení, aktualizace a odstranění, které umožňují složité případy použití, jako jsou změny dat- zachytávání, pomalu se měnící operace dimenze (SCD), upserty streamování atd.
Klíčové funkce v této verzi jsou následující:
- Podpora Apache Sparku 3.4
- Podpora psaní vektorů odstranění pro
DELETE
příkaz. Dříve se při odstraňování řádků z tabulky Delta přepsaly všechny soubory s alespoň jedním odpovídajícím řádkem. Díky vektorům odstranění se těmto drahým přepisům můžete vyhnout. Další podrobnosti najdete v tématu Co jsou vektory odstranění? - Podpora všech operací zápisu v tabulkách s povolenými vektory odstranění
- Podpora
PURGE
odebrání vektorů odstranění z aktuální verze tabulky Delta přepsáním všech datových souborů s vektory odstranění. Další podrobnosti najdete v dokumentaci. - Podpora čtení kanálu změn dat pro tabulky s povolenými vektory odstranění
- Podpora
REPLACE WHERE
výrazů v SQL k selektivnímu přepsání dat Dříve byly možnosti replaceWhere podporovány pouze v rozhraních DATAFrameWriter API. - Klauzule podpory
WHEN NOT MATCHED BY SOURCE
v SQL pro příkaz Merge. - Podpora vynechání vygenerovaných sloupců ze seznamu sloupců pro dotazy SQL
INSERT INTO
Delta automaticky vygeneruje hodnoty pro všechny nezadané vygenerované sloupce. - Podpora datového typu přidaného
TimestampNTZ
ve Sparku 3.3 PoužitíTimestampNTZ
vyžaduje upgrade protokolu Delta. Další informace najdete v dokumentaci . - Povolte změnu typu
char
sloupce nebovarchar
sloupce na kompatibilní typ vALTER TABLE
příkazu. Nové chování je stejné jako v Apache Sparku a umožňuje přesílání zchar
nebovarchar
do nebostring
.varchar
- Zablokujte použití
overwriteSchema
s dynamickým přepsáním oddílu. Tento scénář může poškodit tabulku, protože ne všechna data je možné odebrat a schéma nově zapsaných oddílů nemůže odpovídat schématu nezměněných oddílů. - Pokud nejsou v zadaném časovém razítku v zadaném časovém razítku k dispozici žádné potvrzení, vraťte prázdnou
DataFrame
hodnotu pro čtení datového kanálu změn. Dříve byla vyvolán chyba. - Opravte chybu ve čtení kanálu změn dat pro záznamy vytvořené během nejednoznačné hodiny, když dojde k letnímu času.
- Opravte chybu, kdy dotazování externí tabulky Delta v kořenovém adresáři kontejneru S3 vyvolá chybu.
- Odeberte z protokolu Delta interní metadata Sparku, aby všechny ovlivněné tabulky byly znovu čitelné.
Přečtěte si úplnou verzi poznámky k verzi pro Delta Lake 2.4.
Výchozí balíčky na úrovni pro knihovny Java/Scala
Následující tabulka uvádí všechny výchozí balíčky na úrovni pro Javu/Scalu a jejich odpovídající verze.
Groupid | ArtifactId | Verze |
---|---|---|
com.aliyun | aliyun-java-sdk-core | 4.5.10 |
com.aliyun | aliyun-java-sdk-kms | 2.11.0 |
com.aliyun | aliyun-java-sdk-ram | 3.1.0 |
com.aliyun | aliyun-sdk-oss | 3.13.0 |
com.amazonaws | aws-java-sdk-bundle | 1.12.262 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml.jackson | jackson-annotations | 2.14.2 |
com.fasterxml.jackson | jackson-core | 2.14.2 |
com.fasterxml.jackson | jackson-core-asl | 1.9.13 |
com.fasterxml.jackson | jackson-databind | 2.14.2 |
com.fasterxml.jackson | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson | jackson-mapper-asl | 1.9.13 |
com.fasterxml.jackson | jackson-module-scala_2.12 | 2.14.2 |
com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.vowpalwabbit | vw-jni | 9.3.0 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.cloud.bigdataoss | Konektor gcs | hadoop3-2.2.11 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.2.4 |
com.google.crypto.tink | Tink | 1.7.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | Guava | 14.0.1 |
com.google.protobuf | protobuf-java | 2.5.0 |
com.googlecode.json-simple | json-simple | 1.1.1 |
com.jcraft | jsch | 0.1.54 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.linkedin.isolation-forest | izolace forest_3.2.0_2.12 | 2.0.8 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.azure | azure-eventhubs | 3.3.0 |
com.microsoft.azure | azure-eventhubs-spark_2.12 | 2.3.22 |
com.microsoft.azure | azure-keyvault-core | 1.0.0 |
com.microsoft.azure | azure-storage | 7.0.1 |
com.microsoft.azure | cosmos-analytics-spark-3.4.1-connector_2.12 | 1.8.10 |
com.microsoft.azure | qpid-proton-j-extensions | 1.2.4 |
com.microsoft.azure | synapseml_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-cognitive_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-core_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-deep-learning_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-internal_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-lightgbm_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-opencv_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure | Synapseml-vw_2.12 | 0.11.2-spark3.4 |
com.microsoft.azure.kusto | Kusto-data | 3.2.1 |
com.microsoft.azure.kusto | Kusto-ingest | 3.2.1 |
com.microsoft.azure.kusto | kusto-spark_3.0_2.12 | 3.1.16 |
com.microsoft.azure.kusto | spark-kusto-synapse-connector_3.1_2.12 | 1.3.3 |
com.microsoft.cognitiveservices.speech | client-jar-sdk | 1.14.0 |
com.microsoft.sqlserver | msslq-jdbc | 8.4.1.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.typesafe | config | 1.3.4 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 2.5.1 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4.jar |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-core_2.12 | 2.4.0 |
io.delta | delta-storage | 2.4.0 |
io.dropwizard.metrics | metriky – jádro | 4.2.15 |
io.dropwizard.metrics | metrics-graphite | 4.2.15 |
io.dropwizard.metrics | metrics-jmx | 4.2.15 |
io.dropwizard.metrics | metrics-json | 4.2.15 |
io.dropwizard.metrics | metrics-jvm | 4.2.15 |
io.github.resilience4j | resilience4j-core | 1.7.1 |
io.github.resilience4j | resilience4j-retry | 1.7.1 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-http-4 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty- common | 4.1.87.Final |
io.netty | obslužná rutina netty | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.opentracing | opentracing-api | 0.33.0 |
io.opentracing | opentracing-noop | 0.33.0 |
io.opentracing | opentracing-util | 0.33.0 |
io.spray | stříkání json_2.12 | 1.3.5 |
io.vavr | vavr | 0.10.4 |
io.vavr | Shoda vavr | 0.10.4 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.inject | jakarta.inject | 2.6.1 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation-api | 2.0.2 | |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
jakarta.xml.bind | jakarta.xml.bind-api | 2.3.2 |
javax.activation | aktivace | 1.1.1 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.2 |
mysql | mysql-connector-java | 8.0.18 |
net.razorvine | Lák | 1.3 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.py4j | py4j | 0.10.9.7 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.apache.arrow | arrow-format | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | arrow-vector | 11.0.0 |
org.apache.avro | Avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.22 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-pool2 | 2.11.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-aliyun | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-annotations | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-aws | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-azure-datalake | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-api | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-cloud-storage | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-openstack | 3.3.4.5.3-105251583 |
org.apache.hadoop | hadoop-shaded-guava | 1.1.1 |
org.apache.hadoop | hadoop-yarn-server-web-proxy | 3.3.4.5.3-105251583 |
org.apache.hive | Hive – společné | 2.3.9 |
org.apache.hive | hive-exec | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-metastore | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims-0.23 | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-shims-common | 2.3.9 |
org.apache.hive | hive-shims-scheduler | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.httpcomponents | httpmime | 4.5.14 |
org.apache.httpcomponents.client5 | httpclient5 | 5.1.3 |
org.apache.iceberg | delta-iceberg | 2.4.0.6 |
org.apache.ivy | Ivy | 2.5.1 |
org.apache.kafka | Kafka-clients | 3.3.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.19.0 |
org.apache.orc | orc-core | 1.8.4 |
org.apache.orc | orc-mapreduce | 1.8.4 |
org.apache.orc | orc-shims | 1.8.4 |
org.apache.parquet | parquet-column | 1.12.3 |
org.apache.parquet | parquet-common | 1.12.3 |
org.apache.parquet | kódování parquet | 1.12.3 |
org.apache.parquet | parquet-format-structures | 1.12.3 |
org.apache.parquet | parquet-hadoop | 1.12.3 |
org.apache.parquet | parquet-jackson | 1.12.3 |
org.apache.qpid | proton-j | 0.33.8 |
org.apache.spark | spark-avro_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-catalyst_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-core_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-graphx_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hadoop-cloud_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-hive_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-kvstore_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-launcher_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-mllib-local_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-common_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-network-shuffle_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-repl_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sketch_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-sql-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-streaming-kafka-0-10-assembly_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-tags_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-token-provider-kafka-0-10_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-unsafe_2.12 | 3.4.1.5.3-105251583 |
org.apache.spark | spark-yarn_2.12 | 3.4.1.5.3-105251583 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | cílové skupiny a poznámky | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.3.5.3-105251583 |
org.apache.zookeeper | zookeeper-jute | 3.6.3.5.3-105251583 |
org.apiguardian | apiguardian-api | 1.1.0 |
org.codehaus.janino | commons-compiler | 3.1.9 |
org.codehaus.janino | Janino | 3.1.9 |
org.codehaus.jettison | jettison | 1,1 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleusjavax.jdo | 3.2.0-m3 | |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | žerzejové společné | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.25.0-GA |
org.javatuples | Javatuples | 1.2 |
org.jdom | jdom2 | 2.0.6 |
org.jetbrains | Poznámky | 17.0.0 |
org.jodd | jodd-core | 3.5.2 |
org.json | json | 20210307 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.junit.jupiter | junit-jupiter | 5.5.2 |
org.junit.jupiter | junit-jupiter-api | 5.5.2 |
org.junit.jupiter | junit-jupiter-motor | 5.5.2 |
org.junit.jupiter | junit-jupiter-params | 5.5.2 |
org.junit.platform | junit-platform-commons | 1.5.2 |
org.junit.platform | junit-platform-engine | 1.5.2 |
org.lz4 | lz4-java | 1.8.0 |
org.objenesis | objenesis | 3.2 |
org.openpnp | opencv | 3.2.0-1 |
org.opentest4j | opentest4j | 1.2.0 |
org.postgresql | postgresql | 42.2.9 |
org.roaringbitmap | RoaringBitmap | 0.9.38 |
org.roaringbitmap | Podložky | 0.9.38 |
org.rocksdb | rocksdbjni | 7.9.2 |
org.scala-lang | scala-compiler | 2.12.17 |
org.scala-lang | scala-library | 2.12.17 |
org.scala-lang | scala-reflect | 2.12.17 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.7.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 2.1.1 |
org.scala-lang.modules | scala-xml_2.12 | 2.1.0 |
org.scalactic | scalactic_2.12 | 3.2.14 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | Xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | spire_2.12 | 0.17.0 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial.snappy | snappy-java | 1.1.10.1 |
Oro | Oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
stax | stax-api | 1.0.1 |
Balíčky na výchozí úrovni pro Python
Následující tabulka uvádí všechny balíčky výchozí úrovně pro Python a jejich odpovídající verze.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
_libgcc_mutex | 0,1 | jupyter_client | 8.5.0 | pycosat | 0.6.6 |
_openmp_mutex | 4.5 | jupyter_core | 5.4.0 | pycparser | 2.21 |
_py-xgboost-mutex | 2.0 | jupyter_events | 0.8.0 | pydantic | 1.10.9 |
absl-py | 2.0.0 | jupyter_server | 2.7.3 | pygments | 2.16.1 |
adal | 1.2.7 | jupyter_server_terminals | 0.4.4 | pyjwt | 2.8.0 |
adlfs | 2023.4.0 | jupyterlab_pygments | 0.2.2 | pynacl | 1.5.0 |
aiohttp | 3.8.6 | jupyterlab_widgets | 3.0.9 | pyodbc | 4.0.39 |
aiosignal | 1.3.1 | keras | 2.12.0 | pyopenssl | 23.2.0 |
alembic | 1.12.0 | předběžné zpracování kerasu | 1.1.2 | pyparsing | 3.0.9 |
alsa-lib | 1.2.10 | keyutils | 1.6.1 | pyperclip | 1.8.2 |
ansi2html | 1.8.0 | verizonsolver | 1.4.5 | pypika | 0.48.9 |
anyio | 3.7.1 | krb5 | 1.21.2 | pyqt | 5.15.9 |
appdirs | 1.4.4 | Lame | 3.100 | pyqt5-sip | 12.12.2 |
argon2-cffi | 23.1.0 | lcms2 | 2.15 | Pysocks | 1.7.1 |
argon2-cffi-bindings | 21.2.0 | ld_impl_linux-64 | 2.40 | python | 3.10.12 |
šipka | 1.3.0 | lerc | 4.0.0 | python-dateutil | 2.8.2 |
asttokens | 2.4.0 | liac-arff | 2.5.0 | python-fastjsonschema | 2.18.1 |
astunparse | 1.6.3 | Libabseil | 20230125.3 | python-flatbuffers | 23.5.26 |
async-timeout | 4.0.3 | libaec | 1.1.2 | python-graphviz | 0.20.1 |
atk-1.0 | 2.38.0 | libarrow | 12.0.1 | python-json-logger | 2.0.7 |
attr | 2.5.1 | libbrotlicommon | 1.0.9 | python-tzdata | 2023.3 |
attrs | 23.1.0 | libbrotlidec | 1.0.9 | python-xxhash | 3.4.1 |
autopage | 0.5.2 | libbrotlienc | 1.0.9 | python_abi | 3,10 |
aws-c-auth | 0.7.3 | libcap | 2.69 | pythonnet | 3.0.1 |
aws-c-cal | 0.6.1 | libclang | 15.0.7 | pytorch | 2.0.1 |
aws-c-common | 0.9.0 | libclang13 | 15.0.7 | pytorch-mutex | 1.0 |
aws-c-compression | 0.2.17 | libcrc32c | 1.1.2 | pytz | 2023.3.post1 |
aws-c-event-stream | 0.3.1 | libcups | 2.3.3 | pyu2f | 0.1.5 |
aws-c-http | 0.7.11 | libcurl | 8.4.0 | pywin32-on-windows | 0.1.0 |
aws-c-io | 0.13.32 | libdeflate | 1.19 | pyyaml | 6.0.1 |
aws-c-mqtt | 0.9.3 | libebm | 0.4.3 | pyzmq | 25.1.1 |
aws-c-s3 | 0.3.14 | libedit | 3.1.20191231 | qt-main | 5.15.8 |
aws-c-sdkutils | 0.1.12 | libev | 4.33 | rdma-core | 28.9 |
aws-checksums | 0.1.17 | libevent | 2.1.12 | re2 | 2023.03.02 |
aws-crt-cpp | 0.21.0 | libexpat | 2.5.0 | Readline | 8.2 |
aws-sdk-cpp | 1.10.57 | libffi | 3.4.2 | referencing | 0.30.2 |
Azure-Core | 1.29.4 | libflac | 1.4.3 | Regex | 2023.8.8 |
azure-datalake-store | 0.0.51 | libgcc-ng | 13.2.0 | žádosti | 2.31.0 |
azure-identity | 1.14.1 | libgcrypt | 1.10.1 | requests-oauthlib | 1.3.1 |
azure-storage-blob | 12.18.3 | libgd | 2.3.3 | Opakování | 1.3.3 |
azure-storage-file-datalake | 12.12.0 | libgfortran-ng | 13.2.0 | rfc3339-validator | 0.1.4 |
backcall | 0.2.0 | libgfortran5 | 13.2.0 | rfc3986-validator | 0.1.1 |
zásady | 1.11.1 | libglib | 2.78.0 | rich | 13.6.0 |
Backports | 1.0 | libgoogle-cloud | 2.12.0 | rpds-py | 0.10.6 |
backports.functools_lru_cache | 1.6.5 | libgpg-error | 1.47 | rsa | 4,9 |
šifra | 4.0.1 | libgrpc | 1.54.3 | ruamel.yaml | 0.17.32 |
krásnásoup4 | 4.12.2 | libhwloc | 2.9.3 | ruamel.yaml.clib | 0.2.7 |
Blas | 1.0 | libiconv | 1.17 | ruamel_yaml | 0.15.80 |
Bělidla | 6.1.0 | libjpeg-turbo | 2.1.5.1 | s2n | 1.3.49 |
blikač | 1.6.3 | libllvm14 | 14.0.6 | sacremoses | 0.0.53 |
brotli | 1.0.9 | libllvm15 | 15.0.7 | salib | 1.4.7 |
brotli-bin | 1.0.9 | libnghttp2 | 1.52.0 | scikit-learn | 1.3.0 |
brotli-python | 1.0.9 | libnsl | 2.0.1 | scipy | 1.10.1 |
bzip2 | 1.0.8 | libnuma | 2.0.16 | seaborn | 0.12.2 |
c-ares | 1.20.1 | libogg | 1.3.4 | základna seaborn-base | 0.12.2 |
ca-certificates | 2023.7.22 | libopus | 1.3.1 | send2trash | 1.8.2 |
cached-property | 1.5.2 | libpng | 1.6.39 | větné transformátory | 2.0.0 |
cached_property | 1.5.2 | libpq | 15,4 | sentry-sdk | 1.32.0 |
cachetools | 5.3.2 | libprotobuf | 3.21.12 | seqeval | 1.2.2 |
Káhira | 1.18.0 | libpulsar | 3.2.0 | setproctitle | 1.3.3 |
catboost | 1.1.1 | librsvg | 2.56.3 | setuptools | 68.2.2 |
Certifi | 2023.7.22 | libsndfile | 1.2.2 | Shap | 0.42.1 |
cffi | 1.16.0 | libsodium | 1.0.18 | shellingham | 1.5.4 |
charset-normalizer | 3.3.1 | libsqlite | 3.43.2 | Sip | 6.7.12 |
chroma-hnswlib | 0.7.3 | libssh2 | 1.11.0 | Šest | 1.16.0 |
chromadb | 0.4.13 | libstdcxx-ng | 13.2.0 | Průřezu | 0.0.7 |
kliknutí | 8.1.7 | libsystemd0 | 254 | smmap | 5.0.0 |
Cliff | 4.2.0 | libthrift | 0.18.1 | Elegantní | 1.1.10 |
cloudpickle | 2.2.1 | libtiff | 4.6.0 | sniffio | 1.3.0 |
clr_loader | 0.2.6 | libtool | 2.4.7 | polévky | 2.5 |
cmaes | 0.10.0 | libutf8proc | 2.8.0 | sqlalchemy | 2.0.22 |
cmd2 | 2.4.3 | libuuid | 2.38.1 | sqlparse | 0.4.4 |
colorama | 0.4.6 | libuv | 1.46.0 | stack_data | 0.6.2 |
barevné protokoly | 15.0.1 | libvorbis | 1.3.7 | hvězdicová hvězda | 0.27.0 |
colorlog | 6.7.0 | libwebp | 1.3.2 | statsmodels | 0.14.0 |
Komunikace | 0.1.4 | libwebp-base | 1.3.2 | stevedore | 5.1.0 |
conda-package-handling | 2.2.0 | libxcb | 1.15 | sympy | 1.12 |
conda-package-streaming | 0.9.0 | libxgboost | 1.7.6 | tabulková tabulka | 0.9.0 |
configparser | 5.3.0 | libxkbcommon | 1.6.0 | Tbb | 2021.10.0 |
obrysová křivka | 1.1.1 | libxml2 | 2.11.5 | Houževnatost | 8.2.3 |
Kryptografie | 41.0.5 | libxslt | 1.1.37 | tensorboard | 2.12.3 |
Cyklovač | 0.12.1 | libzlib | 1.2.13 | tensorboard-data-server | 0.7.0 |
cython | 3.0.4 | lightgbm | 4.0.0 | tensorflow | 2.12.1 |
dash | 2.14.0 | Vápno | 0.2.0.1 | tensorflow-base | 2.12.1 |
dash-core-components | 2.0.0 | llvm-openmp | 17.0.3 | tensorflow-estimator | 2.12.1 |
dash-html-components | 2.0.0 | llvmlite | 0.40.1 | termcolor | 2.3.0 |
dash-table | 5.0.0 | lxml | 4.9.3 | terminado | 0.17.1 |
dash_cytoscape | 0.2.0 | lz4-c | 1.9.4 | threadpoolctl | 3.2.0 |
Databricks-cli | 0.18.0 | Mako | 1.2.4 | tiktoken | 0.5.1 |
datové třídy | 0,8 | Markdown | 3.4.4 | tinycss2 | 1.2.1 |
Power BI | 2.14.6 | markdown-it-py | 3.0.0 | Tk | 8.6.13 |
Dbus | 1.13.6 | markupsafe | 2.1.3 | tokenizátory | 0.13.3 |
ladění | 1.8.0 | matplotlib | 3.7.2 | toml | 0.10.2 |
Dekoratér | 5.1.1 | matplotlib-base | 3.7.2 | tomli | 2.0.1 |
defusedxml | 0.7.1 | matplotlib-inline | 0.1.6 | Toolz | 0.12.0 |
Kopr | 0.3.7 | mdurl | 0.1.0 | Tornádo | 6.3.3 |
diskcache | 5.6.3 | špatně zamyšlení | 3.0.1 | tqdm | 4.66.1 |
distlib | 0.3.7 | mkl | 2021.4.0 | vlastnosti | 5.12.0 |
docker-py | 6.1.3 | mkl-service | 2.4.0 | Transformátory | 4.26.0 |
docker-pycreds | 0.4.0 | mkl_fft | 1.3.1 | treeinterpreter | 0.2.2 |
vstupní body | 0,4 | mkl_random | 1.2.2 | typed-ast | 1.5.5 |
et_xmlfile | 1.1.0 | ml_dtypes | 0.3.1 | Typer | 0.9.0 |
exceptiongroup | 1.1.3 | mlflow-hubená | 2.6.0 | types-python-dateutil | 2.8.19.14 |
Provádění | 1.2.0 | monotónní | 1.5 | types-pytz | 2023.3.1.1 |
Expat | 2.5.0 | Mpc | 1.3.1 | typing_extensions | 4.5.0 |
fastapi | 0.103.2 | mpfr | 4.2.1 | typing_utils | 0.1.0 |
flaml | 2.1.1dev2 | mpg123 | 1.32.3 | tzdata | 2023c |
Baňky | 3.0.0 | mpmath | 1.3.0 | ucx | 1.14.1 |
flatbuffers | 23.5.26 | msal | 1.24.1 | unicodedata2 | 15.1.0 |
font-ttf-dejavu-sans-mono | 2.37 | msal_extensions | 1.0.0 | unixodbc | 2.3.12 |
font-ttf-inconsolata | 3.000 | multidict | 6.0.4 | uri-template | 1.3.0 |
font-ttf-source-code-pro | 2.038 | multiprocess | 0.70.15 | urllib3 | 1.26.17 |
font-ttf-ubuntu | 0.83 | munkres | 1.1.4 | uvicorn | 0.23.2 |
fontconfig | 2.14.2 | mysql - common | 8.0.33 | virtualenv | 20.23.1 |
fonts-conda-ekosystém | 0 | mysql-libs | 8.0.33 | wandb | 0.15.12 |
fonts-conda-forge | 0 | nbclient | 0.8.0 | wcwidth | 0.2.8 |
fonttools | 4.43.1 | nbconvert-core | 7.9.2 | webcolors | 1.13 |
Fqdn | 1.5.1 | nbformat | 5.9.2 | webencodings | 0.5.1 |
Freetype | 2.12.1 | Ncurses | 6.4 | websocket-client | 1.6.4 |
fribidi | 1.0.10 | nest-asyncio | 1.5.8 | werkzeug | 3.0.1 |
zmrazený seznam | 1.4.0 | networkx | 3.2 | Kolo | 0.41.2 |
fsspec | 2023.10.0 | nltk | 3.8.1 | widgetsnbextension | 4.0.9 |
Gast | 0.4.0 | nspr | 4.35 | wrapt | 1.15.0 |
gdk-pixbuf | 2.42.10 | Nss | 3,94 | xcb-util | 0.4.0 |
zeměpisnálib | 1.52 | numba | 0.57.1 | xcb-util-image | 0.4.0 |
geopy | 2.3.0 | numpy | 1.24.3 | xcb-util-keysyms | 0.4.0 |
Gettext | 0.21.1 | numpy-base | 1.24.3 | xcb-util-renderutil | 0.3.9 |
gevent | 23.9.0.post1 | oauthlib | 3.2.2 | xcb-util-wm | 0.4.1 |
gflags | 2.2.2 | onnxruntime | 1.16.1 | xgboost | 1.7.6 |
giflib | 5.2.1 | openai | 0.27.8 | xkeyboard-config | 2.40 |
gitdb | 4.0.11 | openjpeg | 2.5.0 | xorg-kbproto | 1.0.7 |
gitpython | 3.1.40 | openpyxl | 3.1.2 | xorg-libice | 1.1.1 |
Glib | 2.78.0 | openssl | 3.1.4 | xorg-libsm | 1.2.4 |
nástroje glib-tools | 2.78.0 | opt-einsum | 3.3.0 | xorg-libx11 | 1.8.7 |
glog | 0.6.0 | opt_einsum | 3.3.0 | xorg-libxau | 1.0.11 |
Gmp | 6.2.1 | optuna | 2.8.0 | xorg-libxdmcp | 1.1.3 |
gmpy2 | 2.1.2 | Orc | 1.9.0 | xorg-libxext | 1.3.4 |
google-auth | 2.23.3 | Přepisuje | 7.4.0 | xorg-libxrender | 0.9.11 |
google-auth-oauthlib | 1.0.0 | Obalu | 23.2 | xorg-renderproto | 0.11.1 |
google-pasta | 0.2.0 | pandas | 2.0.3 | xorg-xextproto | 7.3.0 |
graphite2 | 1.3.13 | pandas-stubs | 2.1.1.230928 | xorg-xf86vidmodeproto | 2.3.1 |
graphviz | 8.1.0 | pandasql | 0.7.3 | xorg-xproto | 7.0.31 |
zelenálet | 3.0.1 | pandocfilters | 1.5.0 | xxhash | 0.8.2 |
grpcio | 1.54.3 | Pango | 1.50.14 | Xz | 5.2.6 |
gst-plugins-base | 1.22.6 | paramiko | 3.3.1 | yaml | 0.2.5 |
Gstreamer | 1.22.6 | parso | 0.8.3 | yarl | 1.9.2 |
gtk2 | 2.24.33 | Patosu | 0.3.1 | zeromq | 4.3.5 |
Gts | 0.7.6 | pathtools | 0.1.2 | zipp | 3.17.0 |
h11 | 0.14.0 | Patsy | 0.5.3 | Zlib | 1.2.13 |
h5py | 3.10.0 | Pbr | 5.11.1 | zope.event | 5,0 |
harfbuzz | 8.2.1 | pcre2 | 10.40 | zope.interface | 6.1 |
hdf5 | 1.14.2 | pexpect | 4.8.0 | zstandard | 0.21.0 |
Dovolená | 0,35 | pickleshare | 0.7.5 | zstd | 1.5.5 |
html5lib | 1,1 | Polštář | 10.0.1 | Astor | 0.8.1 |
huggingface_hub | 0.18.0 | Pip | 23.1.2 | contextlib2 | 21.6.0 |
humanfriendly | 10.0 | pixman | 0.42.2 | filelock | 3.11.0 |
Jip | 73,2 | pkgutil-resolve-name | 1.3.10 | fluent-logger | 0.10.0 |
idna | 3.4 | platformdirs | 3.5.1 | gson | 0.0.3 |
imageio | 2.31.1 | plotly | 5.16.1 | jaraco-context | 4.3.0 |
importlib-metadata | 6.8.0 | Ply | 3.11 | joblibspark | 0.5.2 |
importlib-resources | 6.1.0 | Čokl | 1.8.0 | json-tricks | 3.17.3 |
importlib_metadata | 6.8.0 | portalocker | 2.8.2 | jupyter-ui-poll | 0.2.2 |
importlib_resources | 6.1.0 | posthog | 3.0.2 | more-itertools | 10.1.0 |
intel-openmp | 2021.4.0 | Neštovice | 0.3.3 | msgpack | 1.0.7 |
Interpretace | 0.4.3 | ppft | 1.7.6.7 | mypy | 1.4.1 |
interpret-core | 0.4.3 | prettytable | 3.8.0 | mypy-extensions | 1.0.0 |
ipykernel | 6.26.0 | prometheus_client | 0.17.1 | nni | 2.10.1 |
ipython | 8.14.0 | prompt-toolkit | 3.0.39 | powerbiclient | 3.1.1 |
ipywidgets | 8.0.7 | prompt_toolkit | 3.0.39 | pyspark | 3.4.1.5.3.20230713 |
isodate | 0.6.1 | protobuf | 4.21.12 | pythonwebhdfs | 0.2.3 |
isoduration | 20.11.0 | psutil | 5.9.5 | Reakce | 0.23.3 |
jehodangerous | 2.1.2 | zástupné procedury pthread | 0,4 | rouge-score | 0.1.2 |
Jax | 0.4.17 | ptyprocess | 0.7.0 | schema | 0.7.5 |
jaxlib | 0.4.14 | pulsar-client | 3.3.0 | simplejson | 3.19.2 |
Jedi | 0.19.1 | pulseaudio-client | 16.1 | Synapseml-mlflow | 1.0.22.post2 |
jinja2 | 3.1.2 | pure_eval | 0.2.2 | Synapseml-utils | 1.0.18.post1 |
joblib | 1.3.2 | py-xgboost | 1.7.6 | typeguard | 2.13.3 |
jsonpointer | 2,4 | py4j | 0.10.9.7 | types-pyyaml | 6.0.12.12 |
jsonschema | 4.19.1 | pyarrow | 12.0.1 | typing-extensions | 4.8.0 |
jsonschema-specifications | 2023.7.1 | pyasn1 | 0.5.0 | websockets | 12.0 |
jsonschema-with-format-nongpl | 4.19.1 | pyasn1-modules | 0.3.0 | wolframalpha | 5.0.0 |
xmltodict | 0.13.0 |
Výchozí balíčky pro R
V následující tabulce jsou uvedeny všechny výchozí balíčky na úrovni jazyka R a jejich odpovídající verze.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
_libgcc_mutex | 0,1 | r-stříška | 6.0_94 | r-pochvala | 1.0.0 |
_openmp_mutex | 4.5 | r-cellranger | 1.1.0 | r-prettyunits | 1.2.0 |
_r-mutex | 1.0.1 | r-class | 7.3_22 | r-proc | 1.18.4 |
_r-xgboost-mutex | 2.0 | r-cli | 3.6.1 | r-processx | 3.8.2 |
aws-c-auth | 0.7.0 | r-clipr | 0.8.0 | r-prodlim | 2023.08.28 |
aws-c-cal | 0.6.0 | r-clock | 0.7.0 | r-profvis | 0.3.8 |
aws-c-common | 0.8.23 | r-codetools | 0.2_19 | Průběh r | 1.2.2 |
aws-c-compression | 0.2.17 | r-collections | 0.3.7 | r-progressr | 0.14.0 |
aws-c-event-stream | 0.3.1 | r-colorspace | 2.1_0 | r-promises | 1.2.1 |
aws-c-http | 0.7.10 | r-commonmark | 1.9.0 | r-proxy | 0.4_27 |
aws-c-io | 0.13.27 | R-config | 0.3.2 | r-pryr | 0.1.6 |
aws-c-mqtt | 0.8.13 | Konfliktní r | 1.2.0 | r-ps | 1.7.5 |
aws-c-s3 | 0.3.12 | r-coro | 1.0.3 | r-purrr | 1.0.2 |
aws-c-sdkutils | 0.1.11 | r-cpp11 | 0.4.6 | r-quantmod | 0.4.25 |
aws-checksums | 0.1.16 | r-crayon | 1.5.2 | r-r2d3 | 0.2.6 |
aws-crt-cpp | 0.20.2 | r-credentials | 2.0.1 | r-r6 | 2.5.1 |
aws-sdk-cpp | 1.10.57 | r-crosstalk | 1.2.0 | r-r6p | 0.3.0 |
binutils_impl_linux-64 | 2.40 | r-crul | 1.4.0 | r-ragg | 1.2.6 |
bwidget | 1.9.14 | r-curl | 5.1.0 | r-rappdirs | 0.3.3 |
bzip2 | 1.0.8 | r-data.table | 1.14.8 | r-rbokeh | 0.5.2 |
c-ares | 1.20.1 | r-dbi | 1.1.3 | r-rcmdcheck | 1.4.0 |
ca-certificates | 2023.7.22 | r-dbplyr | 2.3.4 | r-rcolorbrewer | 1.1_3 |
Káhira | 1.18.0 | r-desc | 1.4.2 | r-rcpp | 1.0.11 |
cmake | 3.27.6 | r-devtools | 2.4.5 | R-reactable | 0.4.4 |
Curl | 8.4.0 | r-diagram | 1.6.5 | r-reactr | 0.5.0 |
Expat | 2.5.0 | r-dials | 1.2.0 | r-readr | 2.1.4 |
font-ttf-dejavu-sans-mono | 2.37 | r-dicedesign | 1,9 | r-readxl | 1.4.3 |
font-ttf-inconsolata | 3.000 | r-diffobj | 0.3.5 | r-recepty | 1.0.8 |
font-ttf-source-code-pro | 2.038 | r-digest | 0.6.33 | r-rematch | 2.0.0 |
font-ttf-ubuntu | 0.83 | r-downlit | 0.4.3 | r-rematch2 | 2.1.2 |
fontconfig | 2.14.2 | r-dplyr | 1.1.3 | R-remotes | 2.4.2.1 |
fonts-conda-ekosystém | 0 | r-dtplyr | 1.3.1 | r-reprex | 2.0.2 |
fonts-conda-forge | 0 | r-e1071 | 1.7_13 | r-reshape2 | 1.4.4 |
Freetype | 2.12.1 | tři tečky r | 0.3.2 | r-rjson | 0.2.21 |
fribidi | 1.0.10 | r-evaluate | 0.23 | r-rlang | 1.1.1 |
gcc_impl_linux-64 | 13.2.0 | r-fansi | 1.0.5 | r-rlist | 0.4.6.2 |
Gettext | 0.21.1 | r-farver | 2.1.1 | r-rmarkdown | 2,22 |
gflags | 2.2.2 | r-fastmap | 1.1.1 | r-rodbc | 1.3_20 |
gfortran_impl_linux-64 | 13.2.0 | r-fontawesome | 0.5.2 | r-roxygen2 | 7.2.3 |
glog | 0.6.0 | r-forcats | 1.0.0 | r-rpart | 4.1.21 |
glpk | 5,0 | r-foreach | 1.5.2 | r-rprojroot | 2.0.3 |
Gmp | 6.2.1 | r-forge | 0.2.0 | r-rsample | 1.2.0 |
graphite2 | 1.3.13 | r-fs | 1.6.3 | r-rstudioapi | 0.15.0 |
gsl | 2.7 | r-furrr | 0.3.1 | r-rversions | 2.1.2 |
gxx_impl_linux-64 | 13.2.0 | r-future | 1.33.0 | r-rvest | 1.0.3 |
harfbuzz | 8.2.1 | r-future.apply | 1.11.0 | r-sass | 0.4.7 |
Jip | 73,2 | r-gargle | 1.5.2 | R-scales | 1.2.1 |
kernel-headers_linux-64 | 2.6.32 | r-generics | 0.1.3 | r-selectr | 0.4_2 |
keyutils | 1.6.1 | r-gert | 2.0.0 | r-sessioninfo | 1.2.2 |
krb5 | 1.21.2 | r-ggplot2 | 3.4.2 | r-shape | 1.4.6 |
ld_impl_linux-64 | 2.40 | r-gh | 1.4.0 | r-lesklý | 1.7.5.1 |
lerc | 4.0.0 | r-gistr | 0.9.0 | r-slider | 0.3.1 |
Libabseil | 20230125.3 | r-gitcreds | 0.1.2 | r-sourcetools | 0.1.7_1 |
libarrow | 12.0.0 | r-globals | 0.16.2 | r-sparklyr | 1.8.2 |
libblas | 3.9.0 | r-připevnění | 1.6.2 | r-squarem | 2021.1 |
libbrotlicommon | 1.0.9 | r-googledrive | 2.1.1 | r-stringi | 1.7.12 |
libbrotlidec | 1.0.9 | r-googlesheets4 | 1.1.1 | r-stringr | 1.5.0 |
libbrotlienc | 1.0.9 | r-gower | 1.0.1 | r-přežití | 3.5_7 |
libcblas | 3.9.0 | r-gpfit | 1.0_8 | r-sys | 3.4.2 |
libcrc32c | 1.1.2 | r-gt | 0.9.0 | r-systemfonts | 1.0.5 |
libcurl | 8.4.0 | r-gtable | 0.3.4 | r-testthat | 3.2.0 |
libdeflate | 1.19 | r-gtsummary | 1.7.2 | r-textshaping | 0.3.7 |
libedit | 3.1.20191231 | r-hardhat | 1.3.0 | r-tibble | 3.2.1 |
libev | 4.33 | r-haven | 2.5.3 | r-tidymodels | 1.1.0 |
libevent | 2.1.12 | r-hexbin | 1.28.3 | r-tidyr | 1.3.0 |
libexpat | 2.5.0 | r-highcharter | 0.9.4 | r-tidyselect | 1.2.0 |
libffi | 3.4.2 | r-highr | 0.10 | r-tidyverse | 2.0.0 |
libgcc-devel_linux-64 | 13.2.0 | r-hms | 1.1.3 | r-timechange | 0.2.0 |
libgcc-ng | 13.2.0 | r-htmltools | 0.5.6.1 | r-timedate | 4022.108 |
libgfortran-ng | 13.2.0 | r-htmlwidgets | 1.6.2 | r-tinytex | 0.48 |
libgfortran5 | 13.2.0 | r-httpcode | 0.3.0 | r-torch | 0.11.0 |
libgit2 | 1.7.1 | r-httpuv | 1.6.12 | r-triebeard | 0.4.1 |
libglib | 2.78.0 | r-httr | 1.4.7 | r-ttr | 0.24.3 |
libgomp | 13.2.0 | r-httr2 | 0.2.3 | r-tune | 1.1.2 |
libgoogle-cloud | 2.12.0 | r-ids | 1.0.1 | r-tzdb | 0.4.0 |
libgrpc | 1.55.1 | r-igraph | 1.5.1 | r-urlchecker | 1.0.1 |
libiconv | 1.17 | r-inferovat | 1.0.5 | r-urltools | 1.7.3 |
libjpeg-turbo | 3.0.0 | r-ini | 0.3.1 | r-usethis | 2.2.2 |
liblapack | 3.9.0 | r-ipred | 0.9_14 | r-utf8 | 1.2.4 |
libnghttp2 | 1.55.1 | r-isoband | 0.2.7 | r-uuid | 1.1_1 |
libnuma | 2.0.16 | r-iterátory | 1.0.14 | r-v8 | 4.4.0 |
libopenblas | 0.3.24 | r-jose | 1.2.0 | r-vctrs | 0.6.4 |
libpng | 1.6.39 | r-jquerylib | 0.1.4 | r-viridislite | 0.4.2 |
libprotobuf | 4.23.2 | r-jsonlite | 1.8.7 | r-vroom | 1.6.4 |
libsanitizer | 13.2.0 | r-šťavnatéjuice | 0.1.0 | r-waldo | 0.5.1 |
libssh2 | 1.11.0 | r-kernsmooth | 2.23_22 | r-warp | 0.2.0 |
libstdcxx-devel_linux-64 | 13.2.0 | r-pletený | 1.45 | r-whisker | 0.4.1 |
libstdcxx-ng | 13.2.0 | R-labeling | 0.4.3 | r-withr | 2.5.2 |
libthrift | 0.18.1 | r-označeno | 2.12.0 | Pracovní postupy r | 1.1.3 |
libtiff | 4.6.0 | r-later | 1.3.1 | r-workflowsets | 1.0.1 |
libutf8proc | 2.8.0 | r-lattice | 0.22_5 | r-xfun | 0.41 |
libuuid | 2.38.1 | r-lava | 1.7.2.1 | r-xgboost | 1.7.4 |
libuv | 1.46.0 | r-lazyeval | 0.2.2 | r-xml | 3.99_0.14 |
libv8 | 8.9.83 | r-lhs | 1.1.6 | r-xml2 | 1.3.5 |
libwebp-base | 1.3.2 | životní cyklus r | 1.0.3 | r-xopen | 1.0.0 |
libxcb | 1.15 | r-lightgbm | 3.3.5 | r-xtable | 1.8_4 |
libxgboost | 1.7.4 | r-listenv | 0.9.0 | r-xts | 0.13.1 |
libxml2 | 2.11.5 | r-lobstr | 1.1.2 | r-yaml | 2.3.7 |
libzlib | 1.2.13 | r-lubridate | 1.9.3 | r-yardstick | 1.2.0 |
lz4-c | 1.9.4 | r-magrittr | 2.0.3 | r-zip | 2.3.0 |
make | 4.3 | r-maps | 3.4.1 | r-zoo | 1.8_12 |
Ncurses | 6.4 | r-markdown | 1.11 | rdma-core | 28.9 |
openssl | 3.1.4 | r-mass | 7.3_60 | re2 | 2023.03.02 |
Orc | 1.8.4 | R-matrix | 1.6_1.1 | Readline | 8.2 |
pandoc | 2.19.2 | r-memoise | 2.0.1 | rhash | 1.4.4 |
Pango | 1.50.14 | r-mgcv | 1.9_0 | s2n | 1.3.46 |
pcre2 | 10.40 | r-mime | 0.12 | Sed | 4.8 |
pixman | 0.42.2 | r-miniui | 0.1.1.1 | Elegantní | 1.1.10 |
zástupné procedury pthread | 0,4 | r-modeldata | 1.2.0 | sysroot_linux-64 | 2,12 |
r-arrow | 12.0.0 | r-modelenv | 0.1.1 | Tk | 8.6.13 |
r-askpass | 1.2.0 | R-modelmetrics | 1.2.2.2 | tktable | 2.10 |
r-assertthat | 0.2.1 | r-modelr | 0.1.11 | ucx | 1.14.1 |
r-backporty | 1.4.1 | r-munsell | 0.5.0 | unixodbc | 2.3.12 |
r-base | 4.2.3 | r-nlme | 3.1_163 | xorg-kbproto | 1.0.7 |
r-base64enc | 0.1_3 | r-nnet | 7.3_19 | xorg-libice | 1.1.1 |
r-bigd | 0.2.0 | r-numderiv | 2016.8_1.1 | xorg-libsm | 1.2.4 |
r-bit | 4.0.5 | r-openssl | 2.1.1 | xorg-libx11 | 1.8.7 |
r-bit64 | 4.0.5 | r-parallelly | 1.36.0 | xorg-libxau | 1.0.11 |
r-bitops | 1.0_7 | r-parsnip | 1.1.1 | xorg-libxdmcp | 1.1.3 |
r-blob | 1.2.4 | r-patchwork | 1.1.3 | xorg-libxext | 1.3.4 |
r-brew | 1.0_8 | r-pilíř | 1.9.0 | xorg-libxrender | 0.9.11 |
r-brio | 1.1.3 | r-pkgbuild | 1.4.2 | xorg-libxt | 1.3.0 |
koště r-koště | 1.0.5 | r-pkgconfig | 2.0.3 | xorg-renderproto | 0.11.1 |
r-broom.helpers | 1.14.0 | r-pkgdown | 2.0.7 | xorg-xextproto | 7.3.0 |
r-bslib | 0.5.1 | r-pkgload | 1.3.3 | xorg-xproto | 7.0.31 |
r-cachem | 1.0.8 | r-plotly | 4.10.2 | Xz | 5.2.6 |
r-callr | 3.7.3 | r-plyr | 1.8.9 | Zlib | 1.2.13 |
zstd | 1.5.5 |
Další kroky
Váš názor
Odeslat a zobrazit názory pro