Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby zapoznać się z datą zakończenia wsparcia, zobacz End-of-support and end-of-life history (Koniec wsparcia technicznego i historia zakończenia życia). Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 11.0 obsługiwanym przez platformę Apache Spark 3.3.0. Usługa Databricks wydała tę wersję w czerwcu 2022 r.
Nowe funkcje i ulepszenia
- Nowa wersja platformy Apache Spark
- notesy Python używają teraz jądra IPython
- Obsługa ipywidgets
- Łącznik usługi Synapse zapisuje teraz dane Parquet w trybie nie starszym
- Schemat HTTPS jest teraz wymuszany, gdy klient ABFS używa tokenu SAS
-
SQL:
DESCjest teraz aliasem doDESCRIBE -
SQL: Nowa
current_versionfunkcja zwraca szczegóły wersji - Usunięcie brakującego ograniczenia w tabeli Delta powoduje teraz błąd
-
SQL: nowa klauzula
EXCEPTw instrukcjiSELECTwyklucza kolumny z wyboru - Obsługa usuwania kolumn w tabelach delty (publiczna wersja zapoznawcza)
-
COPY INTOUlepszenia -
CONVERT TO DELTAjest teraz obsługiwana w środowiskach z włączoną obsługą Unity Catalog (publiczna wersja zapoznawcza)
Nowa wersja platformy Apache Spark
Środowisko Databricks Runtime 11.0 i Databricks Runtime 11.0 Photon zawierają silnik Apache Spark 3.3.0. Aby uzyskać szczegółowe informacje, zobacz Apache Spark.
Python notesy używają teraz jądra IPython
W środowisku Databricks Runtime 11.0 lub nowszym Python notesy używają jądra IPython do wykonywania kodu Python. Zobacz IPython kernel.
Obsługa ipywidgets
Teraz możesz użyć funkcji ipywidgets, aby udostępnić notesy usługi Databricks Python. Zobacz ipywidgets.
Łącznik usługi Synapse zapisuje teraz dane Parquet w nowoczesnym trybie
Łącznik Azure Synapse zapisuje teraz dane Parquet w trybie nie starszym. Zachowuje format znacznika INT96 czasu podczas korzystania z PolyBase i COPY poleceń zarówno dla obciążeń wsadowych, jak i obciążeń strumieniowych.
Schemat HTTPS jest teraz wymuszany, gdy klient ABFS używa tokenu SAS
Gdy klient systemu plików obiektów blob Azure (ABFS) używa tokenu sygnatury dostępu współdzielonego (SAS), wymuszane jest stosowanie schematu HTTPS.
SQL: DESC jest teraz aliasem DESCRIBE
Teraz możesz użyć DESC jako aliasu dla DESCRIBE podczas opisywania zewnętrznych lokalizacji lub danych logowania do magazynu. Przykład:
-- Describe an external location.
DESC EXTERNAL LOCATION location_name;
-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;
SQL: Nowa funkcja current_version zwraca szczegóły wersji
Nowa current_version funkcja zwraca bieżącą wersję środowiska Databricks Runtime, jeśli jest dostępna, bieżącą wersję SQL usługi Databricks, jeśli jest dostępna, oraz inne powiązane szczegóły wersji. Ta nowa funkcja umożliwia wykonywanie zapytań o informacje dotyczące wersji. Zobacz current_version funkcję.
Porzucanie brakującego ograniczenia tabeli delty powoduje teraz wystąpienie błędu
Jeśli teraz spróbujesz usunąć ograniczenie tabeli delty według nazwy, a to ograniczenie nie istnieje, zostanie wyświetlony błąd. Aby uzyskać poprzednie zachowanie, które nie zgłasza błędu, jeśli ograniczenie nie istnieje, należy teraz użyć instrukcji IF EXISTS. Zobacz: ALTER TABLE.
SQL: Nowa klauzula EXCEPT w poleceniu SELECT wyklucza kolumny z wyboru
SELECT instrukcje obsługują teraz klauzulę EXCEPT, aby wykluczyć kolumny z wybierania. Na przykład SELECT * EXCEPT (x) FROM table zwraca wszystkie kolumny z tablewyjątkiem x. Kolumny zagnieżdżone są również dozwolone. Na przykład SELECT * EXCEPT (x.a) FROM table zwraca wszystkie tablekolumny, ale pomija pole a z struktury x.
Obsługa usuwania kolumn w tabelach delty (publiczna wersja zapoznawcza)
Możesz użyć ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name> lub ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *), aby usunąć kolumnę lub listę kolumn odpowiednio z tabeli delty jako operację tylko dla metadanych. Kolumny są skutecznie "miękko usuwane", ponieważ nadal znajdują się w leżących u podstaw plikach Parquet, ale nie są już widoczne dla tabeli Delta.
Można użyć REORG TABLE <table-name> APPLY (PURGE), aby wyzwolić ponowne zapisywanie pliku w plikach, które zawierają wszelkie dane usunięte nietrwale, takie jak porzucone kolumny.
Możesz użyć VACUUM, aby usunąć usunięte pliki z magazynu fizycznego, w tym stare pliki zawierające porzucone kolumny i zostały przepisane przez REORG TABLE.
COPY INTO Ulepszenia
Teraz możesz utworzyć puste tabele zastępcze Delta, aby schemat został później wywnioskowany podczas polecenia COPY INTO.
CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');
Poprzednia instrukcja SQL jest idempotentna i można zaplanować jej uruchomienie w celu jednokrotnego pobrania danych do tabeli Delta.
Uwaga / Notatka
Pusta tabela delty nie nadaje się do użycia poza COPY INTO. Nie można używać INSERT INTO i MERGE INTO do zapisywania danych w tabelach Delta bez schematu. Po wstawieniu danych do tabeli przy użyciu COPY INTOmożna wykonywać zapytania dotyczące tabeli.
Jeśli nie można odczytać danych z powodu problemu z ich uszkodzeniem, możesz pominąć uszkodzone pliki, ustawiając ignoreCorruptFiles na true w FORMAT_OPTIONS.
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')
Polecenie COPY INTO zwraca liczbę pominiętych plików z powodu uszkodzenia w kolumnie num_skipped_corrupt_files. Ta metryka jest również wyświetlana w kolumnie operationMetrics pod numSkippedCorruptFiles po uruchomieniu DESCRIBE HISTORY w tabeli Delta.
Uszkodzone pliki nie są śledzone przez COPY INTOprogram , więc można je ponownie załadować w kolejnym uruchomieniu, jeśli uszkodzenie zostanie naprawione. Możesz zobaczyć, które pliki są uszkodzone, uruchamiając polecenie COPY INTO w VALIDATE trybie.
CONVERT TO DELTA jest teraz obsługiwane w środowiskach, w których dostępny jest katalog Unity (publiczna wersja zapoznawcza)
W środowiskach
- Przekonwertuj pliki Parquet w lokalizacjach zewnętrznych na usługę Delta Lake.
- Konwertowanie tabel zewnętrznych Parquet na tabele Delta.
Zmiany zachowania
-
SQL:
lpadirpadfunkcje teraz obsługują sekwencje bajtów -
Format ciągu w
format_stringiprintfnie jest już dozwolony w%0$ - wartości null w plikach CSV są teraz zapisywane jako puste ciągi bez cudzysłów domyślnie
-
właściwość tabeli
externaljest teraz zarezerwowana - Usługa Log4j została uaktualniona z wersji Log4j 1 do usługi Log4j 2
- Biblioteki zainstalowane z narzędzia Maven są teraz domyślnie rozpoznawane w środowisku obliczeniowym
SQL: Funkcje lpad i rpad teraz obsługują sekwencje bajtów
Funkcje lpad i rpad zostały zaktualizowane w celu dodania obsługi sekwencji bajtów oprócz ciągów.
Formatowanie ciągu w format_string i printf nie jest już dozwolone %0$
Określenie formatu %0$ w funkcjach format_string i printf zgłasza teraz błąd domyślnie. Ta zmiana polega na zachowaniu oczekiwanego zachowania przy użyciu poprzednich wersji środowiska Databricks Runtime i typowych baz danych innych firm. Pierwszy argument powinien zawsze odwoływać się do %1$, gdy używasz indeksu argumentu, aby wskazać jego pozycję na liście argumentów.
Wartości null w plikach CSV są teraz zapisywane jako puste ciągi bez cudzysłów domyślnie
Wartości null w plikach CSV zostały wcześniej zapisane jako cytowane puste ciągi. W tej wersji wartości null w plikach CSV są domyślnie zapisywane jako puste ciągi bez cudzysłów. Aby powrócić do poprzedniego zachowania, ustaw opcję nullValue na "" dla operacji zapisu.
Właściwość tabeli external jest teraz zarezerwowana
Właściwość external jest teraz domyślnie zarezerwowaną właściwością tabeli. Wyjątki są teraz zgłaszane, gdy podczas używania external właściwości korzystasz z klauzul CREATE TABLE ... TBLPROPERTIES i ALTER TABLE ... SET TBLPROPERTIES.
Usługa Log4j została uaktualniona z wersji Log4j 1 do usługi Log4j 2
Program Log4j 1 jest uaktualniany do wersji Log4j 2. Starsze zależności wersji Log4j 1 są usuwane.
Jeśli zależysz od klas Log4j 1, które zostały wcześniej uwzględnione w środowisku Databricks Runtime, te klasy już nie istnieją. Powinieneś uaktualnić zależności do Log4j 2.
Jeśli masz niestandardowe wtyczki lub pliki konfiguracji, które zależą od usługi Log4j 2, mogą już nie działać z wersją log4j 2 w tej wersji. Aby uzyskać pomoc, skontaktuj się z zespołem ds. kont Azure Databricks.
Biblioteki zainstalowane z narzędzia Maven są teraz domyślnie rozpoznawane na platformie obliczeniowej.
Biblioteki Maven są teraz domyślnie dostępne na płaszczyźnie obliczeniowej podczas instalowania bibliotek w klastrze. Klaster musi mieć dostęp do usługi Maven Central. Alternatywnie możesz przywrócić poprzednie zachowanie, ustawiając właściwość konfiguracji platformy Spark:
spark.databricks.libraries.enableMavenResolution false
Poprawki błędów
- Zgodność binarna dla
LeafNode,UnaryNodeiBinaryNodemiędzy Apache Spark a środowiskiem Databricks Runtime została ustabilizowana, a klasy są teraz zgodne z Apache Spark 3.3.0 lub nowszą wersją. Jeśli wystąpi następujący lub podobny komunikat podczas korzystania z pakietu innej firmy w środowisku Databricks Runtime, ponownie skompiluj pakiet za pomocą platformy Apache Spark 3.3.0 lub nowszej:Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected.
Uaktualnienia biblioteki
- Uaktualnione biblioteki Python:
- platformdirs z wersji 2.5.1 do 2.5.2
- protobuf z 3.20.0 do 3.20.1
- Uaktualnione biblioteki języka R:
- blob z 1.2.2 do 1.2.3
- broom od wersji 0.7.12 do 0.8.0
- wersja od 6.0-91 do 6.0-92
- interfejs wiersza polecenia z wersji 3.2.0 do 3.3.0
- dplyr z wersji 1.0.8 do 1.0.9
- przyszłość z wersji 1.24.0 do 1.25.0
- future.apply z wersji 1.8.1 do 1.9.0
- gert z 1.5.0 do 1.6.0
- ggplot2 z wersji 3.3.5 do 3.3.6
- glmnet z 4.1-3 do 4.1-4
- haven od 2.4.3 do 2.5.0
- httr z 1.4.2 do 1.4.3
- knitr z 1.38 do 1.39
- magrittr z wersji 2.0.2 do 2.0.3
- równolegle aktualizacja z wersji 1.30.0 do 1.31.1
- ps od 1.6.0 do 1.7.0
- RColorBrewer od 1.1-2 do 1.1-3
- RcppEigen z 0.3.3.9.1 do 0.3.3.9.2
- readxl z wersji 1.3.1 do 1.4.0
- rmarkdown z wersji 2.13 do 2.14
- rprojroot z wersji 2.0.2 do 2.0.3
- RSQLite z wersji 2.2.11 do 2.2.13
- skaluje z wersji 1.1.1 do 1.2.0
- testthat z 3.1.2 do 3.1.4
- tibble z 3.1.6 do 3.1.7
- tinytex z wersji 0.37 do wersji 0.38
- tzdb z 0.2.0 do 0.3.0
- uuid z 1.0-4 do 1.1-0
- vctrs z 0.3.8 do 0.4.1
- Uaktualnione biblioteki Java:
- com.fasterxml.jackson.core.jackson-annotations z wersji 2.13.0 do 2.13.3
- com.fasterxml.jackson.core.jackson-core z wersji 2.13.0 do 2.13.3
- com.fasterxml.jackson.core.jackson-databind z 2.13.0 do 2.13.3
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor od wersji 2.13.0 do wersji 2.13.3
- com.fasterxml.jackson.datatype.jackson-datatype-joda z 2.13.0 do 2.13.3
- com.fasterxml.jackson.module.jackson-module-paranamer od 2.13.0 do 2.13.3
- com.fasterxml.jackson.module.jackson-module-scala_2.12 z wersji 2.13.0 do 2.13.3
- com.google.crypto.tink.tink z 1.6.0 do 1.6.1
- com.ning.compress-lzf z 1.0.3 do 1.1
- dev.ludovic.netlib.arpack od 2.2.0 do 2.2.1
- dev.ludovic.netlib.blas z 2.2.0 do 2.2.1
- dev.ludovic.netlib.lapack od 2.2.0 do 2.2.1
- io.netty.netty-all z 4.1.73.Final do 4.1.74.Final
- io.netty.netty-buffer z wersji 4.1.73.Final do 4.1.74.Final
- io.netty.netty-codec z wersji 4.1.73.Final do 4.1.74.Final
- io.netty.netty-common z 4.1.73.Final do 4.1.74.Final
- io.netty.netty-handler z 4.1.73.Final do 4.1.74.Final
- Aktualizacja io.netty.netty-resolver z wersji 4.1.73.Final do 4.1.74.Final
- io.netty.netty-tcnative-classes z wersji 2.0.46.Final do wersji 2.0.48.Final
- io.netty.netty-transport z wersji 4.1.73.Final do wersji 4.1.74.Final
- io.netty.netty-transport-classes-epoll z 4.1.73.Final do 4.1.74.Final
- io.netty.netty-transport-classes-kqueue z 4.1.73.Final na 4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-aarch_64 z wersji 4.1.73.Final do wersji 4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-x86_64 z wersji 4.1.73.Final do wersji 4.1.74.Final
- io.netty.netty-transport-native-kqueue-osx-aarch_64 z 4.1.73.Final do 4.1.74.Final
- Pakiet io.netty.netty-transport-native-kqueue-osx-x86_64 z wersji 4.1.73.Final do wersji 4.1.74.Final
- io.netty.netty-transport-native-unix-common z 4.1.73.Final do 4.1.74.Final
- joda-time.joda-time: od 2.10.12 do 2.10.13
- org.apache.commons.commons-math3 z 3.4.1 do 3.6.1
- org.apache.httpcomponents.httpcore z wersji 4.4.12 do 4.4.14
- org.apache.orc.orc-core z wersji 1.7.3 na 1.7.4
- org.apache.orc.orc-mapreduce z wersji 1.7.3 do wersji 1.7.4
- org.apache.orc.orc-shims z wersji 1.7.3 do 1.7.4
- org.eclipse.jetty.jetty-client od wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-continuation z wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-http od 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-io z wersji 9.4.43.v20210629 do 9.4.46.v2022031
- org.eclipse.jetty.jetty-jndi z 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-plus z wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-proxy z wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-security od 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-server from 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlet z wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlets od 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-util z wersji 9.4.43.v20210629 do 9.4.46.v2022031
- org.eclipse.jetty.jetty-util-ajax from 9.4.43.v20210629 to 9.4.46.v2020331
- org.eclipse.jetty.jetty-webapp z wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.jetty-xml z 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-api z wersji 9.4.43.v20210629 do 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-client from 9.4.43.v20210629 to 9.4.46.v2020331
- org.eclipse.jetty.websocket.websocket-common from 9.4.43.v20210629 to 9.4.46.v2020331
- org.eclipse.jetty.websocket.websocket-server from 9.4.43.v20210629 to 9.4.46.v2020331
- org.eclipse.jetty.websocket.websocket-servlet z 9.4.43.v20210629 do 9.4.46.v20220331
- org.mariadb.jdbc.mariadb-java-client z wersji 2.2.5 do 2.7.4
- org.postgresql.postgresql z 42.2.19 do 42.3.3.3
- org.roaringbitmap.RoaringBitmap z wersji 0.9.23 na 0.9.25
- org.roaringbitmap.shims od 0.9.23 do 0.9.25
- org.rocksdb.rocksdbjni z 6.20.3 do 6.24.2
- org.slf4j.jcl-over-slf4j z 1.7.32 do 1.7.36
- org.slf4j.jul-to-slf4j z 1.7.32 do 1.7.36
- org.slf4j.slf4j-api od 1.7.30 do 1.7.36
Apache Spark
Środowisko Databricks Runtime 11.0 obejmuje platformę Apache Spark 3.3.0.
W tej sekcji:
- Spark SQL i Core
- Przesyłanie strumieniowe ze strukturą
- PySpark
- MLLIB
- SparkR
- Interfejs użytkownika
- Kompiluj
Spark SQL i Core
Tryb ANSI
- Nowe jawne reguły składni rzutowania w trybie ANSI (SPARK-33354)
- Funkcja Elt() powinna zwracać wartość null, jeśli indeks ma wartość null w trybie ANSI (SPARK-38304)
- Opcjonalnie zwróć wynik null, jeśli element nie istnieje w tablicy/mapie (SPARK-37750)
- Zezwalaj na rzutowanie między typem liczbowym a typem znacznika czasu (SPARK-37714)
- Domyślnie wyłącz zastrzeżone słowa kluczowe ANSI (SPARK-37724)
- Użyj reguł przypisania magazynu do rozpoznawania wywołania funkcji (SPARK-37438)
- Dodaj konfigurację, aby zezwolić na rzutowanie między wartościami typu Datetime i Numeric (SPARK-37179)
- Dodaj konfigurację, aby opcjonalnie wymusić zastrzeżone słowa kluczowe ANSI (SPARK-37133)
- Nie zezwalaj na operacje binarne między literałem interwału i ciągu (SPARK-36508)
Ulepszenia funkcji
- Obsługa typów INTERWAŁów ANSI SQL (SPARK-27790)
- Ulepszenia komunikatów o błędach (SPARK-38781)
- Obsługa metadanych dotyczących ukrytych plików w Spark SQL (SPARK-37273)
- Obsługa nieprzetworzonego literału ciągu (SPARK-36371)
- Klasa Pomocnika dla usługi Batch Dataset.observe() (SPARK-34806)
- Obsługa określania początkowego numeru partycji dla ponownego równoważenia (SPARK-38410)
- Wspieranie trybu kaskadowego dla API
dropNamespace(SPARK-37929) - Zezwalaj na przypisywanie, magazynowanie i niejawne rzutowanie pomiędzy typami datetime (SPARK-37707)
- Funkcja collect, first i last powinny być deterministycznymi funkcjami agregującymi (SPARK-32940)
- Dodaj ExpressionBuilder dla funkcji ze złożonymi przeciążeniami (SPARK-37164)
- Dodaj obsługę tablic do union według nazwy (SPARK-36546)
- Dodaj df.withMetadata: cukier składniowy w celu zaktualizowania metadanych ramki danych (SPARK-36642)
- Obsługa nieprzetworzonego literału ciągu (SPARK-36371)
- Użyj funkcji CAST w analizowaniu dat/sygnatur czasowych ze wzorcem domyślnym (SPARK-36418)
- Obsługa klasy wartości w schemacie zagnieżdżonym dla zestawu danych (SPARK-20384)
- Dodano obsługę składni AS OF (SPARK-37219)
- Dodaj REPEATABLE w TABLESAMPLE, aby określić ziarno (SPARK-37165)
- Dodaj składnię ANSI
set catalog xxx, aby zmienić bieżący katalog (SPARK-36841) - Obsługa ILIKE (WSZYSTKIE | DOWOLNA | NIEKTÓRE) — bez uwzględniania wielkości liter JAK (SPARK-36674, SPARK-36736, SPARK-36778)
- Etap obsługi zapytania pokazuje statystyki czasu wykonania w sformatowanym trybie wyjaśnienia (SPARK-38322)
- Dodaj metryki rozmiaru rozlania dla łączenia przez sortowanie i scalanie (SPARK-37726)
- Aktualizowanie składni SQL SHOW FUNCTIONS (SPARK-37777)
- Obsługa składni DROP COLUMN [IF EXISTS] (SPARK-38939)
- Nowe wbudowane funkcje i ich rozszerzenia (SPARK-38783)
- Znacznik czasu
- Dodawanie funkcji TIMESTAMPADD() (SPARK-38195)
- Dodawanie funkcji TIMESTAMPDIFF() (SPARK-38284)
- Dodaj
DATEDIFF()alias dlaTIMESTAMPDIFF()(SPARK-38389) -
DATEADD()Dodaj alias dla (TIMESTAMPADD()SPARK-38332) -
convert\_timezone()Dodawanie funkcji (SPARK-37552, SPARK-37568) - Uwidaczniaj wyrażenie make_date w pliku functions.scala (SPARK-36554)
- Funkcje AES (SPARK-12567)
- Dodawanie funkcji wbudowanych aes_encrypt i aes_decrypt (SPARK-12567)
- Obsługa trybu GCM przez
aes\_encrypt()/aes\_decrypt()(SPARK-37591) - Ustaw
GCMjako tryb domyślny waes\_encrypt()/aes\_decrypt()(SPARK-37666) - Dodaj argumenty
modeipaddingdoaes\_encrypt()/aes\_decrypt()(SPARK-37586)
- Funkcja agregacji ANSI (SPARK-37671)
- Obsługa funkcji agregującej ANSI: regr_count (SPARK-37613)
- Obsługa funkcji agregującej ANSI: regr_avgx i regr_avgy (SPARK-37614)
- Obsługa funkcji agregacji ANSI: percentile_cont (SPARK-37676, SPARK-38219)
- Obsługa funkcji agregacji ANSI: percentile_disc (SPARK-37691)
- Obsługa funkcji agregującej ANSI: regr_count (SPARK-37613)
- Obsługa funkcji agregującej ANSI: array_agg (SPARK-27974)
- Obsługa funkcji agregującej ANSI: regr_r2 (SPARK-37641)
- Nowa funkcja SQL: try_avg (SPARK-38589)
- Zbiory
- Wprowadzenie funkcji SQL ARRAY_SIZE (SPARK-38345)
- Nowa funkcja SQL: map_contains_key (SPARK-37584)
- Nowa funkcja SQL: try_element_at (SPARK-37533)
- Nowa funkcja SQL: try_sum (SPARK-38548)
- Formatowanie
- Dodawanie nowej funkcji SQL to_binary (SPARK-37507, SPARK-38796)
- Nowa funkcja SQL: try_to_binary (SPARK-38590, SPARK-38796)
- Funkcje formatowania typu danych:
to\_number(SPARK-28137)
- Ciąg/plik binarny
- Dodawanie funkcji ciągu CONTAINS() (SPARK-37508)
- Dodaj funkcje ciągów
startswith()iendswith()(SPARK-37520) - Dodawanie funkcji lpad i rpad dla ciągów binarnych (SPARK-37047)
- Obsługa funkcji split_part (SPARK-38063)
- Dodawanie parametru skalowania do funkcji podłogowych i ceil (SPARK-37475)
- Nowe funkcje SQL: try_subtract i try_multiply (SPARK-38164)
- Implementuje funkcję agregacji histogram_numeric, która obsługuje agregację częściową (SPARK-16280)
- Dodaj max_by/min_by do funkcji sql.functions (SPARK-36963)
- Dodawanie nowych wbudowanych funkcji SQL: SEC i CSC (SPARK-36683)
- array_intersect obsługuje zduplikowane wartości Double.NaN i Float.NaN (SPARK-36754)
- Dodaj cot jako funkcje Scala i Python (SPARK-36660)
- Znacznik czasu
Ulepszenia wydajności
- Generowanie kodu pełnoetapowego
- Dodawanie modułu code-gen do sortowania agregacji bez kluczy grupowania (SPARK-37564)
- Dodaj kod-gen do pełnego sprzężenia scalania sortowania zewnętrznego (SPARK-35352)
- Dodaj generowanie kodu do pełnego zewnętrznego sprzężenia haszującego z mieszaniem (SPARK-32567)
- Dodawanie generowania kodu dla sort merge join (SPARK-37316)
- Wypychanie (filtry)
- Wypychanie filtrów do części ponownej równoważenia (SPARK-37828)
- Przesuwanie w dół filtru kolumn boolowskich (SPARK-36644)
- Obniżenie limitu 1 dla prawostronnego półsprzężenia/antysprzężenia lewego przy pustym warunku sprzężenia (SPARK-37917)
- Tłumaczenie bardziej standardowych funkcji agregujących na potrzeby wypychania (SPARK-37527)
- Obsługa propagacji pustej relacji za pomocą agregacji/unii (SPARK-35442)
- Filtrowanie środowiska uruchomieniowego na poziomie wiersza (SPARK-32268)
- Obsługa lewego sprzężenia częściowego w filtrach środowiska uruchomieniowego na poziomie wiersza (SPARK-38565)
- Obsługa optymalizacji predykatu i przycinania kolumn dla zduplikowanych CTE (SPARK-37670)
- Wektoryzacja
- Implementowanie obiektu ConstantColumnVector i poprawianie wydajności ukrytych metadanych pliku (SPARK-37896)
- Włączanie wektoryzowanego odczytu dla vectorizedPlainValuesReader.readBooleans (SPARK-35867)
- Łączenie/usuwanie/zastępowanie węzłów
- Połącz związki, jeśli istnieje projekt między nimi (SPARK-37915)
- Połącz w jeden rzut, jeśli możemy bezpiecznie rzutować dwa rzutowania (SPARK-37922)
- Usuń sortowanie, jeśli jest elementem podrzędnym repartitionByExpression (SPARK-36703)
- Usuwa sprzężenie zewnętrzne, gdy po stronie strumieniowej występuje tylko DISTINCT z aliasem (SPARK-37292)
- Zamień hasz na sortowanie zbiorcze, jeśli element podrzędny jest już posortowany (SPARK-37455)
- Zwijaj projekty tylko wtedy, gdy nie duplikujemy kosztownych wyrażeń (SPARK-36718)
- Usuń nadmiarowe aliasy po RewritePredicateSubquery (SPARK-36280)
- Scalanie niepowiązanych podzapytań skalarnych (SPARK-34079)
- Partycjonowanie
- Nie należy dodawać oczyszczania partycji dynamicznej, jeśli istnieje statyczne oczyszczanie partycji (SPARK-38148)
- Ulepsz RebalancePartitions w regułach optymalizatora (SPARK-37904)
- Dodawanie małego współczynnika partycji dla partycji ponownego równoważenia (SPARK-37357)
- Dołączyć
- Dostrajanie logiki obniżania sprzężenia skrótu emisji w funkcji DynamicJoinSelection (SPARK-37753)
- Ignoruj zduplikowane klucze sprzężenia podczas kompilowania relacji sprzężenia skrótu SEMI/ANTI (SPARK-36794)
- Obsługa zoptymalizowania niesymetrycznego łączenia, nawet jeśli wymaga to dodatkowego mieszania (SPARK-33832)
- AQE
- Obsługa eliminowania limitów w optymalizatorze AQE (SPARK-36424)
- Optymalizowanie planu jednego wiersza w normalnych i optymalizatorach AQE (SPARK-38162)
- Funkcja Aggregate.groupOnly obsługuje wyrażenia złożone (SPARK-38489)
- Metoda arrayEquals z ByteArrayMethods powinna szybko pominąć sprawdzanie zgodności z platformą niewyrównaną (SPARK-37796)
- Dodaj przycinanie wzorca drzewa w regule CTESubstitution (SPARK-37379)
- Dodaj więcej uproszczeń operatorów (SPARK-36665)
- Obsługa BooleanType w unwrapCastInBinaryComparison (SPARK-36607)
- Porzucenie wszystkich wyrażeń po pierwszym wyrażeniu, które nie jest wartością null (SPARK-36359)
- Dodać wizytatora planu logicznego do propagowania unikatowych atrybutów (SPARK-36194)
Ulepszenia wbudowanego łącznika
- Ogólne
- Łagodna serializacja daty/godziny ze źródła danych (SPARK-38437)
- Traktuj lokalizację tabeli jako bezwzględną, gdy pierwsza litera ścieżki jest ukośnikiem w tabeli create/alter (SPARK-38236)
- Usuwanie zer wiodących z pustej partycji typu liczb statycznych (SPARK-35561)
- Wsparcie opcji
ignoreCorruptFilesiignoreMissingFilesw źródle danych (SPARK-38767) - Dodaj polecenie
SHOW CATALOGS(SPARK-35973)
- Parquet
- Włącz dopasowywanie nazw kolumn w schemacie po identyfikatorach pól (SPARK-38094)
- Usuń nazwę pola wyboru podczas odczytywania/zapisywania danych w Parquet (SPARK-27442)
- Umożliwia wektoryzowane odczytywanie wartości logicznych z użyciem kodowania RLE w Parquet DataPage V2 (SPARK-37864)
- Obsługa kodowania strony danych Parquet w wersji 2 (DELTA_BINARY_PACKED) dla ścieżki wektoryzowanej (SPARK-36879)
- Ponowne tworzenie sygnatur czasowych w strefie czasowej sesji zapisane w metadanych Parquet/Avro (SPARK-37705)
- Przesunięcie w dół grupy według kolumny partycji dla agregacji (SPARK-36646)
- Przenoszenie agregacji (min/max/liczba) dla Parquet (SPARK-36645)
- Parquet: włączanie pasujących kolumn schematu według identyfikatora pola (SPARK-38094)
- Zmniejsz domyślny rozmiar strony o LONG_ARRAY_OFFSET, jeśli są używane G1GC i ON_HEAP (SPARK-37593)
- Implementowanie wektoryzowanych kodowań DELTA_BYTE_ARRAY i DELTA_LENGTH_BYTE_ARRAY dla obsługi parquet v2 (SPARK-37974)
- Obsługa typów złożonych dla czytnika wektoryzowanego Parquet (SPARK-34863)
- ORC
- Usuń nazwę pola wyboru podczas odczytywania/zapisywania istniejących danych w orc (SPARK-37965)
- Wypychanie agregacji dla ORC (SPARK-34960)
- Obsługa odczytywania i zapisywania interwałów ANSI ze źródeł danych ORC (SPARK-36931)
- Obsługa nazw kolumn składających się wyłącznie z liczb w źródłach danych ORC (SPARK-36663)
- JSON
- Respect allowNonNumericNumbers podczas analizowania cytowanych wartości NaN i Infinity w czytniku JSON (SPARK-38060)
- Domyślnie użyj funkcji CAST dla daty/godziny w formacie CSV/JSON (SPARK-36536)
- Wyrównanie komunikatu o błędzie dla nieobsługiwanych typów kluczy w MapType w czytniku JSON (SPARK-35320)
- CSV
- Poprawka odwołująca się do uszkodzonej kolumny rekordu z pliku CSV (SPARK-38534)
- Wartości null należy zapisać jako nic zamiast cytowanych pustych ciągów "" domyślnie (SPARK-37575)
- JDBC
- Dodaj instrukcję IMMEDIATE do implementacji obcinania dialektu DB2 (SPARK-30062)
- Hive
- Obsługa zapisywania tabeli zasobnikowej Hive (formaty plików Hive z hashem Hive) (SPARK-32712)
- Używanie wyrażeń do filtrowania partycji Hive po stronie klienta (SPARK-35437)
- Obsługa oczyszczania partycji dynamicznej dla programu HiveTableScanExec (SPARK-36876)
- InsertIntoHiveDir powinien korzystać ze źródła danych, jeśli można go przekonwertować (SPARK-38215)
- Obsługa zapisu wiadrowanej tabeli Hive (format Parquet/ORC z hashem Hive) (SPARK-32709)
Wycofanie węzła
- FallbackStorage nie powinien podejmować próby rozpoznania dowolnej nazwy hosta "zdalnego" (SPARK-38062)
- Funkcja ExecutorMonitor.onExecutorRemoved powinna traktować ExecutorDecommission jako zakończony (SPARK-38023)
Inne istotne zmiany
- Dodaj precyzyjne blokady do modułu BlockInfoManager (SPARK-37356)
- Obsługa mapowania typów zasobów GPU/FPGA platformy Spark na niestandardowy typ zasobu YARN (SPARK-37208)
- Zgłoś dokładny rozmiar bloku mieszania, jeśli jest przechylony (SPARK-36967)
- Obsługa rejestrowania Netty w warstwie sieciowej (SPARK-36719)
Przesyłanie strumieniowe ze strukturą
Główne funkcje
- Wprowadzenie Trigger.AvailableNow do uruchamiania zapytań przesyłania strumieniowego, takich jak Trigger.Once w wielu porcjach (SPARK-36533)
Inne istotne zmiany
- Użyj statefulOpClusteredDistribution dla operatorów stanowych z uwzględnieniem zgodności z poprzednimi wersjami (SPARK-38204)
- Popraw limit czasu flatMapGroupsWithState w partii przy użyciu danych dla klucza (SPARK-38320)
- Rozwiązano problem z poprawnością w połączeniu zewnętrznym strumień-strumień za pomocą dostawcy magazynu stanów RocksDB (SPARK-38684)
- Support Trigger.AvailableNow w źródle danych platformy Kafka (SPARK-36649)
- Optymalizowanie ścieżki zapisu u dostawcy magazynu stanów bazy danych RocksDB (SPARK-37224)
- Wprowadź nowe źródło danych w celu zapewnienia spójnego zestawu wierszy na mikropartię (SPARK-37062)
- Użyj HashClusteredDistribution dla operatorów stanowych przy uwzględnieniu zgodności z poprzednimi wersjami (SPARK-38204)
PySpark
API Pandas na platformie Apache Spark
Główne ulepszenia
- Optymalizacja indeksu "sekwencji rozproszonej" jako domyślna (SPARK-36559, SPARK-36338)
- Obsługa określania typu indeksu i nazwy w interfejsie API biblioteki pandas na platformie Spark (SPARK-36709)
- Pokaż domyślny typ indeksu w planach SQL dla interfejsu API biblioteki Pandas na platformie Spark (SPARK-38654)
Główne funkcje
- Zaimplementować natywną SparkSQL ps.merge_asof (SPARK-36813)
- Obsługa TimedeltaIndex w API pandas na platformie Spark (SPARK-37525)
- Obsługa klasy 'timedelta' w Pythonie (SPARK-37275, SPARK-37510)
- Implementacja funkcji w CategoricalAccessor/CategoricalIndex (SPARK-36185)
- Używa standardowego formatera ciągów Python dla interfejsu API SQL w interfejsie API biblioteki pandas na platformie Spark (SPARK-37436)
- Obsługa podstawowych operacji dla serii/indeksu typu timedelta (SPARK-37510)
- Obsługa ps.MultiIndex.dtypes (SPARK-36930)
- Implementowanie pliku Index.map (SPARK-36469)
- Zaimplementuj serię.xor i seria.rxor (SPARK-36653)
- Implementowanie jednoargumentowego operatora
invertcałkowitego ps. Seria/indeks (SPARK-36003) - Implementacja DataFrame.cov (SPARK-36396)
- Obsługa str i znacznika czasu dla (Seria|DataFrame).describe() (SPARK-37657)
- Obsługa parametru lambda
column(DataFrame.renameSPARK-38763)
Inne istotne zmiany
Zmiany przełomowe
- Usuwanie odwołań do obsługi Python 3.6 w dokumentach i python/docs (SPARK-36977)
- Usuń hack związany z namedtuple, zastępując wbudowaną funkcję pickle funkcją cloudpickle (SPARK-32079)
- Bump minimalna wersja biblioteki pandas do wersji 1.0.5 (SPARK-37465)
- Główne ulepszenia
- Podaj profiler dla Python/Pandas UDF (SPARK-37443)
- Używa standardowego formatera ciągów Python dla interfejsu API SQL w programie PySpark (SPARK-37516)
- Uwidacznianie stanu i klasy błędów SQL w wyjątkach PySpark (SPARK-36953)
- Spróbuj przechwycić błąd, gdy proces roboczy Python ulega awarii (SPARK-36062)
Główne funkcje
- Zaimplementuj element DataFrame.mapInArrow w Python (SPARK-37228)
- Używa standardowego formatera ciągów Python dla interfejsu API SQL w programie PySpark (SPARK-37516)
- Dodaj df.withMetadata API Pyspark (SPARK-36642)
- Obsługa typu timedelta języka Python (SPARK-37275)
- Udostępnij tableExists w pyspark.sql.catalog (SPARK-36176)
- Uwidaczniaj element databaseExists w katalogu pyspark.sql.catalog (SPARK-36207)
- Ujawnianie funkcji functionExists w katalogu SQL pyspark (SPARK-36258)
- Dodawanie elementu Dataframe.observation do programu PySpark (SPARK-36263)
- Dodawanie interfejsu API max_by/min_by do programu PySpark (SPARK-36972)
- Obsługa wnioskowania zagnieżdżonego słownika jako struktury podczas tworzenia ramki danych (SPARK-35929)
- Dodaj interfejsy API bit/octet_length do języka Scala, Python i R (SPARK-36751)
- Obsługa interfejsu API ILIKE w Python (SPARK-36882)
- Dodaj metodę isEmpty dla API Python DataFrame (SPARK-37207)
- Dodawanie obsługi dla wielu kolumn (SPARK-35173)
- Dodawanie elementu SparkContext.addArchive w PySpark (SPARK-38278)
- Umożliw wykonywalność reprezentacji typu SQL (SPARK-18621)
- Wskazówki dotyczące typów wbudowanych dla fpm.py w języku Python/pyspark/mllib (SPARK-37396)
- Implementacja parametru
dropnaSeriesGroupBy.value_counts(SPARK-38837)
MLLIB
Główne funkcje
- Dodaj parametr distanceMeasure do trainKMeansModel (SPARK-37118)
- Uwidacznianie elementu LogisticsRegression.setInitialModel, na przykład KMeans et al do (SPARK-36481)
- Obsługiwanie modelu CrossValidatorModel pozwala na uzyskanie odchylenia standardowego metryk dla każdej paramMap (SPARK-36425)
Główne ulepszenia
- Optymalizacja niektórych treeAggregates w MLlib poprzez opóźnienie alokacji (SPARK-35848)
- Przepisz _shared_params_code_gen.py, aby zawrzeć wbudowane podpowiedzi typu dla ml/param/shared.py (SPARK-37419)
Inne istotne zmiany
- Aktualizacja do Breeze 1.2 (SPARK-35310)
SparkR
- Migrowanie dokumentów platformy SparkR do narzędzia pkgdown (SPARK-37474)
- Uwidacznianie wyrażenia make_date w języku R (SPARK-37108)
- Dodawanie interfejsu API max_by/min_by do usługi SparkR (SPARK-36976)
- Obsługa interfejsu API ILIKE w języku R (SPARK-36899)
- Dodawanie s i csc jako funkcji języka R (SPARK-36824)
- Dodaj interfejsy API bit/octet_length do języka Scala, Python i R (SPARK-36751)
- Dodaj funkcję cot w języku R (SPARK-36688)
interfejs użytkownika
- Podsumowanie metryk spekulacyjnych na poziomie etapu (SPARK-36038)
- Ujednolicony czas mieszania bloku odczytu w celu przetasowania czasu oczekiwania na pobieranie odczytu w programie StagePage (SPARK-37469)
- Dodawanie zmodyfikowanych konfiguracji na potrzeby wykonywania sql w interfejsie użytkownika (SPARK-34735)
- Spraw, aby ThriftServer rozpoznawał spark.sql.redaction.string.regex (SPARK-36400)
- Załącz i uruchom obsługiwacz po uruchomieniu aplikacji w interfejsie użytkownika (SPARK-36237)
- Dodaj czas trwania zatwierdzenia do węzła grafu zakładki SQL (SPARK-34399)
- Obsługa zaplecza bazy danych RocksDB na serwerze historii platformy Spark (SPARK-37680)
- Pokaż opcje API Pandas w Spark w interfejsie użytkownika (SPARK-38656)
- Zmień nazwę "SQL" na "SQL/ DataFrame" na stronie interfejsu użytkownika SQL (SPARK-38657)
Build
- Migrowanie z log4j 1 do log4j 2 (SPARK-37814)
- Uaktualnij log4j2 do wersji 2.17.2 (SPARK-38544)
- Uaktualnianie do wersji Py4J 0.10.9.5 (SPARK-38563)
- Aktualizacja ORC do wersji 1.7.4 (SPARK-38866)
- Aktualizowanie tabel danych do wersji 1.10.25 (SPARK-38924)
Aktualizacje konserwacji
Zobacz Databricks Runtime 11.0.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 1.2.1
Zainstalowane biblioteki Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO w trybie ciągłym) | argon2-cffi | 20.1.0 | generator asynchroniczny | 1.10 |
| attrs | 21.2.0 | Wezwanie zwrotne | 0.2.0 | backports.ustawienia-punktów-wejścia | 1.1.1 |
| wybielacz | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
| certyfikat | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
| normalizator zestawu znaków | 2.0.4 | rowerzysta | 0.10.0 | Cython | 0.29.24 |
| dbus-python | 1.2.16 | debugpy | 1.4.1 | dekorator | 5.1.0 |
| defusedxml (biblioteka zabezpieczająca przetwarzanie XML) | 0.7.1 | distlib | 0.3.4 | informacje o dystrybucji | 0.23ubuntu1 |
| punkty wejścia | 0,3 | aspekty — omówienie | 1.0.0 | blokada plików | 3.6.0 |
| IDNA | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
| jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
| jupyterlab-pygments | 0.1.2 | Widżety JupyterLab | 1.0.0 | kiwisolver | 1.3.1 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
| Mistune | 0.8.4 | NBClient | 0.5.3 | nbconvert - narzędzie do konwersji plików Jupyter Notebook | 6.1.0 |
| nbformat | 5.1.3 | nest-asyncio | 1.5.1 | notes | 6.4.5 |
| numpy | 1.20.3 | opakowanie | 21,0 | Pandas | 1.3.4 |
| pandocfilters | 1.4.3 | parso | 0.8.2 | ofiara | 0.5.2 |
| pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 | Poduszka | 8.4.0 |
| pip | 21.2.4 | platformdirs | 2.5.2 | kreślenie | 5.6.0 |
| prometheus-client | 0.11.0 | zestaw narzędzi prompt | 3.0.20 | Protobuf (w skrócie od Protocol Buffers) | 3.20.1 |
| psutil (biblioteka Pythona do monitorowania systemów i procesów) | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
| PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.4 |
| pyrsistent | 0.18.0 | python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.2 |
| pytz (biblioteka Pythona do obliczeń stref czasowych) | 2021.3 | pyzmq | 22.2.1 | żądania | 2.26.0 |
| requests-unixsocket | 0.2.0 | s3transfer | 0.5.2 | scikit-learn | 0.24.2 |
| scipy (biblioteka naukowa dla Pythona) | 1.7.1 | urodzony na morzu | 0.11.2 | Send2Trash | 1.8.0 |
| setuptools | 58.0.4 | sześć | 1.16.0 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5.10 |
| statsmodels - biblioteka do modelowania statystycznego | 0.12.2 | Wytrzymałość | 8.0.1 | zakończony | 0.9.4 |
| ścieżka testowa | 0.5.0 | threadpoolctl | 2.2.0 | tornado | 6.1 |
| traitlets | 5.1.0 | nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.7 |
| virtualenv | 20.8.0 | szerokość(wcwidth) | 0.2.5 | kodowania webowe | 0.5.1 |
| wheel | 0.37.0 | widgetsnbextension | 3.6.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki Microsoft CRAN w wersji 2022-05-06.
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| askpass | 1.1 | potwierdzić to | 0.2.1 | porty wsteczne | 1.4.1 |
| baza | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit-64 | 4.0.5 | blob | 1.2.3 | rozruch systemu | 1.3-28 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-7 | Brio | 1.1.3 | miotła | 0.8.0 |
| bslib | 0.3.1 | kaszmir | 1.0.6 | dzwoniący | 3.7.0 |
| karetka | 6.0-92 | cellranger | 1.1.0 | Chroń | 2.3-56 |
| klasa | 7.3-20 | CLI | 3.3.0 | clipr | 0.8.0 |
| klaster | 2.1.3 | codetools | 0.2-18 | przestrzeń kolorów | 2.0-3 |
| commonmark | 1.8.0 | kompilator | 4.1.3 | konfig | 0.3.1 |
| cpp11 | 0.4.2 | kredka | 1.5.1 | dane logowania | 1.3.2 |
| skręt | 4.3.2 | tabela danych | 1.14.2 | zbiory danych | 4.1.3 |
| DBI | 1.1.2 | dbplyr | 2.1.1 | Opis | 1.4.1 |
| devtools | 2.4.3 | diffobj | 0.3.5 | skrót | 0.6.29 |
| dplyr | 1.0.9 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
| wielokropek | 0.3.2 | ocenić | 0.15 | fani | 1.0.3 |
| kolory | 2.1.0 | szybka mapa | 1.1.0 | Font Awesome | 0.2.2 |
| dla kotów | 0.5.1 | foreach | 1.5.2 | zagraniczny | 0.8-82 |
| kuźnia | 0.2.0 | fs | 1.5.2 | przyszłość | 1.25.0 |
| wprowadź przyszłość | 1.9.0 | płukać gardło | 1.2.0 | typy ogólne | 0.1.2 |
| Gert | 1.6.0 | ggplot2 | 3.3.6 | Gh | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-4 | globalne | 0.14.0 |
| klej | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
| Gower | 1.0.0 | grafika | 4.1.3 | grDevices | 4.1.3 |
| siatka | 4.1.3 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtabela | 0.3.0 | hełm ochronny | 0.2.0 | przystań | 2.5.0 |
| wyżej | 0,9 | HMS | 1.1.1 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.2 |
| widżety HTML | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.3 |
| Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-12 |
| isoband | 0.2.5 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.0 | KernSmooth | 2.23-20 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1.39 |
| etykietowanie | 0.4.2 | później | 1.3.0 | siatka | 0.20-45 |
| lawa | 1.6.10 | cykl życia | 1.0.1 | nasłuchiwanie | 0.8.0 |
| lubridate | 1.8.0 | magrittr | 2.0.3 | Markdown | 1.1 |
| MASA | 7.3-56 | Matrix | 1.4-1 | zapamiętywanie | 2.0.1 |
| Metody | 4.1.3 | mgcv | 1.8-40 | pantomima | 0,12 |
| Metryki modelu | 1.2.2.2 | modelr | 0.1.8 | munsell | 0.5.0 |
| nlme | 3.1-157 | sieć neuronowa (nnet) | 7.3-17 | numDeriv | 2016.8-1.1 |
| openssl | 2.0.0 | równoległy | 4.1.3 | równolegle | 1.31.1 |
| kolumna | 1.7.0 | pkgbuild | 1.3.1 | pkgconfig | 2.0.3 |
| pkgload | 1.2.4 | plogr | 0.2.0 | plyr | 1.8.7 |
| uznanie | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| Procesx | 3.5.3 | prodlim | 2019.11.13 | postęp | 1.2.2 |
| progressr | 0.10.0 | Obietnice | 1.2.0.1 | Prototyp | 1.0.0 |
| serwer proxy | 0.4-26 | PS | 1.7.0 | mruczenie | 0.3.4 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | "randomForest" | 4.7-1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.8.3 | RcppEigen | 0.3.3.9.2 | czytnik | 2.1.2 |
| readxl (biblioteka do odczytu plików Excel) | 1.4.0 | przepisy | 0.2.0 | rewanż | 1.0.1 |
| rematch2 | 2.1.2 | urządzenia zdalne | 2.4.2 | przykład powtarzalny | 2.0.1 |
| zmień kształt2 | 1.4.4 | rlang | 1.0.2 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.14 |
| RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1.16 |
| rprojroot | 2.0.3 | Rserve | 1.8-10 | RSQLite | 2.2.13 |
| rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.2 |
| Sass | 0.4.1 | waga | 1.2.0 | selektor | 0.4-2 |
| Informacje o sesji | 1.2.2 | kształt | 1.4.6 | błyszczący | 1.7.1 |
| sourcetools | 0.1.7 | sparklyr | 1.7.5 | SparkR | 3.3.0 |
| przestrzenny | 7.3-11 | Splajnów | 4.1.3 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statystyki | 4.1.3 | statystyki4 | 4.1.3 |
| łańcuchy | 1.7.6 | stringr | 1.4.0 | przetrwanie | 3.2-13 |
| sys | 3.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
| tibble | 3.1.7 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
| tidyverse | 1.3.1 | czasData | 3043.102 | tinytex | 0.38 |
| Narzędzia | 4.1.3 | Baza Danych Stref Czasowych (tzdb) | 0.3.0 | użyj tego | 2.1.5 |
| utf8 | 1.2.2 | narzędzia | 4.1.3 | UUID (Uniwersalny Unikalny Identyfikator) | 1.1-0 |
| vctrs (biblioteka R do przetwarzania danych wektorowych) | 0.4.1 | viridisLite | 0.4.0 | Vroom | 1.5.7 |
| Waldo | 0.4.0 | włosek czuciowy | 0,4 | Withr | 2.5.0 |
| xfun | 0,30 | xml2 | 1.3.3 | xopen | 1.0.0 |
| Xtable | 1.8-4 | yaml | 2.3.5 | zip | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.189 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.189 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.189 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.13.3 |
| com.fasterxml.jackson.core | jackson-core | 2.13.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
| com.github.ben-manes.kofeina | kofeina | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blask | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.4.0 |
| io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.1.1 |
| io.dropwizard.metrics | metryki-JVM | 4.1.1 |
| io.dropwizard.metrics | serwlety metryczne | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | Netty-buffer | 4.1.74.Final |
| io.netty | Netty-Codec | 4.1.74.Final |
| io.netty | netty-common (element wspólny) | 4.1.74.Final |
| io.netty | Netty Handler | 4.1.74.Final |
| io.netty | rozwiązywacz netty | 4.1.74.Final |
| io.netty | Klasy netty-tcnative | 2.0.48.Final |
| io.netty | Netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.14 |
| net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea (pakiet oprogramowania) | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 7.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 7.0.0 |
| org.apache.arrow | arrow-memory-netty | 7.0.0 |
| org.apache.arrow | wektor strzałki | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1,9 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | API klienta Hadoop | 3.3.2-databricks |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.2 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (biblioteka do serializacji i deserializacji w Apache Hive) | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | bluszcz | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
| org.apache.logging.log4j | log4j-api | 2.17.2 |
| org.apache.logging.log4j | log4j-core | 2.17.2 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.4 |
| org.apache.orc | orc-mapreduce | 1.7.4 |
| org.apache.orc | podkładki ORC | 1.7.4 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-encoding | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,20 |
| org.apache.yetus | adnotacje dla widowni | 0.5.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.6.2 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util (biblioteka narzędziowa Jetty) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
| org.glassfish.jersey.core | jersey-client | 2.34 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.34 |
| org.glassfish.jersey.core | serwer jersey | 2.34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0 Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | shims | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | Nieużywane | 1.0.0 |
| org.threeten | ThreeTen Extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |