Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Poniższe notatki o wydaniu dostarczają informacji o środowisku Databricks Runtime 16.4 LTS obsługiwanym przez Apache Spark 3.5.2.
Usługa Databricks wydała tę wersję LTS w maju 2025 r. W tej wersji istnieje 2 warianty, które obsługują język Scala 2.12 i jeden obsługujący język Scala 2.13.
Począwszy od wersji DBR 17 (Spark 4), będzie obsługiwana tylko wersja Scala 2.13. Aby ułatwić przejście, dwa obrazy są dostępne w wersji 16.4 LTS: jeden ze Scala 2.12 i jeden ze Scala 2.13. Użyj obrazu 2.13, aby przetestować i zaktualizować bazę kodu do wersji Scala 2.13 przed migracją do wersji DBR 17.
Wskazówki dotyczące migracji języka Scala 2.13
- Wszystkie inne funkcje są takie same w obu wersjach środowiska Databricks Runtime 16.4 LTS.
- Wersje zależności mogą się różnić między obrazem środowiska Databricks Runtime 16.4 Scala 2.12 a obrazem 16.4 Scala 2.13. Wersje bibliotek obsługiwanych na każdym obrazie są wymienione poniżej na tej stronie.
- Upewnij się, że kod został napisany w języku Scala 2.13, a plik wykonywalny został skompilowany przy użyciu języka Scala 2.13.
- Skompiluj projekt pod kątem platformy Spark 3.5.
Jeśli twój kod używa biblioteki R sparklyr, musisz użyć obrazu, który obsługuje Scalę 2.12.
Zmiany powodujące niezgodność między wersjami Scala 2.12 i 2.13
Istotne zmiany powodujące niezgodność
Środowisko Databricks Runtime traktuje istotne zmiany jako poważne, gdy wymagają one wprowadzenia znaczących zmian w kodzie w celu jego obsługi.
Niezgodność kolekcji: Przeczytaj tę oficjalną stronę dokumentacji Scala aby uzyskać szczegółowe informacje na temat migrowania kolekcji do wersji Scala 2.13. Jeśli kod używa wcześniejszej wersji kodu Scala, kolekcje będą podstawowym źródłem niezgodności podczas korzystania z usługi Databricks, szczególnie w przypadku parametrów interfejsu API i typów zwracanych.
Algorytm skrótu: podczas przeglądania kodów skompilowanych za pomocą języka Scala 2.12, nie należy polegać na niejawnej kolejności struktur danych, które nie gwarantują uporządkowania, takich jak
HashMapiSet. Kolekcje, które wykonują kolejność niejawną, mogą porządkować elementy inaczej, gdy są uruchamiane w wersji 2.13 (w porównaniu z 2.12) podczas wykonywania iteracji.
Drobne zmiany powodujące niezgodność
Databricks Runtime uznaje zmianę przełomową, gdy nie ma określonych komunikatów o błędach wynikających ze zmian wersji, ale zwykle kod nie zostanie skompilowany pod nową wersją. W takim przypadku komunikaty o błędach mogą dostarczać wystarczające informacje dotyczące aktualizowania kodu.
- Bardziej rygorystyczne wnioskowanie typów: podczas kompilowania kodu opracowanego dla języka Scala 2.12 w wersji 2.13, kompilator może zgłosić, że nie może wywnioskować typu lub może sugerować niejednoznaczność typu. Jawne dodawanie adnotacji do zmiennych z typem danych często rozwiązuje ten problem.
-
Usunięcie określonej składni: Niektóre składnie zostały przestarzałe w języku Scala 2.13, takie jak literał ciągu znaków z pojedynczym cudzysłowem, operator
+do łączenia ciągów znaków w przypadku użycia z nie-Stringtypem po lewej stronie, oraz operator postfiksowy (zamiast tego użyj notacji kropkowej). Aby dowiedzieć się więcej, zobacz: Wycofane cechy Scala w oficjalnej dokumentacji Scala. -
Komunikaty wyjściowe: Wyniki tekstowe komunikatów zwracanych z REPL mogą być różne między wersjami Scala 2.12 i 2.13. Każda rozbieżność nie oznacza, że składnia lub obliczenia są nieprawidłowe; zamiast tego komunikat opisuje problem lub kontekst inaczej lub przedstawia go w innym formacie reprezentującym. Na przykład
f: Foo = Foo(1)może pojawić sięf: Foo = Foo(i = 1)w niektórych komunikatach.
Lista wersji bibliotek obsługiwanych przez każdą wersję środowiska Databricks Runtime 16.4 LTS.
Nowe funkcje i ulepszenia
- Panele, alerty i zapytania są obsługiwane jako pliki przestrzeni roboczej
- Ulepszanie automatycznego kompaktowania klastra cieczy
- Automatycznie ładujący może teraz czyścić przetworzone pliki w katalogu źródłowym
- Dodano obsługę poszerzania typów na potrzeby przesyłania strumieniowego z tabel Delta
- IDENTIFIER obsługa teraz dostępna w bazie danych DBSQL dla operacji katalogu
- Wyrażenia sortowane udostępniają teraz automatycznie wygenerowane aliasy przejściowe
- Dodawanie obsługi interfejsu API wypychania filtru do źródeł danych języka Python
- Ulepszenie śledzenia funkcji UDF języka Python
- EXECUTE IMMEDIATE
- Buforowana konfiguracja planu źródła danych i przewodnik migracji
-
Nowe
listaggistring_aggfunkcje -
MERGE INTOObsługa tabel z szczegółową kontrolą dostępu do dedykowanych zasobów obliczeniowych jest teraz ogólnie dostępna (GA)
Pulpity nawigacyjne, alerty i zapytania są obsługiwane jako pliki obszaru roboczego
Pulpity nawigacyjne, alerty i zapytania są teraz obsługiwane jako pliki obszaru roboczego. Teraz można programowo wchodzić w interakcje z tymi obiektami usługi Databricks z dowolnego miejsca, w którym jest dostępny system plików obszaru roboczego, w tym zapisywanie, odczytywanie i usuwanie ich jak każdy inny plik. Aby dowiedzieć się więcej, zobacz Co to są pliki obszaru roboczego? i Programowe interakcje z plikami obszaru roboczego.
Ulepszanie automatycznego kompaktowania klastra cieczy
Tabele liquid clustering zarządzane przez Unity Catalog teraz wyzwalają automatyczną kompresję, aby automatycznie zredukować problem z małymi plikami między przebiegami OPTIMIZE.
Aby uzyskać więcej informacji, zobacz Auto compaction for Delta Lake on Azure Databricks (Automatyczne kompaktowanie usługi Delta Lake w usłudze Azure Databricks).
Automatycznie ładujący może teraz czyścić przetworzone pliki w katalogu źródłowym
Klienci mogą teraz poinstruować moduł automatycznego ładowania, aby automatycznie przenosił lub usuwał przetworzone pliki. Włącz tę funkcję, używając opcji cloudFiles.cleanSource Auto Loader.
Aby uzyskać więcej informacji, zobacz Opcje automatycznego modułu ładującego w obszarze cloudFiles.cleanSource.
Dodano obsługę rozszerzania typów na potrzeby przesyłania strumieniowego z tabel Delta.
W tej wersji dodano obsługę przesyłania strumieniowego z tabeli Delta, która ma dane kolumn o poszerzonym typie, oraz dla udostępniania tabeli Delta z włączoną funkcją rozszerzania typu przy użyciu funkcji Delta Sharing Databricks. Funkcja rozszerzania typu jest obecnie dostępna w publicznej wersji zapoznawczej.
Więcej informacji znajdziesz w sekcji Rozszerzenie typu.
IDENTIFIER obsługa teraz dostępna w bazie danych DBSQL dla operacji katalogu
Klienci usługi Azure Databricks mogą teraz używać klauzuli IDENTIFIER podczas wykonywania następujących operacji katalogu:
CREATE CATALOGDROP CATALOGCOMMENT ON CATALOGALTER CATALOG
Ta nowa składnia umożliwia klientom dynamiczne określanie nazw katalogów przy użyciu parametrów zdefiniowanych dla tych operacji, co umożliwia bardziej elastyczne i wielokrotnego użytku przepływy pracy SQL. Jako przykład składni rozważ CREATE CATALOG IDENTIFIER(:param) , gdzie param jest podany parametr, aby określić nazwę katalogu.
Aby uzyskać więcej informacji, zobacz IDENTIFIER klauzulę.
Teraz wyrażenia zebrane udostępniają automatycznie generowane aliasy przejściowe.
Automatycznie wygenerowane aliasy dla zestawionych wyrażeń będą teraz zawsze deterministycznie uwzględniać COLLATE informacje. Automatycznie wygenerowane aliasy są przejściowe (niestabilne) i nie należy na nich polegać. Zamiast tego, jako najlepsze rozwiązanie, należy używać expression AS alias spójnie i jawnie.
Dodaj obsługę filtrowania API do źródeł danych Python
W środowisku Databricks Runtime 16.4 LTS usługa Azure Databricks dodała obsługę przesuwania filtru do odczytu wsadowego źródeł danych w Pythonie w formie API podobnego do interfejsu SupportsPushDownFilters. Teraz można zaimplementować DataSourceReader.pushFilters odbieranie filtrów, które mogą być wypychane. Możesz również zaimplementować ten interfejs API, aby zapewnić logikę wybierania filtrów do wypychania, śledzenia ich i zwracania pozostałych filtrów dla aplikacji przez platformę Apache Spark.
Wypychanie filtru umożliwia źródle danych obsługę podzbioru filtrów. Może to zwiększyć wydajność, zmniejszając ilość danych, które muszą być przetwarzane przez platformę Spark.
Wypychanie filtru jest obsługiwane tylko w przypadku odczytów wsadowych, a nie odczytów przesyłanych strumieniowo. Nowy interfejs API należy dodać do DataSourceReader, a nie do DataSource lub DataSourceStreamReader. Lista filtrów musi być interpretowana jako logiczna AND elementów w implementacji. Ta metoda jest wywoływana raz podczas planowania zapytań. W domyślnej implementacji zwraca wszystkie filtry, co oznacza, że żadne filtry nie mogą być przeniesione niżej. Użyj podklas, aby zastąpić tę metodę i zaimplementować swoją logikę wdrażania filtrów.
Początkowo, aby interfejs API pozostał prosty, usługa Azure Databricks obsługuje tylko filtry V1, które mają kolumnę, operator logiczny i wartość literału. Serializacja filtru jest symbolem zastępczym i zostanie zaimplementowana w przyszłym żądaniu ściągnięcia. Przykład:
class DataSourceReader(ABC):
...
def pushFilters(self, filters: List["Filter"]) -> Iterable["Filter"]:
Usługa Azure Databricks zaleca zaimplementowanie tej metody tylko dla źródeł danych, które natywnie obsługują filtrowanie, takie jak bazy danych i interfejsy API GraphQL.
Ulepszenie śledzenia funkcji UDF języka Python
Śledzenie funkcji UDF języka Python obejmuje teraz ramki zarówno ze sterownika, jak i funkcji wykonawczej wraz z ramkami klienta, co powoduje lepsze komunikaty o błędach, które pokazują większe i bardziej istotne szczegóły (takie jak zawartość wiersza ramek wewnątrz funkcji zdefiniowanej przez użytkownika).
Funkcje UNION, EXCEPT i INTERSECT wewnątrz widoku oraz EXECUTE IMMEDIATE teraz zwracają poprawne wyniki.
Zapytania dotyczące definicji widoku tymczasowego i trwałego z kolumnami najwyższego poziomu UNION/EXCEPT/INTERSECTi bez aliasów zwróciły wcześniej nieprawidłowe wyniki, ponieważ UNION/EXCEPT/INTERSECT słowa kluczowe zostały uznane za aliasy. Teraz te zapytania będą poprawnie wykonywać całą operację zestawu.
EXECUTE IMMEDIATE ... INTO z top-level UNION/EXCEPT/INTERSECT i niealiasowanymi kolumnami również zapisał niepoprawny wynik operacji na zbiorze do określonej zmiennej, ponieważ parser interpretował te słowa kluczowe jako aliasy. Podobnie zapytania SQL z nieprawidłowym tekstem końcowym również były akceptowane. Operacje zbiorów w takich przypadkach zapisują poprawny wynik do określonej zmiennej lub zakończą się niepowodzeniem w przypadku nieprawidłowego tekstu SQL.
Przewodnik po załadowanej konfiguracji planu i migracji buforowanego źródła danych
Ponieważ DBR 16.4.0 odczyt z tabeli źródłowej pliku prawidłowo uwzględnia opcje zapytania, np. ograniczniki. Wcześniej pierwszy plan zapytania został zapisany w pamięci podręcznej, a zmiany opcji dokonane później zostały zignorowane. Aby przywrócić poprzednie zachowanie, ustaw spark.sql.legacy.readFileSourceTableCacheIgnoreOptions na wartość true.
Nowe listagg funkcje i string_agg
Począwszy od tej wersji, można użyć funkcji listagg lub string_agg do agregowania wartości STRING i BINARY w grupie.
Aby uzyskać więcej informacji, zobacz string_agg .
MERGE INTO Obsługa tabel z szczegółową kontrolą dostępu do dedykowanych zasobów obliczeniowych jest teraz ogólnie dostępna (GA)
W środowisku Databricks Runtime 16.3 lub nowszym dedykowane obliczenia obsługują MERGE INTO tabele Unity Catalog, które używają szczegółowej kontroli dostępu. Ta funkcja jest teraz ogólnie dostępna.
Zobacz Szczegółową kontrolę dostępu na dedykowanej jednostce obliczeniowej.
Zmiany zachowania DBR 16.4 LTS
- Delta tables: "DESCRIBE DETAIL table" będzie teraz pokazywać status funkcji ClusterByAuto tabeli
- Poprawka w celu przestrzegania opcji dla planów buforowanych źródeł danych
- Przeniesiono regułę redagowania z analizatora do optymalizatora
- variant_get i get_json_object teraz rozważają wiodące spacje w ścieżkach na platformie Apache Spark
- Włącz flagę, aby zapobiec wyłączaniu materializacji źródła w operacjach MERGE
- Przenieś kotwicę aktywacji dziennika metadanych partycji do tabeli
- Obniżanie wersji Json4s z 4.0.7 do 3.7.0-M11 w DBR 16.2 i 16.3
Tabele Delta: "DESCRIBE DETAIL table" będzie teraz pokazywał status clusterByAuto tabeli
DESCRIBE DETAIL {table} Będzie teraz wyświetlać clusterByAuto stan tabeli (prawda lub fałsz) obok bieżących kolumn klastrowania. Aby uzyskać więcej informacji na temat clusterByAuto, zobacz: Automatyczne klastrowanie cieczy.
Poprawka w celu przestrzegania opcji dla planów buforowanych źródeł danych
Ta aktualizacja zapewnia, że odczyty tabel respektują opcje ustawione dla wszystkich planów źródeł danych podczas buforowania, a nie tylko wtedy, gdy pierwszy odczyt tabeli jest buforowany.
Wcześniej odczyty tabeli źródła danych buforowały pierwszy plan, ale nie uwzględniały różnych opcji w kolejnych zapytaniach.
Na przykład następujące zapytanie:
spark.sql("CREATE TABLE t(a string, b string) USING CSV".stripMargin)
spark.sql("INSERT INTO TABLE t VALUES ('a;b', 'c')")
spark.sql("SELECT * FROM t").show()
spark.sql("SELECT * FROM t WITH ('delimiter' = ';')")
wygeneruje ten wynik:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
Dzięki tej poprawce funkcja zwraca teraz oczekiwane dane wyjściowe:
+----+----+
|col1|col2|
+----+----+
| a;b| c |
+----+----+
+----+----+
|col1|col2|
+----+----+
| a | b,c|
+----+----+
Jeśli obciążenia mają zależności od poprzedniego nieprawidłowego zachowania, po tej zmianie mogą pojawić się różne wyniki.
Przeniesiono regułę redakcji z analizatora do optymalizatora
Wcześniej ramki danych mogły tworzyć tabele zawierające zredagowane wartości, gdy były używane prawidłowe funkcje SECRET SQL. Ta zmiana usuwa redagowanie podczas zapisywania ram danych, gdy istnieje ważny sekretny dostęp do tabeli, a reguła redagowania została przeniesiona z analizatora do optymalizatora.
variant_get i get_json_object teraz uwzględniają początkowe spacje w ścieżkach w Apache Spark
Przed tą zmianą, wiodące białe znaki i tabulatory w ścieżkach w wyrażeniach variant_get i get_json_object były ignorowane przy wyłączonej funkcji Photon. Na przykład select get_json_object('{" key": "value"}', '$[' key']') nie byłoby skuteczne w wyodrębnianiu wartości " key". Jednak użytkownicy będą mogli wyodrębnić takie klucze.
Włącz flagę, aby zapobiec wyłączaniu materializacji źródła w operacjach MERGE
Wcześniej użytkownicy mogli wyłączyć materializację źródłową w pliku MERGE, ustawiając wartość merge.materializeSource na none. Po włączeniu nowej flagi będzie to zabronione i spowoduje błąd. Usługa Databricks planuje włączyć flagę tylko dla klientów, którzy wcześniej nie używali tej flagi konfiguracji, więc żaden klient nie powinien zauważyć żadnych zmian w zachowaniu.
Przesuń kotwicę włączenia dziennika metadanych partycji do tabeli
Funkcja dziennika metadanych partycji została zmieniona tak, aby po utworzeniu tabeli za pomocą spark.databricks.nonDelta.partitionLog.enabled = true można było ją przypisać, aby klaster nie ustawiał spark.databricks.nonDelta.partitionLog.enabled = true dla wszystkich tabel przetworzonych przez klaster.
Obniżanie wersji Json4s z 4.0.7 do 3.7.0-M11 w DBR 16.2 i 16.3
Klienci nie mogą używać funkcji databricks-connect 16.1+ i Apache Spark™ 3.5.x razem w tej samej aplikacji z powodu znacznych rozbieżności w zachowaniu interfejsu API między wersją Json4s w wersji 3.7.0-M11 i 4.0.7. Aby rozwiązać ten problem, usługa Azure Databricks obniżyła Json4s do wersji 3.7.0-M11.
Uaktualnienia bibliotek (dotyczy tylko obrazu Scala 2.12)
- Uaktualnione biblioteki języka R:
- sparklyr z wersji 1.8.4 do 1.8.6 (dotyczy tylko obrazu Scala 2.12 dla wydania LTS środowiska Databricks Runtime 16.4)
- Uaktualnione biblioteki Java:
- io.delta.delta-sharing-client_2.12 z wersji 1.2.3 do 1.2.4
- org.json4s.json4s-ast_2.12 z 4.0.7 do 3.7.0-M11
- org.json4s.json4s-core_2.12 z 4.0.7 do 3.7.0-M11
- org.json4s.json4s-jackson_2.12 z 4.0.7 do 3.7.0-M11
- org.json4s.json4s-scalap_2.12 z 4.0.7 do 3.7.0-M11
Wersja środowiska Databricks Runtime w wersji Scala 2.13 jest uważana za "nową" i może mieć różne wersje biblioteki z wersji 2.12. Zapoznaj się z poniższą tabelą, aby zapoznać się z konkretnymi wersjami biblioteki w tym obrazie wydania. Nie zawiera sparklyr w tej wersji.
Apache Spark
Środowisko Databricks Runtime 16.4 LTS obejmuje platformę Apache Spark 3.5.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 16.3 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-51206] [PYTHON][connect] Przenieść narzędzia konwersji Arrow poza Spark Connect
- [SPARK-51566] [PYTHON] Ulepszenie analizy śladu błędów UDF języka Python
- [SPARK-51675] [SS] Napraw tworzenie rodziny kolumn po otwarciu lokalnej bazy danych, aby uniknąć tworzenia migawki, jeśli nie jest to konieczne
- [SPARK-50892] [SQL]Dodaj unionLoopExec, operator fizyczny do rekursji, aby wykonać wykonywanie zapytań cyklicznych
- [SPARK-51670] [SQL] Refaktoryzacja Intersect i Except, aby podążać za przykładem Union do ponownego wykorzystania w jednoprzebiegowym analizatorze
- [SPARK-47895] [ BEHAVE-266][sql] grupa według aliasu powinna być idempotentna
- [SPARK-51614] [SQL] Wprowadzenie reguły ResolveUnresolvedHaving w analizatorze
- [SPARK-51662] [SQL] Uczynić OrcFileFormat porównywalnym
- [SPARK-51374] Cofnij zmianę "[CORE] Przełączenie na użycie java.util.Map w interfejsach API rejestrowania"
- [SPARK-51652] [SQL] Refaktoryzacja obliczeń SetOperation w celu ponownego użycia w analizatorze jednoprzepustowym
- [SPARK-51622] [UI] Tytułowanie sekcji na stronie ExecutionPage
- [SPARK-51586] [SS] inicjuje partycje wejściowe niezależnie od obsługi kolumn w trybie ciągłym
-
[SPARK-51070] [SQL] Użyj
scala.collection.Setzamiast Set w ValidateExternalType - [SPARK-51559] [SQL] Konfigurowanie maksymalnego rozmiaru tabeli emisji
- [SPARK-51496] [SQL] Porównanie CaseInsensitiveStringMap powinno ignorować wielkość liter
- [SPARK-50416] [CORE] Bardziej przenośny terminal/test rurowy wymagany do pojemnika/load-spark-env.sh
- [SPARK-51509] [CORE][ui] Umożliwienie obsługi filtrów na stronie środowiska
- [SPARK-51374] [CORE] Przejście na używanie java.util.Map w interfejsach API rejestrowania
- [SPARK-50820] [ SQL] DSv2: Warunkowe zerowanie kolumn metadanych w DML
- [SPARK-48922] [SQL] Unikaj zbędnego przekształcenia tablicy identycznego wyrażenia dla typu mapowego
- [SPARK-51446] [SQL] Ulepsz codecNameMap dla kodeka kompresji
- [SPARK-51341] [ CORE] Anulowanie zadania związanego z czasem w odpowiedni sposób.
- [SPARK-51452] [Interfejs użytkownika] Ulepszanie wyszukiwania tabel zrzutów wątków
-
[SPARK-51444] [CORE] Usuń nieosiągalną gałąź z
if -
[SPARK-51401] [SQL] Zmiana
ExplainUtils.generateFieldStringna bezpośrednie wywołanieQueryPlan.generateFieldString - [SPARK-49507] [ SQL] Rozwiązano problem po włączeniu metastorePartitionPruningFastFallback
- [SPARK-51506] [ PYTHON][ss] Nie wymuszaj na użytkownikach implementowania close() w funkcji TransformWithStateInPandas
- [SPARK-51624] [SQL] Propagowanie metadanych GetStructField w CreateNamedStruct.dataType
- [SPARK-51201] [SQL] Spraw, aby wskazówki dotyczące partycjonowania obsługiwały bajty i krótkie wartości
-
[SPARK-51186] [PYTHON] Dodaj
StreamingPythonRunnerInitializationExceptiondo podstawowego wyjątku PySpark - [SPARK-50286] [ SQL] Poprawna propagacja opcji SQL do programu WriteBuilder
- [SPARK-51616] [SQL] Uruchom CollationTypeCasts przed ResolveAliases i ResolveAggregateFunctions
- [SPARK-51023] [CORE] loguj zdalny adres w razie wyjątku RPC
- [SPARK-51087] [ PYTHON][connect] Zgłoś ostrzeżenie, gdy profiler pamięci nie jest zainstalowany na potrzeby profilowania pamięci
-
[SPARK-51073] [SQL] Usuń
UnstablezSparkSessionExtensionsProvidertraitu - [SPARK-51471] [SS] RatePerMicroBatchStream — klasyfikuj błąd asercji, gdy przesunięcie/sygnatura czasowa w elemencie startOffset jest większe niż endOffset
- [SPARK-51062] [PYTHON] Poprawka assertSchemaEqual w celu porównania precyzji i skali liczby dziesiętnej
- [SPARK-51612] [ SQL] Wyświetlanie konfiguracji Spark ustawionych w momencie tworzenia widoku w Desc jako JSON
- [SPARK-51573] [SS] Naprawianie stanu przesyłania strumieniowego punktu kontrolnego v2 checkpointInfo stan wyścigu
- [SPARK-51252] [SS] Dodaj metryki instancji dla ostatniej załadowanej wersji migawki w Magazynach Stanów HDFS
- [SPARK-51552] [SQL] Nie zezwalaj na zmienne tymczasowe w utrwalonych widokach, gdy są pod identyfikatorem
- [SPARK-51625] [SQL] Polecenie w relacjach CTE powinno uruchomić się bezpośrednio
- [SPARK-51584] [ SQL] Dodaj regułę, która wypycha projekt przez przesunięcie i pakiet, który go testuje
-
[SPARK-51593] [SQL] Refaktoryzacja tworzenia instancji
QueryExecutionMetering - [SPARK-49082] [ SQL] Obsługa rozszerzania daty na timestampNTZ w czytniku Avro
- [SPARK-50220] [PYTHON] Obsługa funkcji listagg w PySpark
- [c0][SPARK-51581] [CORE][sql] Użyj
nonEmpty/ do sprawdzenia pustki dla jawnegoisEmpty - [SPARK-42746] [SQL] Poprawka klasyfikacji błędów dla nowych wyjątków z listagg
-
[SPARK-51580] [ SQL] Zgłoś odpowiedni komunikat o błędzie dla użytkownika, gdy funkcja lambda jest niepoprawnie umieszczona
HigherOrderFunction - [SPARK-51589] [SQL] Naprawiono małą usterkę, polegającą na niesprawdzaniu funkcji agregujących w |>SELECT
- [SPARK-50821] [PYTHON] Uaktualnianie Py4J z wersji 0.10.9.8 do 0.10.9.9
- [SPARK-42746] [SQL] Implementowanie funkcji LISTAGG
- [SPARK-48399] [ SQL] Teradata: ByteType powinien być przypisany do BYTEINT zamiast BYTE(binary)
- [SPARK-43221] [ CORE] Pobieranie lokalnych bloków na hoście powinno używać statusu bloku przechowywanego na dysku
- [SPARK-51467] [Interfejs użytkownika] Utwórz tabele stron środowiska, które można filtrować
-
[SPARK-51569] [SQL] Nie twórz ponownie instancji
InSubquerywInTypeCoercionjeśli nie ma żadnych zmian typu - [SPARK-51280] [CONNECT] Ulepsz klasę błędu RESPONSE_ALREADY_RECEIVED
- [SPARK-51525] [ SQL] Pole sortowania dla desc as JSON StringType
- [SPARK-51565] [ SQL] Obsługa parametrów SQL w klauzuli okna ramowego
- [SPARK-51544] [SQL] Dodaj tylko unikatowe i niezbędne kolumny metadanych
- [SPARK-49349] [SQL] Ulepszanie komunikatu o błędzie dla LCA przy użyciu funkcji Generowanie
- [SPARK-51418] [ SQL] Fix DataSource PARTITON TABLE w/ Hive type incompatible partition columns
- [SPARK-51269] [SQL] Uproszczenie AvroCompressionCodec poprzez usunięcie wartości defaultCompressionLevel
- [SPARK-50618] [SS][sql] Sprawić, by DataFrameReader i DataStreamReader bardziej wykorzystywały analizator
- [SPARK-51097] [SS] Ponowne wprowadzenie metryk ostatnio przesłanej wersji migawki bazy danych RocksDB
- [SPARK-51321] [SQL] Dodaj obsługę rpad i lpad dla przepychania wyrażeń PostgresDialect i MsSQLServerDialect
- [SPARK-51428] [BEHAVE-264][sql] Ponowne przypisywanie aliasów dla zestawionych drzew wyrażeń w sposób deterministyczny
- [SPARK-51528] [SQL] Nie porównuj kodów skrótów bezpośrednio w pakiecie ProtobufCatalystDataConversionSuite
- [SPARK-51443] [SS] Naprawa kolumny singleVariantColumn w DSv2 i funkcji readStream.
- [SPARK-51397] [SS] Rozwiązano problem z obsługą zamykania puli konserwacji, który powodował długie czasy testów.
- [SPARK-51522] [ SQL] Wyłącz test dzieci z opóźnieniem dla analizatora jednoprzepustowego
- [SPARK-51079] [Fix-forward] Obsługa dużych typów zmiennych w bibliotece pandas UDF, createDataFrame i toPandas za pomocą strzałki
- [SPARK-51112] [ES-1348599][connect] Unikaj używania pyarrow na pustej tabeli.
- [SPARK-51438] [SQL] Umożliwić poprawne porównywanie i skrótowanie danych CatalystDataToProtobuf oraz ProtobufDataToCatalyst
- [SPARK-50855] [DBR16.x][ss][CONNECT] Obsługa programu Spark Connect dla funkcji TransformWithState w języku Scala
-
[SPARK-51208] [SQL]
ColumnDefinition.toV1Columnpowinien zachowaćEXISTS_DEFAULTrozdzielczość - [SPARK-51468] [ SQL] Przywracanie "Z formatu json/xml nie powinno zmieniać sortowania w danym schemacie"
- [SPARK-51453] [SQL] AssertTrue używa toPrettySQL zamiast simpleString
- [SPARK-51409] [SS] Dodaj klasyfikację błędów w procesie tworzenia modułu zapisu dziennika zmian
- [SPARK-51440] [SS] klasyfikuje NPE, gdy pole tematu ma wartość null w danych wiadomości Kafka i brak opcji tematu
-
[SPARK-51425] [Connect] Dodaj interfejs API klienta w celu ustawienia niestandardowego
operation_id - [SPARK-50652] [SS] Dodaj kontrolę dla zgodności wstecznej z RocksDB V2
- [SPARK-49164] [SQL] Poprawka dla nie NullSafeEqual w predykacie zapytania SQL w relacji JDBC
- [SPARK-50880] [ SQL] Dodaj nową metodę visitBinaryComparison do klasy V2ExpressionSQLBuilder
- [SPARK-50838] [ SQL]Wykonuje dodatkowe kontrole wewnątrz cyklicznych ctEs, aby zgłosić błąd, jeśli napotkano niedozwolony przypadek
- [SPARK-51307] [SQL] locationUri w CatalogStorageFormat powinien być zdekodowany do wyświetlania
- [SPARK-51079] [ PYTHON] Obsługa dużych typów zmiennych w bibliotece pandas UDF, createDataFrame i toPandas za pomocą strzałki
- [SPARK-50792] [SQL] Formatuj dane binarne jako literał binarny w JDBC.
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki tutaj:
Środowisko systemu
-
System operacyjny: Ubuntu 24.04.2 LTS.
- Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery środowiska Databricks Runtime działają na maszynach wirtualnych dostawcy chmury, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15 lub 2.13.10
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.1
Zainstalowane biblioteki języka Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| typy z adnotacjami | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autokomenda | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) | 12.17.0 | backports.tarfile | 1.2.0 | czarny | 24.4.2 |
| kierunkowskaz | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools (narzędzia do zarządzania pamięcią podręczną) | 5.3.3 | certyfikat | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizator zestawu znaków | 2.0.4 | kliknij | 8.1.7 |
| cloudpickle (biblioteka Python do serializacji obiektów) | 2.2.1 | komunikacja | 0.2.1 | ContourPy | 1.2.0 |
| kryptografia | 42.0.5 | rowerzysta | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| dekorator | 5.1.1 | Przestarzałe | 1.2.14 | distlib | 0.3.8 |
| Konwertowanie docstringów na markdown | 0,11 | wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 |
| blokada plików | 3.15.4 | fonttools | 4.51.0 | gitdb (baza danych Git) | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth (autoryzacja Google) | 2.35.0 |
| google-cloud-core | 2.4.1 | Google Cloud Storage (usługa przechowywania danych w chmurze od Google) | 2.18.2 | google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) | 1.6.0 |
| Google Media z Możliwością Wznowienia | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| status grpcio | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | odchylić | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| biblioteka matplotlib | 3.8.4 | biblioteka matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | więcej itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions (standardowe konwencje semantyczne w OpenTelemetry) | 0.48b0 | opakowanie | 24.1 |
| Pandas | 1.5.3 | parso | 0.8.3 | specyfikacja ścieżki | 0.10.3 |
| ofiara | 0.5.6 | pexpect | 4.8.0 | poduszka | 10.3.0 |
| pip (menedżer pakietów Pythona) | 24,2 | platformdirs | 3.10.0 | kreślenie | 5.22.0 |
| wtyczkowy | 1.0.0 | zestaw narzędzi prompt | 3.0.43 | proto-plus | 1.24.0 |
| Protobuf (w skrócie od Protocol Buffers) | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes (narzędzie do analizy statycznej kodu Python) | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.9 |
| pyright | 1.1.294 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | żądania | 2.32.2 |
| lina | 1.12.0 | RSA | 4.9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy (biblioteka naukowa dla Pythona) | 1.13.1 | urodzony na morzu | 0.13.2 |
| setuptools | 74.0.0 | sześć | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5.11 | stos danych | 0.2.0 |
| statsmodels - biblioteka do modelowania statystycznego | 0.14.2 | Wytrzymałość | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| Traitlets | 5.14.3 | osłona typów | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| typy-żądań | 2.31.0.0 | types-setuptools | 68.0.0.0 | typy-sześć | 1.16.0 |
| types-urllib3 | 1.26.25.14 | moduł typing_extensions | 4.11.0 | ujson (szybka biblioteka do obsługi formatu JSON) | 5.10.0 |
| nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | szerokość(wcwidth) | 0.2.5 | czymjestłatka | 1.0.2 |
| wheel | 0.43.0 | zawinięty | 1.14.1 | yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) | 0.33.0 |
| zamek błyskawiczny | 3.17.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN menedżera pakietów Posit z dnia 2024-08-04.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| strzałka | 16.1.0 | askpass | 1.2.0 | potwierdzić to | 0.2.1 |
| porty wsteczne | 1.5.0 | baza | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | odrobina | 4.0.5 | bit-64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | rozruch systemu | 1.3-30 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-10 | Brio | 1.1.5 | miotła | 1.0.6 |
| bslib | 0.8.0 | kaszmir | 1.1.0 | dzwoniący | 3.7.6 |
| karetka | 6.0-94 | cellranger | 1.1.0 | Chroń | 2.3-61 |
| klasa | 7.3-22 | CLI | 3.6.3 | clipr | 0.8.0 |
| zegar | 0.7.1 | klaster | 2.1.6 | codetools | 0.2-20 |
| przestrzeń kolorów | 2.1-1 | commonmark | 1.9.1 | kompilator | 4.4.0 |
| konfig | 0.3.2 | zdezorientowany | 1.2.0 | cpp11 | 0.4.7 |
| kredka | 1.5.3 | dane logowania | 2.0.1 | skręt | 5.2.1 |
| tabela danych | 1.15.4 | zbiory danych | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Opis | 1.4.3 | devtools | 2.4.5 |
| schemat | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.36 |
| przyciemnione oświetlenie | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | wielokropek | 0.3.2 | ocenić | 0.24.0 |
| fani | 1.0.6 | kolory | 2.1.2 | szybka mapa | 1.2.0 |
| Font Awesome | 0.5.2 | dla kotów | 1.0.0 | foreach | 1.5.2 |
| zagraniczny | 0.8-86 | kuźnia | 0.2.0 | Fs | 1.6.4 |
| przyszłość | 1.34.0 | wprowadź przyszłość | 1.11.2 | płukać | 1.5.2 |
| typy ogólne | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globalne | 0.16.3 | klej | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafika | 4.4.0 | grDevices | 4.4.0 | siatka | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0,7 | Gt | 0.11.0 |
| gtabela | 0.3.5 | hełm ochronny | 1.4.0 | przystań | 2.5.4 |
| wyżej | 0,11 | HMS | 1.1.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.8.1 |
| widżety HTML | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | soczysty sok | 0.1.0 |
| KernSmooth | 2.23–2.22 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1.48 | etykietowanie | 0.4.3 |
| później | 1.3.2 | siatka | 0.22-5 | lawa | 1.8.0 |
| cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matryca | 1.6-5 | zapamiętywanie | 2.0.1 | metody | 4.4.0 |
| mgcv | 1.9-1 | pantomima | 0,12 | miniUI (interfejs użytkownika) | 0.1.1.1 |
| mlflow | 2.14.1 | Metryki modelowe | 1.2.2.2 | modeler | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | sieć neuronowa (nnet) | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | równoległy | 4.4.0 |
| równolegle | 1.38.0 | kolumna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | Procesx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | postęp | 1.2.3 |
| progressr | 0.14.0 | Obietnice | 1.3.0 | Prototyp | 1.0.0 |
| serwer proxy | 0.4-27 | Postscriptum | 1.7.7 | mruczenie | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | "randomForest" | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktywny | 0.4.4 |
| ReactR | 0.6.0 | czytnik | 2.1.5 | readxl (biblioteka do odczytu plików Excel) | 1.4.3 |
| przepisy | 1.1.0 | rewanż | 2.0.0 | rewanż 2 | 2.1.2 |
| Zdalne sterowanie | 2.5.0 | przykład powtarzalny | 2.1.1 | zmień kształt2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| wersje R | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| waga (urządzenie) | 1.3.0 | selektor | 0.4-2 | Informacje o sesji | 1.2.2 |
| kształt | 1.4.6.1 | błyszczący | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr (patrz uwaga poniżej) | 1.8.6 | SparkR | 3.5.2 | przestrzenny | 7.3-17 |
| Splatiny | 4.4.0 | sqldf | 0.4-11 | KWADRAT | 2021.1 |
| Statystyki | 4.4.0 | statystyki4 | 4.4.0 | łańcuchy | 1.8.4 |
| stringr | 1.5.1 | przetrwanie | 3.6-4 | pewność siebie | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | kształtowanie tekstu | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| zmiana czasu | 0.3.0 | czasData | 4032.109 | tinytex | 0.52 |
| narzędzia | 4.4.0 | Baza Danych Stref Czasowych (tzdb) | 0.4.0 | sprawdzacz URL | 1.0.1 |
| użyj tego | 3.0.0 | utf8 | 1.2.4 | oprogramowanie użytkowe | 4.4.0 |
| UUID (Uniwersalnie Unikalny Identyfikator) | 1.2-1 | Wersja 8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| włosek czuciowy | 0.4.1 | Withr | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | Xtable | 1.8-4 |
| yaml | 2.3.10 | zapał | 0.1.0 | zamek / zip | 2.3.1 |
Uwaga / Notatka
Interfejs sparklyr jest obsługiwany tylko w obrazie wersji Databricks Runtime 16.4 LTS z obsługą języka Scala 2.12. Nie jest obsługiwany w obrazie wersji DBR 16.4 z obsługą języka Scala 2.13.
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.13)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.638 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-klej | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.638 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.638 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.15.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rodzimi |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rodzimi |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | konfig | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blask | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.27 |
| io.delta | delta-sharing-client_2.13 | 1.2.3 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.2.19 |
| io.dropwizard.metrics | metryki-JVM | 4.2.19 |
| io.dropwizard.metrics | serwlety metryczne | 4.2.19 |
| io.github.java-diff-utils | java-diff-utils | 4.12 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | Netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common (element wspólny) | 4.1.108.Final |
| io.netty | "netty-handler" | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | rozwiązywacz netty | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | Klasy netty-tcnative | 2.0.61.Final |
| io.netty | Netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | program uruchamiający Ant | 1.10.11 |
| org.apache.arrow | format strzałki | 15.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | wektor strzałki | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-pamięć | 2.0.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | szablon układu log4j w formacie JSON | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | podkładki ORC | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-cieniowane | 4.23 |
| org.apache.yetus | adnotacje dla widowni | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.9.2 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | jute dla zookeepera | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | API kolekcji Eclipse | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.40 |
| org.glassfish.jersey.core | serwer jersey | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.jline | jline | 3.21.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 3.7.0-M11 |
| org.json4s | json4s-core_2.13 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.13 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.13 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | podkładki regulacyjne | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.10 |
| org.scala-lang | scala-library_2.13 | 2.13.10 |
| org.scala-lang | scala-reflect_2.13 | 2.13.10 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.0.4 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.13 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.14.2 |
| org.scalactic | scalactic_2.13 | 3.2.16 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.16 |
| org.scalatest | scalatest_2.13 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen Extra | 1.7.1 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.638 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-klej | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.638 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.638 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.azure | azure-core | 1.30.0 |
| com.azure | azure-core-http-netty | 1.12.3 |
| com.azure | azure-identity | 1.5.3 |
| com.azure | azure-security-keyvault-keys | 4.4.4 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-xml | 2.13.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.fasterxml.woodstox | woodstox-core | 6.4.0 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rodzimi |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rodzimi |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.stephenc.jcip | Adnotacje JCIP | 1.0-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.azure | msal4j | 1.13.0 |
| com.microsoft.azure | msal4j-persistence-extension | 1.1.0 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.nimbusds | typ zawartości | 2,2 |
| com.nimbusds | znacznik językowy | 1.6 |
| com.nimbusds | nimbus-jose-jwt | 9.31 |
| com.nimbusds | oauth2-oidc-sdk | 9.35 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blask | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.4 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.2.19 |
| io.dropwizard.metrics | metryki-JVM | 4.2.19 |
| io.dropwizard.metrics | serwlety metryczne | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | Netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-dns | 4.1.77.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common (element wspólny) | 4.1.108.Final |
| io.netty | "netty-handler" | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | rozwiązywacz netty | 4.1.108.Final |
| io.netty | netty-resolver-dns | 4.1.77.Final |
| io.netty | netty-resolver-dns-classes-macos | 4.1.77.Final |
| io.netty | netty-resolver-dns-native-macos | 4.1.77.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | Klasy netty-tcnative | 2.0.61.Final |
| io.netty | Netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.projectreactor | rdzeń reaktora | 3.4.19 |
| io.projectreactor.netty | reaktor-netty-core | 1.0.20 |
| io.projectreactor.netty | reactor-netty-http | 1.0.20 |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.java.dev.jna | Platforma JNA | 5.6.0 |
| net.minidev | inteligentne akcesory | 2.4.11 |
| net.minidev | json-smart | 2.4.11 |
| net.razorvine | kiszonka | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | program uruchamiający Ant | 1.10.11 |
| org.apache.arrow | format strzałki | 15.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | wektor strzałki | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-pamięć | 2.0.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | szablon układu log4j w formacie JSON | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | podkładki ORC | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-cieniowane | 4.23 |
| org.apache.yetus | adnotacje dla widowni | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.9.2 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | jute dla zookeepera | 3.9.2 |
| org.bouncycastle | bcprov-jdk15on | 1.70 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.codehaus.woodstox | stax2-api | 4.2.1 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | API kolekcji Eclipse | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.40 |
| org.glassfish.jersey.core | serwer jersey | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.ow2.asm | ASM | 9.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.reaktywne strumienie | reaktywne strumienie | 1.0.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | podkładki regulacyjne | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen Extra | 1.7.1 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Wskazówka
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.