Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 11.3 LTS obsługiwanym przez platformę Apache Spark 3.3.0. Usługa Databricks wydała tę wersję w październiku 2022 r.
Uwaga / Notatka
LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.
Zmiany zachowania
[Zmiana powodująca niezgodność] Nowa wersja języka Python wymaga aktualizacji klientów Databricks Connect V1 dla języka Python.
Uwaga / Notatka
Kolejna aktualizacja przenosi wersję języka Python w środowisku Databricks Runtime 11.3 LTS do wersji 3.9.21. Wersja 3.9.21 nie wprowadza żadnych zmian behawioralnych.
Aby zastosować wymagane poprawki zabezpieczeń, wersja języka Python w środowisku Databricks Runtime 11.3 LTS jest aktualizowana z wersji 3.9.5 do 3.9.19. Ponieważ te zmiany mogą powodować błędy w klientach korzystających z określonych funkcji PySpark, wszyscy klienci korzystający z programu Databricks Connect V1 dla języka Python z usługą Databricks Runtime 11.3 LTS muszą zostać zaktualizowani do języka Python w wersji 3.9.7 lub nowszej.
Nowe funkcje i ulepszenia
- Język Python został uaktualniony z wersji 3.9.19 do wersji 3.9.21
- Wyzwalacz trigger once w Structured Streaming jest przestarzały
- Zmienianie ścieżki źródłowej dla automatycznego modułu ładującego
- Łącznik Kinesis Databricks obsługuje teraz odczytywanie strumieni danych Kinesis w trybie EFO
- Nowe funkcje geoprzestrzenne H3 i dodana obsługa Photon dla wszystkich funkcji H3
- Nowe funkcje dla Predykcyjnego Wejścia/Wyjścia
- Zwiększanie początkowych partycji do skanowania pod kątem zapytań selektywnych
- Wizualizacja nowych wersji planu AQE
- Nowe tryby śledzenia postępu asynchronicznego i przeczyszczania dzienników
-
Strukturalne przesyłanie strumieniowe na Unity Catalog teraz obsługuje
display() - Zdarzenia potoku są teraz rejestrowane w formacie JSON
- Dowolne przetwarzanie stanowe w strumieniu ustrukturyzowanym przy użyciu języka Python
- Wnioskowanie daty w plikach CSV
- Obsługa klonowania tabel Apache Parquet i Apache Iceberg (Publiczna Wersja Przedpremierowa)
- Użyj języka SQL do określenia lokalizacji magazynowania na poziomie schematu i katalogu dla tabel zarządzanych przez Unity Catalog
Język Python został uaktualniony z wersji 3.9.19 do wersji 3.9.21
Wersja języka Python w środowisku Databricks Runtime 11.3 LTS jest aktualizowana z wersji 3.9.19 do 3.9.21.
Jednorazowy wyzwalacz strumieniowego przesyłania danych ze strukturą jest przestarzały
Ustawienie Trigger.Once zostało przestarzałe. Usługa Databricks zaleca użycie Trigger.AvailableNow. Zobacz Konfigurowanie interwałów wyzwalania strukturalnego przesyłania strumieniowego.
Zmiana ścieżki źródłowej dla Auto Loader
Teraz możesz zmienić ścieżkę wejściową katalogu dla automatycznego modułu ładującego skonfigurowanego z trybem listy katalogów bez konieczności wybierania nowego katalogu punktów kontrolnych. Zobacz Zmienianie ścieżki źródłowej dla modułu ładującego automatycznego.
Łącznik Kinesis w usłudze Databricks obsługuje teraz odczytywanie strumieni danych z Kinesis w trybie EFO.
Teraz możesz użyć źródła przesyłania strumieniowego ze strukturą usługi Databricks Kinesis w środowisku Databricks Runtime 11.3 LTS, aby uruchamiać zapytania odczytujące ze strumieni danych Kinesis w rozszerzonym trybie fan-out. Umożliwia to dedykowaną przepływność na fragment, na konsumenta i przekazywanie rekordów w trybie push.
Nowe funkcje geoprzestrzenne H3 i dodano obsługę funkcji Photon dla wszystkich funkcji H3
Przedstawiamy 4 nowe funkcje H3: h3_maxchild, h3_minchild, h3_pointash3 i h3_pointash3string. Te funkcje są dostępne w języku SQL, Scala i Python. Wszystkie wyrażenia H3 są teraz obsługiwane w aplikacji Photon. Zobacz H3 funkcje geoprzestrzenne.
Nowe funkcje predykcyjne we/wy
Aplikacja Photon obsługuje tryb zakresu na potrzeby uruchamiania ramek przy użyciu polecenia RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW. Aplikacja Photon obsługuje również tryb zakresu dla rosnących ramek przy użyciu polecenia RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }.
Zwiększanie początkowych partycji do skanowania pod kątem zapytań selektywnych
Wartość początkowych partycji do skanowania została zwiększona do 10 na potrzeby selektywnego wykonywania zapytań w klastrach z włączoną technologią Photon take/tail/limit oraz w usłudze Databricks SQL LIMIT. Dzięki 10 partycjom można uniknąć obciążeń związanych z uruchamianiem wielu małych zadań i powolnym skalowaniem w górę. Można to również skonfigurować za pomocą programu spark.sql.limit.selectiveInitialNumPartitions.
Wizualizacja nowych wersji planu AQE
Wprowadzenie wersji planów AQE pozwala na wizualizację aktualizacji planów wykonania w czasie rzeczywistym wynikających z adaptacyjnego wykonywania zapytań (AQE).
Nowe tryby śledzenia postępu asynchronicznego i przeczyszczania dzienników
Wprowadzenie trybów strumieniowania strukturalnego: asynchroniczne śledzenie postępu i asynchroniczne czyszczenie dzienników. Tryb przeczyszczania dziennika asynchronicznego zmniejsza opóźnienie zapytań przesyłanych strumieniowo przez usunięcie dzienników używanych do śledzenia postępu w tle.
Strukturalne przesyłanie strumieniowe w Unity Catalog teraz obsługuje display()
Teraz możesz użyć display() podczas korzystania z przesyłania strumieniowego w strukturze do pracy z tabelami zarejestrowanymi w Unity Catalog.
Zdarzenia pipeline są teraz rejestrowane w formacie JSON
Usługa Azure Databricks zapisuje teraz zdarzenia potoku w dzienniku sterownika w formacie JSON. Chociaż każde zdarzenie będzie możliwe do analizowania w formacie JSON, duże zdarzenia mogą nie zawierać wszystkich pól lub pola mogą zostać obcięte. Każde zdarzenie jest rejestrowane w jednym wierszu z prefiksem Event received: . Poniżej przedstawiono przykładowe zdarzenie.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Dowolne przetwarzanie stanowe w strumieniu ustrukturyzowanym przy użyciu języka Python
applyInPandasWithState Wprowadzenie funkcji, która może służyć do wykonywania dowolnego przetwarzania stanowego w PySpark. Jest to odpowiednik flatMapGroupsWithState funkcji w interfejsie API języka Java.
Wnioskowanie daty w plikach CSV
Wprowadzenie ulepszonego wnioskowania kolumn typu daty w plikach CSV. Gdy format daty jest spójny w rekordach dla kolumny, te kolumny można wywnioskować jako DateType. Można również mieć kombinację formatów dat w różnych kolumnach. Usługa Azure Databricks może automatycznie wywnioskować format daty dla każdej kolumny. Kolumny z datami w plikach CSV, przed wydaniem Databricks Runtime 11.3 LTS, są pozostawiane jako StringType.
Obsługa klonowania tabel Apache Parquet i Apache Iceberg (publiczna wersja zapoznawcza)
Klon można teraz używać do tworzenia i przyrostowego aktualizowania tabel delty, które odwzorowują tabele Apache Parquet i Apache Iceberg. Możesz zaktualizować źródłową tabelę Parquet i przyrostowo zastosować zmiany do sklonowanej tabeli delty za pomocą polecenia klonowania. Zobacz Przyrostowe klonowanie tabel Parquet i Apache Iceberg do Delta Lake.
Użyj SQL do określenia lokalizacji przechowywania na poziomie schematu i katalogu dla tabel zarządzanych przez Unity Catalog.
Teraz możesz użyć MANAGED LOCATION polecenia SQL, aby określić lokalizację magazynu w chmurze dla zarządzanych tabel na poziomach katalogu i schematu. Zobacz CREATE CATALOG i CREATE SCHEMA.
Zmiany zachowania
Databricks Connect 11.3.2
Aktualizacja klienta programu Databricks Connect 11.3.2 jest teraz obsługiwana. Zobacz Informacje o wersji programu Databricks Connect i Databricks Connect.
Zaktualizowano łącznik usługi Azure Databricks Snowflake
Łącznik Snowflake usługi Azure Databricks został zaktualizowany do najnowszej wersji kodu z repozytorium open source Snowflake Data Source dla platformy Apache Spark. Jest ona teraz w pełni zgodna ze środowiskiem Databricks Runtime 11.3 LTS, łącznie z wypychaniem predykatów i planów zapytań, z zachowaniem wszystkich funkcji wersji open source.
Pamięć podręczna hadoop dla usługi S3A jest teraz wyłączona
Pamięć podręczna Hadoop (interfejs FileSystem API Apache Hadoop Main 3.3.4) dla S3A jest teraz wyłączona. Aby dostosować się do innych łączników usług magazynowania w chmurze. W przypadku obciążeń korzystających z buforowania systemu plików upewnij się, że nowo utworzone systemy plików są dostarczane z odpowiednimi konfiguracjami usługi Hadoop, w tym dostawcami poświadczeń.
Schemat kolekcji statystyk usługi Delta Lake odpowiada teraz kolejności kolumn w definicji schematu tabeli
Ta zmiana dotyczy błędu w protokole usługi Delta Lake, w którym statystyki nie zostały zebrane dla kolumn z powodu niezgodności w ramce danych i porządkoweniu kolumn tabeli. W niektórych przypadkach może wystąpić spadek wydajności zapisu ze względu na zbieranie statystyk z wcześniej nieśledzonych pól. Zobacz Pomijanie danych dla Delta Lake.
applyInPandasWithState zgłasza błąd, jeśli zapytanie ma operację przetasowania po operatorze
Operator applyInPandasWithState zgłasza błąd, jeśli zapytanie ma shuffle po operatorze. Dzieje się tak, gdy użytkownik dodaje shuffle po operacji, lub gdy optymalizator albo ujście niejawnie dodaje shuffle.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- distlib z 0.3.5 do 0.3.6
- Uaktualnione biblioteki języka R:
- broom od 1.0.0 do 1.0.1
- callr od 3.7.1 do 3.7.2
- dplyr z wersji 1.0.9 do 1.0.10
- dtplyr z wersji 1.2.1 do 1.2.2
- forcats z 0.5.1 do 0.5.2
- przyszłość z wersji 1.27.0 do 1.28.0
- future.apply z wersji 1.9.0 do 1.9.1
- gert z 1.7.0 do 1.8.0
- globals w wersji od 0.16.0 do 0.16.1
- gtable z wersji 0.3.0 do wersji 0.3.1
- haven z wersji 2.5.0 na 2.5.1
- hms od 1.1.1 do 1.1.2
- httr z 1.4.3 do 1.4.4
- knitr z 1.39 do 1.40
- modelr od 0.1.8 do 0.1.9
- filar od 1.8.0 do 1.8.1
- progressr z 0.10.1 do 0.11.0
- readxl z wersji 1.4.0 do 1.4.1
- reprex z 2.0.1 do 2.0.2
- rlang z wersji 1.0.4 do 1.0.5
- rmarkdown z 2.14 do 2.16
- RSQLite z wersji 2.2.15 do 2.2.16
- rstudioapi z 0.13 do 0.14
- rversions z 2.1.1 do 2.1.2
- rvest z 1.0.2 do 1.0.3
- skaluje z wersji 1.2.0 do 1.2.1
- sparklyr z 1.7.7 do 1.7.8
- stringr z 1.4.0 do 1.4.1
- przetrwanie z 3.2-13 do 3.4-0
- tinytex z 0.40 do 0.41
- viridisLite z wersji 0.4.0 do 0.4.1
- Uaktualnione biblioteki Java:
- com.fasterxml.jackson.core.jackson-adnotacje z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.core.jackson-core z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.core.jackson-databind z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda z 2.13.3 do 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 z wersji 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer od 2.13.3 do 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 z wersji 2.13.3 do 2.13.4
- org.apache.hadoop.hadoop-client-api z wersji 3.3.2-databricks do 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime z wersji 3.3.2 do wersji 3.3.4
- org.apache.orc.orc-core z wersji 1.7.5 do 1.7.6
- org.apache.orc.orc-mapreduce z wersji 1.7.5 do 1.7.6
- org.apache.orc.orc-shims od 1.7.5 do 1.7.6
- org.apache.parquet.parquet-column from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-common od 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-encoding from 1.12.0-databricks-0004 to 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures from 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop z 1.12.0-databricks-0004 do 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson z wersji 1.12.0-databricks-0004 do wersji 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet z 2.34 do 2.36
- org.glassfish.jersey.containers.jersey-container-servlet-core od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-client od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-common od 2.34 do 2.36
- org.glassfish.jersey.core.jersey-server od 2.34 do 2.36
- org.glassfish.jersey.inject.jersey-hk2 z 2.34 do 2.36
Apache Spark
Środowisko Databricks Runtime 11.3 LTS obejmuje platformę Apache Spark 3.3.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 11.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-39957] [ WARMFIX][sc-111425][CORE] Opóźnienie onDisconnected, aby umożliwić sterownikowi otrzymanie ExecutorExitCode
- [SPARK-39955] [ WARMFIX][sc-111424][CORE] Ulepsz proces LaunchTask w celu uniknięcia błędów etapu spowodowanych nieudanym wysłaniem komunikatów LaunchTask
- [SPARK-40474] [ SC-106248][cherry-pick] Poprawne zachowanie wnioskowania schematu CSV dla kolumn daty/godziny i wprowadzanie automatycznego wykrywania pól daty
- [SPARK-40535] [SC-111243][sql] Napraw błąd, że bufor AggregatingAccumulator nie zostanie utworzony, jeśli wiersze wejściowe są puste
- [SPARK-40434] [SC-111125][sc-111144][SC-111138][spark-40435][11.3][ss][PYTHON] Implement applyInPandasWithState w PySpark
-
[SPARK-40460] [SC-110832][ss] Napraw metryki przesyłania strumieniowego podczas wybierania
_metadata -
[SPARK-40324] [ SC-109943][sql] Podaj kontekst zapytania
ParseException - [SPARK-40466] [SC-110899][ss] Ulepszanie komunikatu o błędzie, gdy DSv2 jest wyłączony, gdy usługa DSv1 jest niedostępna
- [SPARK-40456] [ SC-110848][sql] PartitionIterator.hasNext powinno umożliwiać wielokrotne wywołania przy niskim koszcie zasobów.
- [SPARK-40169] [ SC-110772][sql] Nie wypychaj filtrów Parquet bez odwołania do schematu danych
- [SPARK-40467] [SC-110759][ss] Podziel FlatMapGroupsWithState na wiele zestawów testowych
- [SPARK-40468] [ SC-110813][sql] Napraw oczyszczanie kolumn w pliku CSV po wybraniu _corrupt_record
- [SPARK-40291] [ SC-110085][sql] Poprawić komunikat dla kolumny, która nie znajduje się w klauzuli GROUP BY
- [SPARK-40398] [SC-110762][core][SQL] Użyj pętli zamiast API Arrays.stream
- [SPARK-40433] [SC-110684][ss][PYTHON] Dodaj toJVMRow w PythonSQLUtils, aby przekonwertować zapakowany w pickle obiekt PySpark Row na JVM Row
- [SPARK-40414] [SC-110568][sql][PYTHON] Bardziej ogólny typ PythonArrowInput i PythonArrowOutput
- [SPARK-40352] [ SC-109945][sql] Dodawanie aliasów funkcji: len, datepart, dateadd, date_diff i curdate
- [SPARK-40470] [ SC-110761][sql] Obsługa operacji GetArrayStructFields i GetMapValue w funkcji "arrays_zip"
- [SPARK-40387] [SC-110685][sql] Ulepszenie implementacji liczby dziesiętnej Spark
- [SPARK-40429] [ SC-110675][sql] Ustaw KeyGroupedPartitioning tylko wtedy, gdy odwoływana kolumna znajduje się w danych wyjściowych
- [SPARK-40432] [SC-110716][ss][PYTHON] Wprowadzenie GroupStateImpl i GroupStateTimeout w PySpark
- [SPARK-39915] [ SC-110496][sql] Upewnij się, że partycjonowanie danych wyjściowych jest określone przez użytkownika w AQE
-
[SPARK-29260] [ SQL] Obsługa
ALTER DATABASE SET LOCATION, jeśli system HMS obsługuje - [SPARK-40185] [ SC-110056][sql] Usuń sugestię kolumny, gdy lista kandydatów jest pusta
- [SPARK-40362] [SC-110401][sql] Naprawiłem kanonizację BinaryComparison
- [SPARK-40411] [ SC-110381][ss] Przebudowa FlatMapGroupsWithStateExec, aby mieć interfejs nadrzędny
- [SPARK-40293] [ SC-110084][sql] Wprowadź bardziej zrozumiały komunikat o błędzie tabeli V2
-
[SPARK-38734] [SC-110383][sql] Usuń klasę błędów
INDEX_OUT_OF_BOUNDS - [SPARK-40292] [SC-110300][sql] Napraw nazwy kolumn w funkcji "arrays_zip", kiedy odwołania do tablic pochodzą z zagnieżdżonych struktur
- [SPARK-40276] [SC-109674][core] Zmniejsz rozmiar wyniku RDD.takeOrdered
- [SPARK-40197] [ SC-109176][sql] Zastąp plan zapytania kontekstem dla MULTI_VALUE_SUBQUERY_ERROR
-
[SPARK-40300] [SC-109942][sql] Migrate to the
DATATYPE_MISMATCHerror class (Migrowanie do klasy błędów) - [SPARK-40149] [ SC-110055][sql] Propagacja kolumn metadanych za pomocą programu Project
- [SPARK-40280] [SC-110146][sql] Dodaj obsługę wypychania dla parquet dla typów int i long
- [SPARK-40220] [ SC-110143][sc-109175][SQL] Nie wyświetlaj pustej mapy parametrów komunikatu o błędzie
- [SPARK-40295] [SC-110070][sql] Zezwalaj na funkcje v2 z argumentami literałów w dystrybucji/porządkowaniu zapisu
-
[SPARK-40156] [ SC-109264][sql]
url_decode()powinna zwracać klasę błędu - [SPARK-39195] [ SQL] Spark OutputCommitCoordinator powinien przerwać etap, gdy zatwierdzony plik nie jest zgodny ze stanem zadania
- [SPARK-40260] [ SC-109424][sql] Użyj klas błędów w błędach GROUP BY kompilacji pozycji
- [SPARK-40205] [SC-110144][sc-109082][SQL] Podaj kontekst zapytania ELEMENT_AT_BY_INDEX_ZERO
- [SPARK-40112] [ SC-109676][sql] Ulepszanie funkcji TO_BINARY()
-
[SPARK-40209] [ SC-109081][sql] Nie zmieniaj wartości interwału liczby dziesiętnej w
changePrecision()przypadku błędów - [SPARK-40319] [SC-109873][sql] Usuń zduplikowaną metodę błędu wykonywania zapytania dla PARSE_DATETIME_BY_NEW_PARSER
- [SPARK-40222] [SC-109209][sql] Numeryczne try_add/try_divide/try_subtract/try_multiply powinny zgłaszać błędy wychodzące od ich elementów podrzędnych
- [SPARK-40183] [ SC-108907][sql] Użyj klasy błędów NUMERIC_VALUE_OUT_OF_RANGE dla przepełnienia w konwersji dziesiętnej
-
[SPARK-40180] [ SC-109069][sql] Formatowanie komunikatów o błędach przez
spark-sql - [SPARK-40153] [ SC-109165][sql] Ujednolicenie funkcji rozpoznawania i funkcji wartości tabeli
-
[SPARK-40308] [SC-109880][sql] Zezwól na argumenty separatora nieskładalne dla funkcji
str_to_map - [SPARK-40219] [ SC-110052][sc-109663][SQL] Rozwiązany plan logiczny widoku powinien zawierać schemat, aby uniknąć nadmiarowego wyszukiwania
- [SPARK-40098] [ SC-109939][sc-108693][SQL] Format komunikatów o błędach na serwerze Thrift
- [SPARK-39917] [ SC-109038][sql] Użyj różnych klas błędów dla przepełnienia arytmetycznego liczbowego/interwałowego
- [SPARK-40033] [SC-109875][sql] Obsługa przycinania zagnieżdżonych schematów za pomocą element_at
- [SPARK-40194] [ SC-109660][sql] Funkcja SPLIT dla pustego wyrażenia regularnego powinna usuwać końcowy pusty ciąg.
- [SPARK-40228] [ SC-109835][sql] Nie upraszczaj funkcji multiLike, jeśli element podrzędny nie jest tanim wyrażeniem
- [SPARK-40039] [SC-109896][sc-109260][SS] Wprowadzenie nowego menedżera plików punktu kontrolnego do przesyłania strumieniowego opartego na interfejsie Abortable platformy Hadoop
-
[SPARK-40285] [ SC-109679][sql] Upraszczenie
roundTo[Numeric]dla SparkDecimal - [SPARK-39896] [ SC-109658][sql] UnwrapCastInBinaryComparison powinna działać, gdy literał in/InSet downcast nie powiódł się
- [SPARK-40040] [SC-109662][sql] Przesuwanie limitu lokalnego na obie strony, jeśli warunek sprzężenia jest pusty
- [SPARK-40055] [ SC-109075][sql] listCatalogs powinny również zwracać spark_catalog nawet wtedy, gdy implementacja spark_catalog jest domyślnaSessionCatalog
- [SPARK-39915] [ SC-109391][sql] Dataset.repartition(N) może nie tworzyć N partycji innych niż AQE
- [SPARK-40207] [ SC-109401][sql] Określ nazwę kolumny, gdy typ danych nie jest obsługiwany przez źródło danych
- [SPARK-40245] [ SC-109295][sql] Poprawka sprawdzania równości FileScan, gdy kolumny partycji lub filtru danych nie są odczytywane
- [SPARK-40113] [SC-109405][sql] Implementacje interfejsu DataSourceV2 w Reactor ParquetScanBuilder
- [SPARK-40211] [ SC-109226][core][SQL] Zezwalaj na dostosowywanie liczby partycji początkowych w funkcji take()
-
[SPARK-40252] [SC-109379][sql] Zastąp
Stream.collect(Collectors.joining)elementem APIStringJoiner - [SPARK-40247] [SC-109272][sql] Naprawa sprawdzania równości BitSet
- [SPARK-40067] [ SQL] Użyj polecenia Table#name() zamiast Scan#name(), aby wypełnić nazwę tabeli w węźle BatchScan w usłudze SparkUI
- [SPARK-39966] [ SQL] Użyj filtru V2 w obszarze SupportsDelete
- [SPARK-39607] [ SC-109268][sql][DSV2] Obsługa funkcji dystrybucji i sortowania V2 w zapisach
- [SPARK-40224] [SC-109271][sql] ObjectHashAggregateExec szybko zwalnia pamięć przy przejściu na tryb sortowania.
-
[SPARK-40013] [ SQL] Wyrażenia DS v2 powinny mieć wartość domyślną
toString - [SPARK-40214] [SC-109079][python][SQL] dodano "get" do funkcji
- [SPARK-40192] [SC-109089][sql][ML] Usuń zbędną funkcję groupby
- [SPARK-40146] [ SC-108694][sql] Po prostu kodgen pobierania wartości mapy
- [SPARK-40109] [ SQL] Nowa funkcja SQL: get()
- [SPARK-39929] [ SQL] DS V2 obsługuje funkcje ciągów znakowych z przeniesieniem obliczeń w dół (nie ANSI)
- [SPARK-39819] [SQL] Wypychanie agregujące DS w wersji 2 może współdziałać z górnym N lub stronicowaniem (sortuj przy użyciu wyrażeń)
- [SPARK-40213] [ SC-109077][sql] Obsługa konwersji wartości ASCII dla znaków łacińskich-1
- [SPARK-39887] [SQL] RemoveRedundantAliases powinny zachować aliasy, które sprawiają, że dane wyjściowe węzłów projekcji są unikatowe
- [SPARK-39764] [SQL] Utwórz element PhysicalOperation tak samo jak ScanOperation
- [SPARK-39964] [SQL] Optymalizacja DS V2 powinna ujednolicić ścieżkę przetwarzania tłumaczenia
- [SPARK-39528] [ SQL] Użyj filtru V2 w funkcji SupportsRuntimeFiltering
- [SPARK-40066] [ SQL] Tryb ANSI: zawsze zwraca wartość null dla nieprawidłowego dostępu do kolumny mapy
- [SPARK-39912] [SPARK-39828][sql] Refine CatalogImpl
- [SPARK-39833] [ SC-108736][sql] Wyłącz indeks kolumn Parquet w DSv1, aby rozwiązać problem z poprawnością w przypadku nakładania się kolumn partycji i danych
- [SPARK-39880] [SQL] V2 SHOW FUNCTIONS polecenie powinno drukować kwalifikowaną nazwę funkcji jak w wersji 1.
- [SPARK-39767] [SQL] Usunięcie UnresolvedDBObjectName i dodanie UnresolvedIdentifier
- [SPARK-40163] [SC-108740][sql] funkcja: SparkSession.config(Map)
- [SPARK-40136] [SQL] Naprawianie fragmentu kontekstów zapytań SQL
- [SPARK-40107] [SC-108689][sql] Wycofaj konwersję empty2null z fileFormatWriter
- [SPARK-40121] [ PYTHON][sql] Inicjowanie projekcji używanej dla funkcji UDF języka Python
- [SPARK-40128] [SQL] VectorizedColumnReader uznaje DELTA_LENGTH_BYTE_ARRAY jako autonomiczne kodowanie kolumny
- [SPARK-40132] [ML] Przywróć rawPredictionCol w MultilayerPerceptronClassifier.setParams
-
[SPARK-40050] [ SC-108696][sql] Ulepszenie
EliminateSortsdo obsługi usuwania sortowań za pomocąLocalLimit - [SPARK-39629] [SQL] Obsługa wersji 2 SHOW FUNCTIONS
- [SPARK-39925] [SC-108734][sql] Dodawanie przeciążenia array_sort(kolumna, komparator) do operacji ramki danych
- [SPARK-40117] [PYTHON][sql] Konwersja warunku na Javę w funkcji DataFrameWriterV2.overwrite
- [SPARK-40105] [SQL] Poprawa podziału na partycje w ReplaceCTERefWithRepartition
- [SPARK-39503] [SQL] Dodawanie nazwy wykazu sesji dla tabeli i funkcji bazy danych w wersji 1
- [SPARK-39889] [ SQL] Użyj różnych klas błędów dla liczb/interwałów podzielonych przez 0
- [SPARK-39741] [ SQL] Obsługa kodowania/dekodowania adresu URL jako wbudowanej funkcji i porządkowania funkcji związanych z adresem URL
- [SPARK-40102] [SQL] Użyj SparkException zamiast IllegalStateException w SparkPlan
- [SPARK-40014] [SQL] Obsługa rzutowania dziesiętnych na interwały ANSI
- [SPARK-39776] [ SQL][follow] Aktualizacja UT of PlanStabilitySuite w trybie ANSI
-
[SPARK-39963] [SQL] Upraszczanie
SimplifyCasts.isWiderCast
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 11.3.
Środowisko systemu
-
System operacyjny: Ubuntu 20.04.5 LTS
- Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery DBR działają na maszynach wirtualnych dostawcy usług w chmurze, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.21
- R: 4.1.3
- Delta Lake: 2.1.0
Zainstalowane biblioteki języka Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| argon2-cffi | 20.1.0 | generator asynchroniczny | 1.10 | attrs | 21.2.0 |
| Wezwanie zwrotne | 0.2.0 | backports.ustawienia-punktów-wejścia | 1.1.1 | czarny | 22.3.0 |
| wybielacz | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
| certyfikat | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
| normalizator zestawu znaków | 2.0.4 | kliknij | 8.0.3 | kryptografia | 3.4.8 |
| rowerzysta | 0.10.0 | Cython | 0.29.24 | dbus-python | 1.2.16 |
| debugpy | 1.4.1 | dekorator | 5.1.0 | defusedxml (biblioteka zabezpieczająca przetwarzanie XML) | 0.7.1 |
| distlib | 0.3.6 | punkty wejścia | 0,3 | aspekty — omówienie | 1.0.0 |
| blokada plików | 3.8.0 | IDNA | 3.2 | ipykernel | 6.12.1 |
| ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
| Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
| jupyter-core | 4.8.1 | jupyterlab-pygments | 0.1.2 | Widżety JupyterLab | 1.0.0 |
| kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
| matplotlib-inline | 0.1.2 | Mistune | 0.8.4 | mypy-extensions | 0.4.3 |
| NBClient | 0.5.3 | nbconvert - narzędzie do konwersji plików Jupyter Notebook | 6.1.0 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | notes | 6.4.5 | numpy | 1.20.3 |
| opakowanie | 21,0 | Pandas | 1.3.4 | pandocfilters | 1.4.3 |
| parso | 0.8.2 | specyfikacja ścieżki | 0.9.0 | ofiara | 0.5.2 |
| pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 | Poduszka | 8.4.0 |
| pip (menedżer pakietów Pythona) | 21.2.4 | platformdirs | 2.5.2 | kreślenie | 5.9.0 |
| prometheus-client | 0.11.0 | zestaw narzędzi prompt | 3.0.20 | Protobuf (w skrócie od Protocol Buffers) | 4.21.5 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
| PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.4 |
| pirstent | 0.18.0 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.2 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2021.3 |
| pyzmq | 22.2.1 | żądania | 2.26.0 | requests-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy (biblioteka naukowa dla Pythona) | 1.7.1 |
| urodzony na morzu | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
| sześć | 1.16.0 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5.10 | statsmodels - biblioteka do modelowania statystycznego | 0.12.2 |
| Wytrzymałość | 8.0.1 | zakończony | 0.9.4 | ścieżka testowa | 0.5.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.0 | wpisywanie rozszerzeń | 3.10.0.2 |
| nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| szerokość(wcwidth) | 0.2.5 | kodowania webowe | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN z dnia 8 września 2022 roku. Migawka nie jest już dostępna.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| askpass | 1.1 | potwierdzić to | 0.2.1 | porty wsteczne | 1.4.1 |
| baza | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit-64 | 4.0.5 | blob | 1.2.3 | rozruch systemu | 1.3-28 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-7 | Brio | 1.1.3 | miotła | 1.0.1 |
| bslib | 0.4.0 | kaszmir | 1.0.6 | dzwoniący | 3.7.2 |
| karetka | 6.0-93 | cellranger | 1.1.0 | Chroń | 2.3-57 |
| klasa | 7.3-20 | CLI | 3.3.0 | clipr | 0.8.0 |
| klaster | 2.1.3 | codetools | 0.2-18 | przestrzeń kolorów | 2.0-3 |
| commonmark | 1.8.0 | kompilator | 4.1.3 | konfig | 0.3.1 |
| cpp11 | 0.4.2 | crayon | 1.5.1 | dane logowania | 1.3.2 |
| skręt | 4.3.2 | tabela danych | 1.14.2 | zbiory danych | 4.1.3 |
| DBI | 1.1.3 | dbplyr | 2.2.1 | Opis | 1.4.1 |
| devtools | 2.4.4 | diffobj | 0.3.5 | skrót | 0.6.29 |
| przyciemnione oświetlenie | 0.4.2 | dplyr | 1.0.10 | dtplyr | 1.2.2 |
| e1071 | 1.7-11 | wielokropek | 0.3.2 | ocenić | 0.16 |
| fani | 1.0.3 | kolory | 2.1.1 | szybka mapa | 1.1.0 |
| Font Awesome | 0.3.0 | dla kotów | 0.5.2 | foreach | 1.5.2 |
| zagraniczny | 0.8-82 | kuźnia | 0.2.0 | fs | 1.5.2 |
| przyszłość | 1.28.0 | wprowadź przyszłość | 1.9.1 | płukać | 1.2.0 |
| typy ogólne | 0.1.3 | gert | 1.8.0 | ggplot2 | 3.3.6 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| globalne | 0.16.1 | klej | 1.6.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.1 | Gower | 1.0.0 | grafika | 4.1.3 |
| grDevices | 4.1.3 | siatka | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0.7 | gtabela | 0.3.1 | hełm ochronny | 1.2.0 |
| przystań | 2.5.1 | wyżej | 0,9 | HMS | 1.1.2 |
| htmltools – narzędzie do tworzenia stron internetowych | 0.5.3 | widżety HTML | 1.5.4 | httpuv | 1.6.5 |
| httr | 1.4.4 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | isoband | 0.2.5 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| knitr (narzędzie do generowania dynamicznych raportów w R) | 1.40 | etykietowanie | 0.4.2 | później | 1.3.0 |
| siatka | 0.20-45 | lawa | 1.6.10 | cykl życia | 1.0.1 |
| nasłuchiwanie | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
| Markdown | 1.1 | MASA | 7.3-56 | Matrix | 1.4-1 |
| zapamiętywanie | 2.0.1 | metody | 4.1.3 | mgcv | 1.8-40 |
| pantomima | 0,12 | miniUI (interfejs użytkownika) | 0.1.1.1 | Metryki modelowe | 1.2.2.2 |
| modelr | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
| sieć neuronowa (nnet) | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
| równoległy | 4.1.3 | równolegle | 1.32.1 | kolumna | 1.8.1 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
| pochwała | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| Procesx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
| postęp | 1.2.2 | progressr | 0.11.0 | Obietnice | 1.2.0.1 |
| Prototyp | 1.0.0 | serwer proxy | 0.4-27 | Postscriptum | 1.7.1 |
| mruczenie | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | "randomForest" | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | czytnik | 2.1.2 | readxl (biblioteka do odczytu plików Excel) | 1.4.1 |
| przepisy | 1.0.1 | rewanż | 1.0.1 | rematch2 | 2.1.2 |
| Zdalne sterowanie | 2.4.2 | przykład powtarzalny | 2.0.2 | zmień kształt2 | 1.4.4 |
| rlang | 1.0.5 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.16 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0,14 |
| rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.2 |
| waga (urządzenie) | 1.2.1 | selektor | 0.4-2 | Informacje o sesji | 1.2.2 |
| kształt | 1.4.6 | błyszczący | 1.7.2 | sourcetools | 0.1.7 |
| sparklyr | 1.7.8 | SparkR | 3.3.0 | przestrzenny | 7.3-11 |
| Splatiny | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statystyki | 4.1.3 | statystyki4 | 4.1.3 | łańcuchy | 1.7.8 |
| stringr | 1.4.1 | przetrwanie | 3.4-0 | sys | 3.4 |
| systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
| kształtowanie tekstu | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | czasData | 4021.104 |
| tinytex | 0.41 | narzędzia | 4.1.3 | Baza Danych Stref Czasowych (tzdb) | 0.3.0 |
| sprawdzacz URL | 1.0.1 | użyj tego | 2.1.6 | utf8 | 1.2.2 |
| oprogramowanie użytkowe | 4.1.3 | UUID (Uniwersalnie Unikalny Identyfikator) | 1.1-0 | vctrs | 0.4.1 |
| viridisLite | 0.4.1 | Vroom | 1.5.7 | Waldo | 0.4.0 |
| włosek czuciowy | 0,4 | Withr | 2.5.0 | xfun | 0.32 |
| xml2 | 1.3.3 | xopen | 1.0.0 | Xtable | 1.8-4 |
| yaml | 2.3.5 | zip | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.189 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.189 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.189 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.13.4 |
| com.fasterxml.jackson.core | jackson-core | 2.13.4 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.kofeina | kofeina | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blask | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.5.1 |
| io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.1.1 |
| io.dropwizard.metrics | metryki-JVM | 4.1.1 |
| io.dropwizard.metrics | serwlety metryczne | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | Netty-buffer | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common (element wspólny) | 4.1.74.Final |
| io.netty | "netty-handler" | 4.1.74.Final |
| io.netty | rozwiązywacz netty | 4.1.74.Final |
| io.netty | Klasy netty-tcnative | 2.0.48.Final |
| io.netty | Netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.14 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea (pakiet oprogramowania) | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 7.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 7.0.0 |
| org.apache.arrow | arrow-memory-netty | 7.0.0 |
| org.apache.arrow | wektor strzałki | 7.0.0 |
| org.apache.avro | avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.9 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | bluszcz | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | podkładki ORC | 1.7.6 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-encoding | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0007 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0007 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | adnotacje dla widowni | 0.5.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.6.2 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.36 |
| org.glassfish.jersey.core | serwer jersey | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | podkładki regulacyjne | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark.spark | Nieużywane | 1.0.0 |
| org.threeten | ThreeTen Extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |