Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 15.4 LTS obsługiwanym przez platformę Apache Spark 3.5.0.
Usługa Databricks wydała tę wersję w sierpniu 2024 r.
Uwaga
LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.
Napiwek
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.
Zmiany zachowań
-
Użycie
VARIANTjako typu wejściowego lub wyjściowego z funkcją UDF, UDAF lub UDTF w języku Python zgłasza wyjątek - spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie włączona
- Zmiana domyślnego trybu powiązania schematu dla widoków
-
Nie zezwalaj na używanie nieudokumentowanej składni
!zamiastNOTpoza wyrażeniami boolowskimi - Nie zezwalaj na nieudokumentowaną składnię definicji kolumny w widokach
- Spójna obsługa błędów dla dekodowania Base64 na platformie Spark i aplikacji Photon
-
CHECKDodanie ograniczenia dla nieprawidłowej kolumny zwraca teraz UNRESOLVED_COLUMN. WITH_SUGGESTION, klasa błędów - spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie włączona
- pyodbc został zaktualizowany z wersji 4.0.38 do 4.0.39
Użycie VARIANT jako typu wejściowego lub wyjściowego z funkcją UDF, UDAF lub UDTF w Pythonie zgłasza wyjątek.
[Zmiana powodująca niezgodność] W środowisku Databricks Runtime 15.3 lub nowszym wywoływanie dowolnej funkcji zdefiniowanej przez użytkownika języka Python (UDF), funkcji agregującej zdefiniowanej przez użytkownika (UDAF) lub funkcji tabeli zdefiniowanej przez użytkownika (UDTF), która używa VARIANT typu jako argumentu lub wartości zwracanej zgłasza wyjątek. Ta zmiana jest wprowadzana w celu zapobiegania problemom, które mogą wystąpić z powodu nieprawidłowej wartości zwróconej przez jedną z tych funkcji. Aby dowiedzieć się więcej o typie VARIANT , zobacz Przechowywanie danych częściowo ustrukturyzowanych przy użyciu VARIANTów.
spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie włączona
spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie ustawione na true. Jeśli ta zmiana spowoduje zakłócenie zapytań (takich jak te, które zwracają TIMESTAMP wartości), ustaw ją na false w kodzie.
Zmiana domyślnego trybu powiązania schematu dla widoków
Widoki są teraz dostosowywane do zmian schematu w zapytaniu źródłowym przy użyciu kompensacji schematu z regularnymi regułami rzutowania. To zmiana z poprzedniego domyślnego trybu BINDING, który generował błędy, gdy podczas odwoływania się do widoku nie można było wykonać bezpiecznego rzutowania.
Zobacz CREATE VIEW oraz cast w funkcji.
Nie zezwalaj na używanie składni nieudokumentowanej ! zamiast NOT poza wyrażeniami logicznymi
W tej wersji użycie ! jako synonimu dla NOT poza wyrażeniami logicznymi nie jest już dozwolone. Na przykład instrukcje, takie jak: CREATE ... IF ! EXISTS, IS! NULL, kolumna ! NULL lub właściwość pola ! IN, oraz ! BETWEEN, należy zastąpić wartościami: CREATE ... IF NOT EXISTS, IS NOT NULL, kolumną lub właściwością NOT NULL pola, oraz NOT IN i NOT BETWEEN.
Ta zmiana zapewnia spójność, jest zgodna ze standardem SQL i sprawia, że twój program SQL jest bardziej przenośny.
Operator prefiksowy boolowski! (na przykład !is_mgr lub !(true AND false)) nie ma wpływu na tę zmianę.
Nie zezwalaj na nieudokumentowaną składnię definicji kolumny w widokach
Platforma Databricks obsługuje CREATE VIEW, zawierając nazwy kolumn i komentarze do kolumn. Wcześniej dozwolona była specyfikacja typów kolumn, NOT NULL ograniczeń lub DEFAULT. W tej wersji nie można już używać tej składni.
Ta zmiana zapewnia spójność, jest zgodna ze standardem SQL i obsługuje przyszłe ulepszenia.
Spójna obsługa błędów dla dekodowania Base64 na platformie Spark i aplikacji Photon
Ta wersja zmienia sposób obsługi błędów dekodowania Base64 przez program Photon w celu dopasowania ich do obsługi tych błędów przez platformę Spark. Przed wprowadzeniem tych zmian ścieżka generowania kodu Photon i Spark czasami nie podnosiła wyjątków analizy, podczas gdy interpretacja przez Spark poprawnie podnosiła IllegalArgumentException lub ConversionInvalidInputError. Ta aktualizacja gwarantuje, że aplikacja Photon stale zgłasza te same wyjątki co platforma Spark podczas dekodowania Base64, zapewniając bardziej przewidywalną i niezawodną obsługę błędów.
CHECK Dodanie ograniczenia dla nieprawidłowej kolumny teraz zwraca błąd klasy UNRESOLVED_COLUMN_WITH_SUGGESTION.
Aby zapewnić bardziej przydatne komunikaty o błędach, w środowisku Databricks Runtime 15.3 lub nowszym ALTER TABLE ADD CONSTRAINT instrukcja zawierająca CHECK ograniczenie odwołujące się do nieprawidłowej nazwy kolumny zwraca UNRESOLVED_COLUMN.WITH_SUGGESTION klasa błędu. Wcześniej INTERNAL_ERROR został zwrócony.
spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie włączona
### spark.sql.legacy.jdbc.useNullCalendar jest teraz ustawiony jako true ustawienie domyślne. Jeśli ta zmiana spowoduje zakłócenie zapytań (takich jak te, które zwracają TIMESTAMP wartości), ustaw ją na false w kodzie.
Pyodbc jest aktualizowany z wersji 4.0.38 do 4.0.39
Pakiet pyodbc został zaktualizowany z wersji 4.0.38 do wersji 4.0.39. Ta zmiana jest wymagana, ponieważ znaleziono usterkę w wersji 4.0.38 i usunięto tę wersję z interfejsu PyPI.
Nowe funkcje i ulepszenia
- Funkcje weryfikacji UTF-8
- Typizowane interfejsy API zestawów danych z funkcjami UDF języka Scala
- Włącz górę lodową UniForm przy użyciu ALTER TABLE
- funkcja try_url_decode
- Opcjonalnie zezwól optymalizatorowi na korzystanie z niewymuszonych ograniczeń klucza obcego
- Równoległe uruchomienia zadań dla selektywnych zastępowań
- Zwiększona wydajność strumienia danych zmian dzięki selektywnym nadpisaniom
-
Ulepszone opóźnienie zapytania dla
COPY INTOpolecenia - Obsługa usuwania funkcji tabeli ograniczeń sprawdzania
- dedykowane zasoby obliczeniowe (dawniej obliczenia pojedynczego użytkownika) obsługują szczegółową kontrolę dostępu, zmaterializowane widoki i tabele przesyłania strumieniowego (publiczna wersja zapoznawcza)
- Rozszerzona obsługa bibliotek Java i Scala
- Rozszerzona obsługa operacji scala dataset
- Scala jest ogólnie dostępna na standardowym środowisku obliczeniowym Unity Catalog
- Dostęp do zewnętrznych usług chmurowych zarządzanych przez katalog Unity przy użyciu poświadczeń usługi (publiczna wersja zapoznawcza)
Funkcje weryfikacji UTF-8
W tej wersji wprowadzono następujące funkcje do sprawdzania poprawności ciągów UTF-8:
- is_valid_utf8 sprawdził, czy ciąg jest prawidłowym ciągiem UTF-8.
- make_valid_utf8 konwertuje potencjalnie nieprawidłowy ciąg UTF-8 na poprawny ciąg UTF-8, używając znaków zastępczych
- validate_utf8 zgłasza błąd, jeśli dane wejściowe nie są prawidłowym ciągiem UTF-8.
-
try_validate_utf8 zwraca
NULL, jeśli dane wejściowe nie są prawidłowym ciągiem UTF-8.
Typizowane interfejsy API zestawów danych z funkcjami UDF języka Scala
W tej wersji dodano obsługę typowanych interfejsów API zestawów danych z funkcjami zdefiniowanymi przez użytkownika (z wyłączeniem funkcji agregujących zdefiniowanych przez użytkownika) w środowisku obliczeniowym obsługiwanym przez Unity Catalog ze standardowym trybem dostępu (wcześniej znanym jako tryb dostępu współdzielonego). Zobacz interfejsy API typizowanych zestawów danych.
Włącz górę lodową UniForm za pomocą ALTER TABLE
Teraz możesz włączyć UniForm Iceberg w istniejących tabelach bez ponownego zapisywania plików danych. Zobacz Włącz odczyty Iceberg na istniejącej tabeli.
Funkcja try_url_decode
W tej wersji wprowadzono funkcję try_url_decode , która dekoduje ciąg zakodowany w adresie URL. Jeśli ciąg nie ma poprawnego formatu, funkcja zwraca NULL zamiast zgłaszać błąd.
Opcjonalnie zezwól optymalizatorowi na korzystanie z niewymuszonych ograniczeń klucza obcego
Aby zwiększyć wydajność zapytań, możesz teraz określić RELY słowo kluczowe dotyczące FOREIGN KEY ograniczeń podczas tworzenia lub zmieniania tabeli.
Równoległe uruchomienia zadań dla selektywnego nadpisywania
Selektywne nadpisywanie przy użyciu replaceWhere teraz uruchamia zadania, które równolegle usuwają dane i wstawiają nowe dane, zwiększając wydajność zapytań i wykorzystanie klastra.
Zwiększona wydajność zestawienia danych zmian dzięki selektywnym zastępowaniom
Selektywne zastępowanie przy użyciu replaceWhere tabel ze źródłem danych zmian nie zapisuje już oddzielnych plików danych zmian dla wstawionych danych. Te operacje używają ukrytej _change_type kolumny obecnej w źródłowych plikach danych Parquet do rejestrowania zmian bez wzmacniania zapisu.
Ulepszone opóźnienie zapytania dla COPY INTO polecenia
Ta wersja zawiera zmianę, która poprawia opóźnienie zapytania dla COPY INTO polecenia. To ulepszenie zostało wdrożone poprzez asynchroniczne ładowanie stanu w magazynie stanów baz danych RocksDB. Dzięki tej zmianie powinna być zauważalna poprawa czasów uruchamiania dla zapytań z dużymi zestawami danych, takich jak zapytania z już pozyskaną dużą liczbą plików.
Obsługa usuwania funkcji tabeli ograniczeń sprawdzania
Teraz możesz usunąć funkcję checkConstraints z tabeli Delta przy użyciu ALTER TABLE table_name DROP FEATURE checkConstraints. Zobacz Wyłączanie ograniczeń sprawdzania.
Dedykowane zasoby obliczeniowe (dawniej obliczenia dedykowane dla pojedynczego użytkownika) obsługują szczegółową kontrolę dostępu, zmaterializowane widoki i tabele strumieniowe (wersja próbna)
Gdy obszar roboczy jest włączony na potrzeby przetwarzania bezserwerowego, środowisko Databricks Runtime 15.4 LTS dodaje obsługę szczegółowej kontroli dostępu do dedykowanych zasobów obliczeniowych. Gdy zapytanie uzyskuje dostęp do dowolnego z następujących obiektów, dedykowany zasób obliczeniowy w środowisku Databricks Runtime 15.4 LTS przekazuje zapytanie do bezserwerowego środowiska obliczeniowego w celu uruchomienia filtrowania danych:
- Widoki zdefiniowane nad tabelami, na których użytkownik nie ma
SELECTuprawnień. - Widoki dynamiczne.
- Tabele z zastosowanymi filtrami wierszy lub maskami kolumn.
- Zmaterializowane widoki i tabele przesyłania strumieniowego.
Te zapytania nie są obsługiwane na dedykowanych obliczeniach z uruchomionym środowiskiem Databricks Runtime 15.3 lub nowszym.
Aby uzyskać więcej informacji, zobacz Szczegółowe informacje dotyczące kontroli dostępu w dedykowanych obliczeniach.
Rozszerzona obsługa bibliotek Java i Scala
Od wersji Databricks Runtime 15.4 LTS, wszystkie biblioteki Java i Scala dostarczane ze środowiskiem Databricks Runtime są dostępne we wszystkich trybach dostępu obliczeniowego przy użyciu Unity Catalog. Aby dowiedzieć się więcej na temat obsługi języków obliczeniowych z obsługą wykazu aparatu Unity, zobacz Standardowe wymagania i ograniczenia dotyczące obliczeń.
Rozszerzona obsługa operacji scala dataset
W tej wersji zasoby obliczeniowe z włączonym katalogiem Unity, korzystające ze standardowego trybu dostępu, obsługują następujące operacje Scala: Dataset, map, mapPartitions, foreachPartition, flatMap, reduce i filter.
Język Scala jest ogólnie dostępny w ramach standardowych zasobów obliczeniowych platformy Unity Catalog.
W tej wersji, język Scala jest generalnie dostępny w zasobach obliczeniowych w trybie standardowym z obsługą katalogu Unity, w tym wsparcie dla funkcji zdefiniowanych przez użytkownika, skalarne (UDF). Strukturalne przesyłanie danych, funkcje zdefiniowane przez użytkownika Hive (UDFs) oraz funkcje agregacyjne zdefiniowane przez użytkownika Hive nie są obsługiwane. Aby uzyskać pełną listę ograniczeń, zobacz Standardowe wymagania i ograniczenia dotyczące obliczeń.
Dostęp do zewnętrznych usług chmurowych zarządzanych przez Katalog Unity przy użyciu poświadczeń usługi (publiczna wersja zapoznawcza)
Poświadczenia usługowe umożliwiają proste i bezpieczne uwierzytelnianie przy użyciu zarządzanych tożsamości platformy Azure (MI) oraz Katalogu Unity dla usług Twojego dzierżawcy w chmurze. Zobacz Tworzenie poświadczeń usługi.
Poprawki błędów
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- azure-core z wersji 1.30.1 do 1.30.2
- google-auth z wersji 2.29.0 do 2.31.0
- Aktualizacja google-cloud-storage z wersji 2.16.0 do 2.17.0
- google-resumable-media z 2.7.0 do 2.7.1
- googleapis-common-protos z 1.63.0 do 1.63.2
- mlflow-skinny z 2.11.3 do 2.11.4
- proto-plus z 1.23.0 do 1.24.0
- s3transfer z 0.10.1 do 0.10.2
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- com.databricks.databricks-sdk-java od wersji 0.17.1 do wersji 0.27.0
- com.ibm.icu.icu4j z 72.1 do 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider z wersji 1.6.1-linux-x86_64 do wersji 1.6.2-linux-x86_64
Apache Spark
Środowisko Databricks Runtime 15.4 LTS obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w Databricks Runtime 15.3 (EoS)oraz następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Zezwalaj na grupowanie w wyrażeniach w podzapytaniach skalarnych, jeśli są one powiązane z wierszami zewnętrznymi
- [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Wyłącz zmienny wejście/wyjście do skalarne funkcje Pythona UDF, UDTF, UDAF podczas kompilacji zapytań
- [SPARK-48441] [SC-170980][sql][WARMFIX] Poprawka zachowania StringTrim dla sortowania innych niż UTF8_BINARY
- pl-PL: [SPARK-48440] [SC-170895][sql][WARMFIX] Napraw zachowanie funkcji StringTranslate dla kolacji nie-UTF8_BINARY
- [SPARK-48872] [SC-170866][python] Zmniejsz obciążenie _capture_call_site
-
[SPARK-48862] [SC-170845][python][CONNECT] Unikaj wywoływania
_proto_to_string, gdy poziom INFO nie jest włączony - [SPARK-48852] [SC-170837][connect] Poprawka funkcji przycinania ciągu w frameworku connect
- [SPARK-48791] [SC-170658][core] Poprawka regresji wydajności spowodowanej przez koszt rejestracji akumulatorów przy użyciu CopyOnWriteArrayList
-
[SPARK-48118] [SQL] Obsługa
SPARK_SQL_LEGACY_CREATE_HIVE_TABLEzmiennej env - [SPARK-48241] [ SC-165811][sql] Błąd analizowania woluminów CSV z kolumnami typu char/varchar
- [SPARK-48168] [SC-166900][sql] Dodano obsługę operatorów przesunięcia bitowego
- [SPARK-48148] [ SC-165630][core] Obiekty JSON nie powinny być modyfikowane podczas odczytywania jako CIĄGU
- [SPARK-46625] [SC-170561] CTE z klauzulą "Identyfikator" jako odniesieniem
-
[SPARK-48771] [SC-170546][sql] Przyspiesz
LogicalPlanIntegrity.validateExprIdUniquenessdla dużych planów zapytań -
[SPARK-48831] [ BEHAVE-76][sc-170554][CONNECT] Ustaw domyślną nazwę kolumny
castzgodną z klasyczną platformą Spark - [SPARK-48623] [SC-170544][core] Migracje rejestrowania strukturalnego [część 2]
-
[SPARK-48296] [SC-166138][sql] Obsługa codegenów
to_xml - [SPARK-48027] [ SC-165154][sql] InjectRuntimeFilter dla łączenia wielopoziomowego powinien sprawdzić typ łączenia podrzędnego
- [SPARK-48686] [SC-170365][sql] Zwiększanie wydajności parserUtils.unescapeSQLString
-
[SPARK-48798] [SC-170588][python] Wprowadzono
spark.profile.renderdo profilowania opartego na SparkSession - [SPARK-48048] [SC-169099] Przywracanie "[SC-164846][connect][SS] Dodano obsługę odbiornika po stronie klienta dla języka Scala"
- [SPARK-47910] [SC-168929][core] aby uniknąć wycieku pamięci, zamknij strumień, kiedy DiskBlockObjectWriter zamknie zasoby
- [SPARK-48816] [SC-170547][sql] Skrót dla konwerterów przedziałów w UnivocityParser
- [SPARK-48589] [SC-170132][sql][SS] Dodawanie opcji snapshotStartBatchId i snapshotPartitionId do stanu źródła danych
- [SPARK-48280] [SC-170293][sql] Poprawa obszaru testowania kolażu wykorzystując przetwarzanie wyrażeń
- [SPARK-48837] [ SC-170540][ml] W CountVectorizer odczytywać parametr binarny tylko raz na przekształcenie, a nie raz na wiersz
- [SPARK-48803] [SC-170541][sql] Rzucaj błąd wewnętrzny w deserializatorze Orc, aby wyrównać z ParquetWriteSupport
- [SPARK-48764] [ SC-170129][python] Filtrowanie ramek powiązanych z biblioteką IPython ze stosu użytkownika
-
[SPARK-48818] [ SC-170414][python] Upraszczanie
percentilefunkcji - [SPARK-48479] [SC-169079][sql] Obsługa tworzenia skalarne i tabelowe funkcje zdefiniowane przez użytkownika (UDF) SQL w analizatorze
- [SPARK-48697] [SC-170122][lc-4703][SQL] Dodawanie filtrów ciągów obsługujących sortowanie
- [SPARK-48800] [SC-170409][connect][SS] Deflake ClientStreamingQuerySuite
-
[SPARK-48738] [SC-169814][sql] Popraw wersję początkową dla wbudowanego aliasu funkcji
random,position,mod,cardinality,current_schema,user,session_user,char_length,character_length - [SPARK-48638] [SC-169575][connect] Dodaj obsługę informacji wykonania dla DataFrame
- [SPARK-48064] [SC-164697][sql] Aktualizowanie komunikatów o błędach dla rutynowych powiązanych klas błędów
- [SPARK-48810] [CONNECT] Interfejs API stop() sesji powinien być idempotentny i nie powinien zawieść, jeśli sesja została już wcześniej zamknięta przez serwer
- [SPARK-48650] [15.x][python] Wyświetl poprawne miejsce wywołania z Notebooka IPython
- [SPARK-48271] [SC-166076][sql] Przekształć błąd dopasowania w RowEncoder na UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [ SC-169603][sql] Poprawka niezgodności rozpoznawania typów varchar dla dataSourceV2 CTAS
- [SPARK-48792] [SC-170335][sql] Napraw regresję dla INSERT z częściową listą kolumn do tabeli zawierającej znaki lub tekst (char/varchar)
-
[SPARK-48767] [SC-170330][sql] Popraw niektóre komunikaty o błędach, gdy dane typu
variantsą nieprawidłowe -
[SPARK-48719] [ SC-170339][sql] Naprawiono usterkę obliczania parametru
RegrSlope&RegrInterceptgdy pierwszy parametr ma wartość null - [SPARK-48815] [ SC-170334][connect] Środowisko aktualizacji podczas zatrzymywania sesji połączenia
- [SPARK-48646] [ SC-169020][python] Uściślij dokumentację interfejsu API źródła danych języka Python i wskazówki dotyczące typów
- [SPARK-48806] [SC-170310][sql] Przekaż rzeczywisty wyjątek w przypadku niepowodzenia url_decode
- [SPARK-47777] [SC-168818] Naprawić test połączenia ze źródłem danych przesyłania strumieniowego w Pythonie
-
[SPARK-48732] [SC-169793][sql] Wyczyść przestarzałe użycie interfejsu API związane z
JdbcDialect.compileAggregate - [SPARK-48675] [SC-169538][sql] Napraw tabelę pamięci podręcznej z kolumną sortowaną
- [SPARK-48623] [SC-169034][core] Migracje logowania strukturalnego
- [SPARK-48655] [SC-169542][sql] SPJ: Dodawanie testów dla pomijania operacji mieszania dla zapytań agregowanych
- [SPARK-48586] [SC-169808][ss] Usuwanie pozyskiwania blokady w narzędziu doMaintenance() przez utworzenie głębokiej kopii mapowań plików w narzędziu RocksDBFileManager w load()
- [SPARK-48799] [Backport][15.x][SC-170283][ss] Refaktoryzacja wersjonowania dla odczytu/zapisu metadanych operatora i wywołań
- [SPARK-48808] [SC-170309][sql] Napraw NPE przy łączeniu thriftserver przez Hive 1.2.1, gdy schemat wyników jest pusty
- [SPARK-48715] [SC-170291][sql] Integracja walidacji UTF8String z implementacjami funkcji ciągów uwzględniającymi sortowanie
- [SPARK-48747] [SC-170120][sql] Dodać iterator punktów kodowych do UTF8String
- [SPARK-48748] [SC-170115][sql] Cache numChars in UTF8String
- [SPARK-48744] [ SC-169817][core] Wpis dziennika powinien być konstruowany tylko raz
-
[SPARK-46122] [SC-164313][sql] Wartość
spark.sql.legacy.createHiveTableByDefaultdomyślnie ustawiana nafalse - [SPARK-48765] [ SC-170119][deploy] Ulepszanie oceny wartości domyślnej dla SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][sql] Dodaj dokumentację migracyjną dotyczącą zmiany zachowania CREATE TABLE AS SELECT od czasu wprowadzenia Spark 3.4.
- [SPARK-48598] [SC-169484][python][CONNECT] Propagacja schematu buforowanego w operacjach ramek danych
- Udokumentować różnicę w zachowaniu między
extractionielement_at -
[SPARK-48768] [SC-170124][python][CONNECT] Nie należy buforować
explain - [SPARK-48770] [Backport][15.x][SC-170133][ss] Zmień, aby odczytać metadane operatora raz na sterowniku, aby sprawdzić, czy możemy znaleźć informacje dla parametru numColsPrefixKey używanego dla zapytań agg okna sesji
-
[SPARK-48656] [SC-169529][core] Wykonaj sprawdzanie długości i zgłoś błąd COLLECTION_SIZE_LIMIT_EXCEEDED w
CartesianRDD.getPartitions - [SPARK-48597] [SC-168817][sql] Wprowadzenie znacznika dla właściwości isStreaming w tekstowej reprezentacji planu logicznego
- [SPARK-48472] [SC-169044][sql] Włącz wyrażenia reflect za pomocą ciągów uporządkowanych
- [SPARK-48699] [SC-169597][sql] Uściślij interfejs API sortowania
- [SPARK-48682] [SC-169812][sql][BEHAVE-58] Użyj ICU w wyrażeniu InitCap dla ciągów znaków UTF8_BINARY
- [SPARK-48282] [SC-169813][sql] Zmień logikę wyszukiwania ciągów dla sortowania UTF8_BINARY_LCASE (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][sql] Włącz obsługę sortowania dla wyrażenia Mode
- [SPARK-48320] [SPARK-48490] Synchronizowanie najnowszej cechy rejestrowania oraz przypadków testowych z projektu open-source Spark
- [SPARK-48629] [SC-169479] Migrowanie kodu resztowego do struktury rejestrowania strukturalnego
- [SPARK-48681] [SC-169469][sql][BEHAVE-58] Użycie ICU w wyrażeniach Lower/Upper dla łańcuchów UTF8_BINARY
- [SPARK-48573] [15.x][sc-169582][SQL] Uaktualnianie wersji ICU
- [SPARK-48687] [Backport][15.x][SS] Dodawanie zmiany w celu przeprowadzenia weryfikacji schematu stanu i aktualizacji sterownika dla zapytań stanowych
- [SPARK-47579] [15.x][sc-167310][CORE][part4] Migracja logInfo ze zmiennymi do strukturalnego systemu rejestrowania
- [SPARK-48008] [SC-167363][1/2] Obsługa plików UDAFs w programie Spark Connect
- [SPARK-48578] [SC-169505][sql] Dodaj funkcje związane z weryfikacją ciągów UTF8
- [SPARK-48670] [SC-169598][sql] Podanie sugestii w ramach komunikatu o błędzie w przypadku podania nieprawidłowej nazwy sortowania
- [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPA... … RK-48291] Struktura dzienników strukturalnych po stronie języka Java
- [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrowanie logWarn ze zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-48706] [SC-169589][python] Funkcja UDF w języku Python w funkcjach wyższego rzędu nie powinna zgłaszać błędu wewnętrznego
- [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Zawsze wykonuj dopełnianie znaków w predykatach
- [SPARK-48662] [SC-169533][sql] Poprawka wyrażenia StructsToXml z sortowaniami
- [SPARK-48482] [ SC-167702][python][15.x] dropDuplicates i dropDuplicatesWithinWatermark powinny akceptować argumenty o zmiennej długości
- [SPARK-48678] [SC-169463][core] Optymalizacje wydajności dla platformy SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Zmień nazwę UTF8_BINARY_LCASE na UTF8_LCASE
- [SPARK-47927] [SC-164123][sql]: Poprawa atrybutu nullowalności w dekoderze UDF
- [SPARK-47579] [SC-165297][core][PART1] Migruj logInfo ze zmiennymi do strukturalnego frameworku logowania (nowy)
-
[SPARK-48695] [ SC-169473][python]
TimestampNTZType.fromInternalnie używa przestarzałych metod - [SPARK-48431] [SC-167290][lc-4066][SQL] Nie przekazuj predykatów na posortowane kolumny do czytników plików
- [SPARK-47579] Przywróć "[SC-165297][core][PART1] Migracja logInfo z zmiennymi do strukturalnego systemu logowania"
- [SPARK-47585] [ SC-164306][sql] Core SQL: Migrate logInfo with variables to structured logging framework (Migrowanie informacji logInfo ze zmiennymi do struktury rejestrowania ze strukturą)
- [SPARK-48466] [SC-169042][sql] Tworzenie dedykowanego węzła dla EmptyRelation w AQE
- [SPARK-47579] [ SC-165297][core][PART1] Migracja logInfo ze zmiennymi do strukturalnego frameworku logowania
- [SPARK-48410] [SC-168320][sql] Naprawa wyrażenia InitCap dla sortowania UTF8_BINARY_LCASE i ICU
- [SPARK-48318] [SC-167709][sql] Włącz obsługę łączenia z użyciem skrótów dla wszystkich porządków znakowych (typy złożone)
- [SPARK-48435] [SC-168128][sql] Sortowanie UNICODE nie powinno obsługiwać równości binarnej
- [SPARK-48555] [SC-169041][sql][PYTHON][connect] Obsługa używania kolumn jako parametrów dla kilku funkcji w narzędziu pyspark/scala
-
[SPARK-48591] [ SC-169081][python] Dodawanie funkcji pomocniczej w celu uproszczenia
Column.py - [SPARK-48574] [ SC-169043][sql] Poprawiono obsługę typów struktur z sortowaniami
- [SPARK-48305] [SC-166390][sql] Dodano obsługę sortowania dla wyrażeń CurrentLike
- [SPARK-48342] [SC-168941][sql] Wprowadzenie analizatora skryptów SQL
- [SPARK-48649] [ SC-169024][sql] Dodaj konfiguracje "ignoreInvalidPartitionPaths" i "spark.sql.files.ignoreInvalidPartitionPaths", aby umożliwić ignorowanie nieprawidłowych ścieżek partycji
- [SPARK-48000] [SC-167194][sql] Włączyć obsługę sprzężeń skrótów dla wszystkich kolokacji (StringType)
- [SPARK-48459] [SC-168947][connect][PYTHON] Implement DataFrameQueryContext w programie Spark Connect
- [SPARK-48602] [SC-168692][sql] Tworzenie generatora csv obsługi innego stylu danych wyjściowych za pomocą spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][sql] Modyfikowanie porównania ciągów dla UTF8_BINARY_LCASE
- [SPARK-48610] [ SC-168830][sql] refaktoryzacja: użyj pomocniczej metody idMap zamiast OP_ID_TAG
- [SPARK-48634] [SC-169021][python][CONNECT] Unikaj statycznego zainicjowania puli wątków w obiekcie ExecutePlanResponseReattachableIterator
- [SPARK-47911] [ SC-164658][sql] Wprowadza universal BinaryFormatter w celu zapewnienia spójności danych wyjściowych binarnych
- [SPARK-48642] [SC-168889][core] Niepoprawny błąd SparkOutOfMemoryError spowodowany zakończeniem zadania przez przepełnienie pamięci.
- [SPARK-48572] [SC-168844][sql] Napraw DateSub, DateAdd, WindowTime, TimeWindow oraz SessionWindow wyrażenia
- [SPARK-48600] [SC-168841][sql] Napraw wyrażenia FrameLessOffsetWindowFunction — niejawne konwersje typów
- [SPARK-48644] [ SC-168933][sql] Wykonaj sprawdzenie długości i wyrzuć błąd COLLECTION_SIZE_LIMIT_EXCEEDED w funkcji Hex.hex
- [SPARK-48587] [SC-168824][wariant] Należy unikać zwiększania przestrzeni magazynowej podczas uzyskiwania dostępu do podwariantu
-
[SPARK-48647] [ SC-168936][python][CONNECT] Uściślij komunikat o błędzie dla elementu
YearMonthIntervalTypewdf.collect - [SPARK-48307] [SC-167802][sql] InlineCTE powinno zachować relacje niezwinięte w oryginalnym węźle ZCTE
- [SPARK-48596] [SC-168581][sql] Ulepszenie wydajności operacji przy obliczaniu ciągu szesnastkowego dla typu long.
- [SPARK-48621] [ SC-168726][sql] Poprawka podobna do uproszczenia w optymalizatorze dla ciągów sortowania
- [SPARK-47148] [SC-164179][sql] Unikaj materializowania AQE ExchangeQueryStageExec podczas anulowania
- [SPARK-48584] [SC-168579][sql] Ulepszenia wydajności dla unescapePathName
- [SPARK-48281] [SC-167260][sql] Zmienić logikę wyszukiwania ciągów znaków dla porównania UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][sql] Wymiana nieprawidłowej sekwencji bajtów UTF-8
-
[SPARK-48595] [SC-168580][core] Usunięcie przestarzałego użycia interfejsu API związanego z
commons-compress - [SPARK-48030] [ SC-164303][sql] SPJ: buforowanie kolejności wierszy i typu struktury dla InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][sql] Dodaj cechę WriteFilesExecBase dla zapisu w wersji 1
- [SPARK-48551] [SC-168438][sql] Ulepszenia wydajności dla escapePathName
- [SPARK-48565] [SC-168437][ui] Poprawiono wyświetlanie zrzutu stanu wątków w interfejsie użytkownika
- [SPARK-48364] [ SC-166782][sql] Dodaj rzutowanie typu AbstractMapType i naprawa mapy parametrów RaiseError do pracy z sortowanymi ciągami znaków
- [SPARK-48421] [SC-168689][sql] SPJ: Dodawanie dokumentacji
-
[SPARK-48604] [SC-168698][sql] Zastąp przestarzałe
new ArrowType.Decimal(precision, scale)wywołanie metody - [SPARK-46947] [SC-157561][core] Opóźnij inicjowanie menedżera pamięci do momentu załadowania wtyczki sterownika
- [SPARK-48411] [SC-168576][ss][PYTHON] Dodaj test E2E dla funkcji DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][ss] Śledzenie niepowodzeń walidacji wierszy stanu przy użyciu jawnej klasy błędów
- [SPARK-48221] [SC-167143][sql] Zmień logikę wyszukiwania ciągów znaków dla kolacji UTF8_BINARY_LCASE (Zawiera, Zaczyna się od, Kończy się na, Znajdz pozycję)
- [SPARK-47415] [SC-168441][sql] Dodano obsługę sortowania dla wyrażenia Levenshtein
- [SPARK-48593] [SC-168719][python][CONNECT] Poprawiono reprezentację ciągu funkcji lambda
- [SPARK-48622] [SC-168710][sql] get SQLConf raz podczas rozpoznawania nazw kolumn
-
[SPARK-48594] [ SC-168685][python][CONNECT] Zmień nazwę
parentpola nachildwColumnAlias - [SPARK-48403] [SC-168319][sql] Fix Lower & Upper expressions for UTF8_BINARY_LCASE & ICU collations (Poprawki dolnych i górnych wyrażeń dla sortowania UTF8_BINARY_LCASE i ICU)
- [SPARK-48162] [SC-166062][sql] Dodano obsługę sortowania dla wyrażeń MISC
- [SPARK-48518] [SC-167718][core] Kompresja LZF może działać równolegle
-
[SPARK-48474] [SC-167447][core] Poprawiono nazwę klasy dziennika
SparkSubmitArgumentsiSparkSubmit - [SPARK-48012] [SC-168267][sql] SPJ: Obsługa wyrażeń przekształcających dla jednostronnego tasowania
- [SPARK-48552] [ SC-168212][sql] wielowierszowe wnioskowanie schematu CSV powinno również zgłosić FAILED_READ_FILE
- [SPARK-48560] [SC-168268][ss][PYTHON] Umożliwić ustawienie StreamingQueryListener.spark
- [SPARK-48569] [SC-168321][ss][CONNECT] Obsługa skrajnych przypadków w nazwach zapytań (query.name)
- [SPARK-47260] [SC-167323][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][python][CONNECT] Propagacja buforowanego schematu w operacjach zestawu
- [SPARK-48155] [ SC-165910][sql] AQEPropagateEmptyRelation dla sprzężenia powinien sprawdzić, czy pozostały element podrzędny jest tylko BroadcastQueryStageExec
- [SPARK-48506] [ SC-167720][core] Krótkie nazwy koderów kompresji są nieczułe na wielkość liter, z wyjątkiem logowania zdarzeń
- [SPARK-48447] [SC-167607][ss] Sprawdź klasę dostawcy dla magazynu stanów przed wywołaniem konstruktora
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff i DateTimeUtils.timestampAdd nie powinny zgłaszać wyjątku INTERNAL_ERROR
- [SPARK-48513] [Backport][15.x][SC-168085][ss] Dodanie klasy błędów dla zgodności schematu stanu i drobna refaktoryzacja
- [SPARK-48413] [SC-167669][sql] ZMIEŃ z porządkowaniem
-
[SPARK-48561] [SC-168250][ps][CONNECT] Rzuć
PandasNotImplementedErrordla nieobsługiwanych funkcji wykresów - [SPARK-48465] [SC-167531][sql] Unikaj no-op pustej propagacji relacji
- [SPARK-48553] [SC-168166][python][CONNECT] Buforuj więcej właściwości
- [SPARK-48540] [SC-168069][core] Unikaj ładowania ustawień wyjściowych ivy do stdout
- [SPARK-48535] [SC-168057][ss] Zaktualizować dokumentację konfiguracji, aby wskazać możliwość utraty lub uszkodzenia danych, jeśli włączona jest opcja pomijania wartości null dla konfiguracji sprzężeń strumień-strumień.
- [SPARK-48536] [ SC-168059][python][CONNECT] Buforuj schemat określony przez użytkownika w applyInPandas i applyInArrow
- [SPARK-47873] [SC-163473][sql] Zapisywanie ciągów ze zdefiniowanym porządkiem w magazynie metadanych Hive przy użyciu zwykłego typu stringu
- [SPARK-48461] [SC-167442][sql] Zastąp NullPointerExceptions klasą błędu w wyrażeniu AssertNotNull
- [SPARK-47833] [SC-163191][sql][CORE] Dostarczanie stosu wywołań dla checkAndGlobPathIfNecessary AnalysisException.
- [SPARK-47898] [SC-163146][sql] Port HIVE-12270: Dodanie wsparcia dla DBTokenStore do tokenu delegowania HS2
- [SPARK-47578] [SC-167497][r] Migrowanie narzędzi RPackageUtils ze zmiennymi do struktury rejestrowania strukturalnego
-
[SPARK-47875] [SC-162935][core] Remove
spark.deploy.recoverySerializer -
[SPARK-47552] [SC-160880][core] Ustaw
spark.hadoop.fs.s3a.connection.establish.timeoutwartość 30s, jeśli brakuje - [SPARK-47972] [SC-167692][sql] Ogranicz wyrażenie CAST dla sortowania
- [SPARK-48430] [SC-167489][sql] Napraw wyodrębnianie wartości mapy, gdy mapa zawiera posortowane ciągi
- [SPARK-47318] [SC-162712][core][3.5] Dodaje rundę HKDF do wyprowadzania kluczy AuthEngine w celu przestrzegania standardowych praktyk KEX
- [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Napraw niepoprawne skalarne podzapytania z grupowaniem według kolumn niedowartościowanych, które były niepoprawnie dozwolone.
-
[SPARK-48508] [SC-167695][connect][PYTHON] Buforuj użytkownika określonego schematu w
DataFrame.{to, mapInPandas, mapInArrow} - [SPARK-23015] [ SC-167188][windows] Naprawiono usterkę w systemie Windows, w której uruchamianie wielu wystąpień platformy Spark w ciągu tej samej sekundy powoduje błąd
- [SPARK-45891] [SC-167608]Przywróć "Opis schematu rozdrabniania dla wariantu"
- [SPARK-48391] [SC-167554][core]Użycie funkcji addAll zamiast funkcji add w metodzie fromAccumulatorInfos klasy TaskMetrics
- [SPARK-48496] [SC-167600][core] Używanie statycznych instancji wzorca regularnego w JavaUtils.timeStringAs i JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][sql] napraw błąd komunikatu NPE dla csv z pustym ogranicznikiem
- [SPARK-48489] [SC-167598][sql] Zgłoszenie bardziej zrozumiałego błędu dla użytkownika podczas próby odczytu nieprawidłowego schematu z tekstowego źródła danych
- [SPARK-48471] [ SC-167324][core] Ulepszanie dokumentacji i przewodnika użycia serwera historii
- [SPARK-45891] [SC-167597] Opis schematu rozdrabniania dla wariantu
-
[SPARK-47333] [ SC-159043][sql] Użyj checkInputDataTypes, aby sprawdzić typy parametrów funkcji
to_xml - [SPARK-47387] [SC-159310][sql] Usuń niektóre nieużywane klasy błędów
- [SPARK-48265] [ES-1131440][sql] Partia limitu grup okien wnioskowania powinna wykonywać stałe składanie
- [SPARK-47716] [SC-167444][sql] Unikaj konfliktu nazw widoku w teście sortowania semantycznego SQLQueryTestSuite
- [SPARK-48159] [ SC-167141][sql] Rozszerzanie obsługi posortowanych ciągów dla wyrażeń daty/godziny
- [SPARK-48462] [ SC-167271][sql][Testy] Używanie z programemSQLConf w testach: Refaktoryzacja aplikacji HiveQuerySuite i HiveTableScanSuite
-
[SPARK-48392] [SC-167195][core] Załaduj również
spark-defaults.confgdy jest dostarczone--properties-file - [SPARK-48468] [SC-167417] Dodawanie interfejsu LogicalQueryStage w katalizatorze
- [SPARK-47578] [ SC-164988][core] Ręczne wsteczne przeniesienie dla wniosku o zmianę platformy Spark #46309: Migrowanie logowania ostrzeżeń ze zmiennymi do strukturalnego systemu logowania
- [SPARK-48415] [SC-167321]Cofnij refaktoryzację "[PYTHON] TypeName w celu obsługi sparametryzowanych typów danych"
- [SPARK-46544] [SC-151361][sql] Obsługa wersji 2 DESCRIBE TABLE ROZSZERZONEj ze statystykami tabeli
- [SPARK-48325] [SC-166963][core] Zawsze określaj komunikaty w metodzie ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][sql] Dodano obsługę sortowania dla ustawień regionalnych ICU i specyfikatorów sortowania
- [SPARK-47221] [SC-157870][sql] Używa sygnatur z CsvParser do AbstractParser
-
[SPARK-47246] [SC-158138][sql] Zastąp element
InternalRow.fromSeq,new GenericInternalRowaby zapisać konwersję kolekcji - [SPARK-47597] [ SC-163932][streaming] Ręczne przeniesienie wsteczne dla wniosku scalającego Sparka nr 46192: Przesyłanie strumieniowe: migrowanie informacji logInfo ze zmiennymi do strukturalnego systemu rejestrowania
-
[SPARK-48415] [SC-167130][python] Refaktoryzacja
TypeNamew celu obsługi sparametryzowanych typów danych -
[SPARK-48434] [SC-167132][python][CONNECT] Użyj
printSchemabuforowanego schematu - [SPARK-48432] [ES-1097114][sql] Unikaj rozpakowywania liczb całkowitych w module UnivocityParser
- [SPARK-47463] [SC-162840][sql] Użyj V2Predicate, aby opakować wyrażenie, które zwraca wartość logiczną
- [SPARK-47781] [SC-162293][sql] Obsługa ujemnych przecinków skali dla źródeł danych JDBC
- [SPARK-48394] [SC-166966][core] Usunięcie mapIdToMapIndex przy wyrejestrowaniu mapoutput
- [SPARK-47072] [ SC-156933][sql] Poprawiono obsługiwane formaty interwałów w komunikatach o błędach
- [SPARK-47001] [SC-162487][sql] Weryfikacja wypychania w optymalizatorze
-
[SPARK-48335] [SC-166387][python][CONNECT] Zgodność
_parse_datatype_stringz programem Spark Connect -
[SPARK-48329] [SC-166518][sql] Włącz
spark.sql.sources.v2.bucketing.pushPartValues.enableddomyślnie - [SPARK-48412] [SC-166898][python] Refaktoryzacja parsowania typu danych JSON
- [SPARK-48215] [SC-166781][sql] Rozszerzanie obsługi ciągów sortowania w wyrażeniu date_format
- [SPARK-45009] [ SC-166873][sql][FOLLOW UP] Dodawanie klasy błędów i testów podzapytania predykatu w warunku sprzężenia, które odwołują się do obu elementów podrzędnych sprzężenia podrzędnego
- [SPARK-47960] [SC-165295][ss][15.x] Zezwalaj na tworzenie łańcuchów innych operatorów stanowych po operatorze transformWithState.
- [SPARK-48340] [SC-166468][python] Obsługa TimestampNTZ podczas inferowania schematu, preferując prefer_timestamp_ntz
- [SPARK-48157] [SC-165902][sql] Dodano obsługę sortowania dla wyrażeń CSV
- [SPARK-48158] [SC-165652][sql] Dodano obsługę sortowania dla wyrażeń XML
- [SPARK-48160] [SC-166064][sql] Dodano obsługę sortowania dla wyrażeń XPATH
- [SPARK-48229] [SC-165901][sql] Dodano obsługę sortowania dla wyrażeń inputFile
- [SPARK-48367] [SC-166487][connect] Poprawka lint-scala dla scalafmt w celu wykrywania plików do poprawnego formatowania
- [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Refaktoryzacja struktury kontekstu błędów DataFrame
- [SPARK-48370] [ SC-166787][połączenie] Checkpoint i lokalny Checkpoint w kliencie Scala Spark Connect
- [SPARK-48247] [SC-166028][python] Użyj wszystkich wartości w słowniku przy wnioskowaniu schematu MapType
-
[SPARK-48395] [SC-166794][python] Poprawka
StructType.treeStringdotycząca typów sparametryzowanych -
[SPARK-48393] [SC-166784][python] Przenieś grupę stałych do
pyspark.util -
[SPARK-48372] [SC-166776][spark-45716][PYTHON] Implement
StructType.treeString - [SPARK-48258] [SC-166467][python][CONNECT] Punkt kontrolny i lokalny punkt kontrolny w Spark Connect
Zobacz konserwacyjne aktualizacje środowiska Databricks Runtime 15.4 LTS.
Środowisko systemu
-
System operacyjny: Ubuntu 22.04.4 LTS
- Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery DBR działają na maszynach wirtualnych dostawcy usług w chmurze, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.15
- Python: 3.11.11
- R: 4.3.2
- Delta Lake: 3.2.0
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
| usługi przechowywania blobów Azure | 12.19.1 | Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) | 12.14.0 | backcall (przywołanie zwrotne) | 0.2.0 |
| czarny | 23.3.0 | kierunkowskaz | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | cachetools (narzędzia do zarządzania pamięcią podręczną) | 5.3.3 | certyfikat | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | normalizator zestawu znaków | 2.0.4 |
| kliknięcie | 8.0.4 | cloudpickle (biblioteka Python do serializacji obiektów) | 2.2.1 | Komunikacja | 0.1.2 |
| ContourPy | 1.0.5 | kryptografia | 41.0.3 | rowerzysta | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | dekorator | 5.1.1 | distlib | 0.3.8 |
| punkty wejścia | 0,4 | Wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 |
| blokada plików | 3.13.4 | fonttools | 4.25.0 | gitdb (baza danych Git) | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth (autoryzacja Google) | 2.31.0 |
| google-cloud-core | 2.4.1 | Google Cloud Storage (usługa przechowywania danych w chmurze od Google) | 2.17.0 | google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) | 1.5.0 |
| Google Media z Możliwością Wznowienia | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
| status grpcio | 1.60.0 | httplib2 | 0.20.2 | IDNA | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | brelok do kluczy | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| biblioteka matplotlib | 3.7.2 | biblioteka matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
| więcej itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | opakowanie | 23.2 |
| Pandas | 1.5.3 | parso | 0.8.3 | specyfikacja ścieżki | 0.10.3 |
| Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 |
| Poduszka | 9.4.0 | pip (menedżer pakietów Pythona) | 23.2.1 | platformdirs | 3.10.0 |
| kreślenie | 5.9.0 | zestaw narzędzi prompt | 3.0.36 | proto-plus | 1.24.0 |
| Protobuf (w skrócie od Protocol Buffers) | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
| pycparser | 2.21 | pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.39 |
| pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.9 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| pytz (biblioteka Pythona do obliczeń stref czasowych) | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
| żądania | 2.31.0 | RSA | 4.9 | s3transfer | 0.10.2 |
| scikit-learn | 1.3.0 | scipy (biblioteka naukowa dla Pythona) | 1.11.1 | urodzony na morzu | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 68.0.0 | Sześć | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5,11 |
| stos danych | 0.2.0 | statsmodels - biblioteka do modelowania statystycznego | 0.14.0 | Wytrzymałość | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
| traitlety | 5.7.1 | moduł typing_extensions | 4.10.0 | tzdata | 2022.1 |
| ujson (szybka biblioteka do obsługi formatu JSON) | 5.4.0 | nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | szerokość(wcwidth) | 0.2.5 |
| wheel | 0.38.4 | zamek błyskawiczny | 3.11.0 |
Zainstalowane biblioteki języka R
Biblioteki R są instalowane z wersji migawkowej CRAN Menedżera Pakietów Posit z dnia 2024-02-05: https://packagemanager.posit.co/cran/2024-02-05/.
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| strzała | 14.0.0.2 | askpass | 1.2.0 | potwierdzić to | 0.2.1 |
| backports (wersje tylnie) | 1.4.1 | baza | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | odrobina | 4.0.5 | bit-64 | 4.0.5 |
| bitops | 1.0-7 | blob | 1.2.4 | rozruch | 1.3-28 |
| warzyć | 1.0-10 | Brio | 1.1.4 | miotła | 1.0.5 |
| bslib | 0.6.1 | kaszmir | 1.0.8 | wywoływacz | 3.7.3 |
| karetka | 6.0-94 | cellranger | 1.1.0 | Chroń | 2.3-61 |
| klasa | 7.3-22 | CLI | 3.6.2 | clipr | 0.8.0 |
| zegar | 0.7.0 | klaster | 2.1.4 | codetools | 0.2-19 |
| przestrzeń kolorów | 2.1-0 | commonmark | 1.9.1 | kompilator | 4.3.2 |
| konfiguracja | 0.3.2 | zdezorientowany | 1.2.0 | cpp11 | 0.4.7 |
| kredka | 1.5.2 | dane logowania | 2.0.1 | lok | 5.2.0 |
| tabela danych | 1.15.0 | zbiory danych | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | opis | 1.4.3 | devtools | 2.4.5 |
| schemat | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.34 |
| downlit (wyłączony) | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | wielokropek | 0.3.2 | ocenić | 0.23 |
| fani | 1.0.6 | kolory | 2.1.1 | szybka mapa | 1.1.1 |
| Font Awesome | 0.5.2 | dla kotów | 1.0.0 | foreach | 1.5.2 |
| zagraniczny | 0.8-85 | kuźnia | 0.2.0 | Fs | 1.6.3 |
| przyszłość | 1.33.1 | wprowadź przyszłość | 1.11.1 | płukać gardło | 1.5.2 |
| typy ogólne | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
| Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globalna | 0.16.2 | klej | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafika | 4.3.2 | grDevices | 4.3.2 | siatka | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | Gt | 0.10.1 |
| gtabela | 0.3.4 | hełm ochronny | 1.3.1 | przystań | 2.5.4 |
| wyższy | 0.10 | HMS | 1.1.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.7 |
| widżety HTML | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | soczysty sok | 0.1.0 |
| KernSmooth | 2.23-21 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1,45 | Etykietowanie | 0.4.3 |
| później | 1.3.2 | krata | 0.21-8 | lawa | 1.7.3 |
| cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.12 | MASA | 7.3-60 |
| Macierz | 1.5-4.1 | zapamiętywanie | 2.0.1 | metody | 4.3.2 |
| mgcv | 1.8-42 | mim | 0,12 | miniUI (interfejs użytkownika) | 0.1.1.1 |
| mlflow | 2.10.0 | Metryki modelu | 1.2.2.2 | modeler | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | sieć neuronowa (nnet) | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.1.1 | równoległy | 4.3.2 |
| równolegle | 1.36.0 | filar | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | Procesx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | Postęp | 1.2.3 |
| progressr | 0.14.0 | Obietnice | 1.2.1 | Proto | 1.0.0 |
| serwer proxy | 0.4-27 | Post Scriptum | 1.7.6 | mruczenie | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | "randomForest" | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reaktywny | 0.4.4 |
| ReactR | 0.5.0 | czytnik | 2.1.5 | readxl (biblioteka do odczytu plików Excel) | 1.4.3 |
| przepisy | 1.0.9 | rewanż | 2.0.0 | rematch 2 | 2.1.2 |
| Urządzenia zdalnego sterowania | 2.4.2.1 | przykład do odtworzenia (reprex) | 2.1.0 | zmień kształt2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2,25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions (rversions) | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
| waga | 1.3.0 | selektor | 0.4-2 | informacje o sesji | 1.2.2 |
| kształt | 1.4.6 | błyszczący | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | przestrzenny | 7.3-15 | Splajny | 4.3.2 |
| sqldf | 0.4-11 | KWADRAT | 2021.1 | Statystyki | 4.3.2 |
| statystyki4 | 4.3.2 | łańcuchy | 1.8.3 | stringr | 1.5.1 |
| przetrwanie | 3.5-5 | pewność siebie | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| kształtowanie tekstu | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | zmiana czasu | 0.3.0 |
| czasData | 4032.109 | tinytex | 0,49 | narzędzia | 4.3.2 |
| Baza Danych Stref Czasowych (tzdb) | 0.4.0 | sprawdzacz URL | 1.0.1 | użyj tego | 2.2.2 |
| utf8 | 1.2.4 | programy narzędziowe | 4.3.2 | UUID (Uniwersalnie Unikalny Identyfikator) | 1.2-0 |
| Wersja 8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| Vroom | 1.6.5 | Waldo | 0.5.2 | wibrys | 0.4.1 |
| Withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | Xtable | 1.8-4 | yaml | 2.3.8 |
| zapał | 0.1.0 | zamek | 2.3.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm (biblioteka do obsługi usług CloudHSM) | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.610 |
| com.amazonaws | aws-java-sdk-directory | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.610 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.610 |
| com.amazonaws | aws-java-sdk-klej | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.610 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-logs | 1.12.610 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ses | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.610 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.610 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-cieniowane | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Adnotacje Jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rodzimi |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rodzimi |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | komentarze podatne na błędy | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfiguracja | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednowołciowości | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | sprężarka powietrza | 0.25 |
| io.delta | delta-sharing-client_2.12 | 1.1.1 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metryki-kontrole zdrowia | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.2.19 |
| io.dropwizard.metrics | metryki-JVM | 4.2.19 |
| io.dropwizard.metrics | serwlety metryczne | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | Netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common (element wspólny) | 4.1.96.Final |
| io.netty | "netty-handler" | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | rozwiązywacz netty | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | Klasy netty-tcnative | 2.0.61.Final |
| io.netty | transport Netty | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszony ogórek | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | program uruchamiający Ant | 1.10.11 |
| org.apache.arrow | format strzałki | 15.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | wektor strzałki | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | struktura kuratora | 2.13.0 |
| org.apache.curator | przepisy kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-pamięć | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | szablon układu log4j w formacie JSON | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | podkładki orc-shim | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-cieniowane | 4.23 |
| org.apache.yetus | adnotacje dla widowni | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zwierząt | 3.6.3 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | tryb Jute dla Zookeepera | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | kolekcje eclipse | 11.1.0 |
| org.eclipse.collections | API kolekcji Eclipse | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serwer websocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.40 |
| org.glassfish.jersey.core | serwer jersey | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Podkładki regulacyjne | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.11.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen Extra | 1.7.1 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |