Udostępnij przez


Databricks Runtime 15.4 LTS

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 15.4 LTS obsługiwanym przez platformę Apache Spark 3.5.0.

Usługa Databricks wydała tę wersję w sierpniu 2024 r.

Uwaga

LTS oznacza, że ta wersja jest objęta długoterminową pomocą techniczną. Zobacz Cykl życia wersji LTS środowiska Databricks Runtime.

Napiwek

Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.

Zmiany zachowań

Użycie VARIANT jako typu wejściowego lub wyjściowego z funkcją UDF, UDAF lub UDTF w Pythonie zgłasza wyjątek.

[Zmiana powodująca niezgodność] W środowisku Databricks Runtime 15.3 lub nowszym wywoływanie dowolnej funkcji zdefiniowanej przez użytkownika języka Python (UDF), funkcji agregującej zdefiniowanej przez użytkownika (UDAF) lub funkcji tabeli zdefiniowanej przez użytkownika (UDTF), która używa VARIANT typu jako argumentu lub wartości zwracanej zgłasza wyjątek. Ta zmiana jest wprowadzana w celu zapobiegania problemom, które mogą wystąpić z powodu nieprawidłowej wartości zwróconej przez jedną z tych funkcji. Aby dowiedzieć się więcej o typie VARIANT , zobacz Przechowywanie danych częściowo ustrukturyzowanych przy użyciu VARIANTów.

spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie włączona

spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie ustawione na true. Jeśli ta zmiana spowoduje zakłócenie zapytań (takich jak te, które zwracają TIMESTAMP wartości), ustaw ją na false w kodzie.

Zmiana domyślnego trybu powiązania schematu dla widoków

Widoki są teraz dostosowywane do zmian schematu w zapytaniu źródłowym przy użyciu kompensacji schematu z regularnymi regułami rzutowania. To zmiana z poprzedniego domyślnego trybu BINDING, który generował błędy, gdy podczas odwoływania się do widoku nie można było wykonać bezpiecznego rzutowania.

Zobacz CREATE VIEW oraz cast w funkcji.

Nie zezwalaj na używanie składni nieudokumentowanej ! zamiast NOT poza wyrażeniami logicznymi

W tej wersji użycie ! jako synonimu dla NOT poza wyrażeniami logicznymi nie jest już dozwolone. Na przykład instrukcje, takie jak: CREATE ... IF ! EXISTS, IS! NULL, kolumna ! NULL lub właściwość pola ! IN, oraz ! BETWEEN, należy zastąpić wartościami: CREATE ... IF NOT EXISTS, IS NOT NULL, kolumną lub właściwością NOT NULL pola, oraz NOT IN i NOT BETWEEN.

Ta zmiana zapewnia spójność, jest zgodna ze standardem SQL i sprawia, że twój program SQL jest bardziej przenośny.

Operator prefiksowy boolowski! (na przykład !is_mgr lub !(true AND false)) nie ma wpływu na tę zmianę.

Nie zezwalaj na nieudokumentowaną składnię definicji kolumny w widokach

Platforma Databricks obsługuje CREATE VIEW, zawierając nazwy kolumn i komentarze do kolumn. Wcześniej dozwolona była specyfikacja typów kolumn, NOT NULL ograniczeń lub DEFAULT. W tej wersji nie można już używać tej składni.

Ta zmiana zapewnia spójność, jest zgodna ze standardem SQL i obsługuje przyszłe ulepszenia.

Spójna obsługa błędów dla dekodowania Base64 na platformie Spark i aplikacji Photon

Ta wersja zmienia sposób obsługi błędów dekodowania Base64 przez program Photon w celu dopasowania ich do obsługi tych błędów przez platformę Spark. Przed wprowadzeniem tych zmian ścieżka generowania kodu Photon i Spark czasami nie podnosiła wyjątków analizy, podczas gdy interpretacja przez Spark poprawnie podnosiła IllegalArgumentException lub ConversionInvalidInputError. Ta aktualizacja gwarantuje, że aplikacja Photon stale zgłasza te same wyjątki co platforma Spark podczas dekodowania Base64, zapewniając bardziej przewidywalną i niezawodną obsługę błędów.

CHECK Dodanie ograniczenia dla nieprawidłowej kolumny teraz zwraca błąd klasy UNRESOLVED_COLUMN_WITH_SUGGESTION.

Aby zapewnić bardziej przydatne komunikaty o błędach, w środowisku Databricks Runtime 15.3 lub nowszym ALTER TABLE ADD CONSTRAINT instrukcja zawierająca CHECK ograniczenie odwołujące się do nieprawidłowej nazwy kolumny zwraca UNRESOLVED_COLUMN.WITH_SUGGESTION klasa błędu. Wcześniej INTERNAL_ERROR został zwrócony.

spark.sql.legacy.jdbc.useNullCalendar jest teraz domyślnie włączona

### spark.sql.legacy.jdbc.useNullCalendar jest teraz ustawiony jako true ustawienie domyślne. Jeśli ta zmiana spowoduje zakłócenie zapytań (takich jak te, które zwracają TIMESTAMP wartości), ustaw ją na false w kodzie.

Pyodbc jest aktualizowany z wersji 4.0.38 do 4.0.39

Pakiet pyodbc został zaktualizowany z wersji 4.0.38 do wersji 4.0.39. Ta zmiana jest wymagana, ponieważ znaleziono usterkę w wersji 4.0.38 i usunięto tę wersję z interfejsu PyPI.

Nowe funkcje i ulepszenia

Funkcje weryfikacji UTF-8

W tej wersji wprowadzono następujące funkcje do sprawdzania poprawności ciągów UTF-8:

  • is_valid_utf8 sprawdził, czy ciąg jest prawidłowym ciągiem UTF-8.
  • make_valid_utf8 konwertuje potencjalnie nieprawidłowy ciąg UTF-8 na poprawny ciąg UTF-8, używając znaków zastępczych
  • validate_utf8 zgłasza błąd, jeśli dane wejściowe nie są prawidłowym ciągiem UTF-8.
  • try_validate_utf8 zwraca NULL, jeśli dane wejściowe nie są prawidłowym ciągiem UTF-8.

Typizowane interfejsy API zestawów danych z funkcjami UDF języka Scala

W tej wersji dodano obsługę typowanych interfejsów API zestawów danych z funkcjami zdefiniowanymi przez użytkownika (z wyłączeniem funkcji agregujących zdefiniowanych przez użytkownika) w środowisku obliczeniowym obsługiwanym przez Unity Catalog ze standardowym trybem dostępu (wcześniej znanym jako tryb dostępu współdzielonego). Zobacz interfejsy API typizowanych zestawów danych.

Włącz górę lodową UniForm za pomocą ALTER TABLE

Teraz możesz włączyć UniForm Iceberg w istniejących tabelach bez ponownego zapisywania plików danych. Zobacz Włącz odczyty Iceberg na istniejącej tabeli.

Funkcja try_url_decode

W tej wersji wprowadzono funkcję try_url_decode , która dekoduje ciąg zakodowany w adresie URL. Jeśli ciąg nie ma poprawnego formatu, funkcja zwraca NULL zamiast zgłaszać błąd.

Opcjonalnie zezwól optymalizatorowi na korzystanie z niewymuszonych ograniczeń klucza obcego

Aby zwiększyć wydajność zapytań, możesz teraz określić RELY słowo kluczowe dotyczące FOREIGN KEY ograniczeń podczas tworzenia lub zmieniania tabeli.

Równoległe uruchomienia zadań dla selektywnego nadpisywania

Selektywne nadpisywanie przy użyciu replaceWhere teraz uruchamia zadania, które równolegle usuwają dane i wstawiają nowe dane, zwiększając wydajność zapytań i wykorzystanie klastra.

Zwiększona wydajność zestawienia danych zmian dzięki selektywnym zastępowaniom

Selektywne zastępowanie przy użyciu replaceWhere tabel ze źródłem danych zmian nie zapisuje już oddzielnych plików danych zmian dla wstawionych danych. Te operacje używają ukrytej _change_type kolumny obecnej w źródłowych plikach danych Parquet do rejestrowania zmian bez wzmacniania zapisu.

Ulepszone opóźnienie zapytania dla COPY INTO polecenia

Ta wersja zawiera zmianę, która poprawia opóźnienie zapytania dla COPY INTO polecenia. To ulepszenie zostało wdrożone poprzez asynchroniczne ładowanie stanu w magazynie stanów baz danych RocksDB. Dzięki tej zmianie powinna być zauważalna poprawa czasów uruchamiania dla zapytań z dużymi zestawami danych, takich jak zapytania z już pozyskaną dużą liczbą plików.

Obsługa usuwania funkcji tabeli ograniczeń sprawdzania

Teraz możesz usunąć funkcję checkConstraints z tabeli Delta przy użyciu ALTER TABLE table_name DROP FEATURE checkConstraints. Zobacz Wyłączanie ograniczeń sprawdzania.

Dedykowane zasoby obliczeniowe (dawniej obliczenia dedykowane dla pojedynczego użytkownika) obsługują szczegółową kontrolę dostępu, zmaterializowane widoki i tabele strumieniowe (wersja próbna)

Gdy obszar roboczy jest włączony na potrzeby przetwarzania bezserwerowego, środowisko Databricks Runtime 15.4 LTS dodaje obsługę szczegółowej kontroli dostępu do dedykowanych zasobów obliczeniowych. Gdy zapytanie uzyskuje dostęp do dowolnego z następujących obiektów, dedykowany zasób obliczeniowy w środowisku Databricks Runtime 15.4 LTS przekazuje zapytanie do bezserwerowego środowiska obliczeniowego w celu uruchomienia filtrowania danych:

  • Widoki zdefiniowane nad tabelami, na których użytkownik nie ma SELECT uprawnień.
  • Widoki dynamiczne.
  • Tabele z zastosowanymi filtrami wierszy lub maskami kolumn.
  • Zmaterializowane widoki i tabele przesyłania strumieniowego.

Te zapytania nie są obsługiwane na dedykowanych obliczeniach z uruchomionym środowiskiem Databricks Runtime 15.3 lub nowszym.

Aby uzyskać więcej informacji, zobacz Szczegółowe informacje dotyczące kontroli dostępu w dedykowanych obliczeniach.

Rozszerzona obsługa bibliotek Java i Scala

Od wersji Databricks Runtime 15.4 LTS, wszystkie biblioteki Java i Scala dostarczane ze środowiskiem Databricks Runtime są dostępne we wszystkich trybach dostępu obliczeniowego przy użyciu Unity Catalog. Aby dowiedzieć się więcej na temat obsługi języków obliczeniowych z obsługą wykazu aparatu Unity, zobacz Standardowe wymagania i ograniczenia dotyczące obliczeń.

Rozszerzona obsługa operacji scala dataset

W tej wersji zasoby obliczeniowe z włączonym katalogiem Unity, korzystające ze standardowego trybu dostępu, obsługują następujące operacje Scala: Dataset, map, mapPartitions, foreachPartition, flatMap, reduce i filter.

Język Scala jest ogólnie dostępny w ramach standardowych zasobów obliczeniowych platformy Unity Catalog.

W tej wersji, język Scala jest generalnie dostępny w zasobach obliczeniowych w trybie standardowym z obsługą katalogu Unity, w tym wsparcie dla funkcji zdefiniowanych przez użytkownika, skalarne (UDF). Strukturalne przesyłanie danych, funkcje zdefiniowane przez użytkownika Hive (UDFs) oraz funkcje agregacyjne zdefiniowane przez użytkownika Hive nie są obsługiwane. Aby uzyskać pełną listę ograniczeń, zobacz Standardowe wymagania i ograniczenia dotyczące obliczeń.

Dostęp do zewnętrznych usług chmurowych zarządzanych przez Katalog Unity przy użyciu poświadczeń usługi (publiczna wersja zapoznawcza)

Poświadczenia usługowe umożliwiają proste i bezpieczne uwierzytelnianie przy użyciu zarządzanych tożsamości platformy Azure (MI) oraz Katalogu Unity dla usług Twojego dzierżawcy w chmurze. Zobacz Tworzenie poświadczeń usługi.

Poprawki błędów

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • azure-core z wersji 1.30.1 do 1.30.2
    • google-auth z wersji 2.29.0 do 2.31.0
    • Aktualizacja google-cloud-storage z wersji 2.16.0 do 2.17.0
    • google-resumable-media z 2.7.0 do 2.7.1
    • googleapis-common-protos z 1.63.0 do 1.63.2
    • mlflow-skinny z 2.11.3 do 2.11.4
    • proto-plus z 1.23.0 do 1.24.0
    • s3transfer z 0.10.1 do 0.10.2
  • Uaktualnione biblioteki języka R:
  • Uaktualnione biblioteki Java:
    • com.databricks.databricks-sdk-java od wersji 0.17.1 do wersji 0.27.0
    • com.ibm.icu.icu4j z 72.1 do 75.1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider z wersji 1.6.1-linux-x86_64 do wersji 1.6.2-linux-x86_64

Apache Spark

Środowisko Databricks Runtime 15.4 LTS obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w Databricks Runtime 15.3 (EoS)oraz następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-48503] [DBRRM-1150][sc-172196][SQL] Zezwalaj na grupowanie w wyrażeniach w podzapytaniach skalarnych, jeśli są one powiązane z wierszami zewnętrznymi
  • [SPARK-48834] [BEHAVE-79][sc-170972][SQL] Wyłącz zmienny wejście/wyjście do skalarne funkcje Pythona UDF, UDTF, UDAF podczas kompilacji zapytań
  • [SPARK-48441] [SC-170980][sql][WARMFIX] Poprawka zachowania StringTrim dla sortowania innych niż UTF8_BINARY
  • pl-PL: [SPARK-48440] [SC-170895][sql][WARMFIX] Napraw zachowanie funkcji StringTranslate dla kolacji nie-UTF8_BINARY
  • [SPARK-48872] [SC-170866][python] Zmniejsz obciążenie _capture_call_site
  • [SPARK-48862] [SC-170845][python][CONNECT] Unikaj wywoływania _proto_to_string , gdy poziom INFO nie jest włączony
  • [SPARK-48852] [SC-170837][connect] Poprawka funkcji przycinania ciągu w frameworku connect
  • [SPARK-48791] [SC-170658][core] Poprawka regresji wydajności spowodowanej przez koszt rejestracji akumulatorów przy użyciu CopyOnWriteArrayList
  • [SPARK-48118] [SQL] Obsługa SPARK_SQL_LEGACY_CREATE_HIVE_TABLE zmiennej env
  • [SPARK-48241] [ SC-165811][sql] Błąd analizowania woluminów CSV z kolumnami typu char/varchar
  • [SPARK-48168] [SC-166900][sql] Dodano obsługę operatorów przesunięcia bitowego
  • [SPARK-48148] [ SC-165630][core] Obiekty JSON nie powinny być modyfikowane podczas odczytywania jako CIĄGU
  • [SPARK-46625] [SC-170561] CTE z klauzulą "Identyfikator" jako odniesieniem
  • [SPARK-48771] [SC-170546][sql] Przyspiesz LogicalPlanIntegrity.validateExprIdUniqueness dla dużych planów zapytań
  • [SPARK-48831] [ BEHAVE-76][sc-170554][CONNECT] Ustaw domyślną nazwę kolumny cast zgodną z klasyczną platformą Spark
  • [SPARK-48623] [SC-170544][core] Migracje rejestrowania strukturalnego [część 2]
  • [SPARK-48296] [SC-166138][sql] Obsługa codegenów to_xml
  • [SPARK-48027] [ SC-165154][sql] InjectRuntimeFilter dla łączenia wielopoziomowego powinien sprawdzić typ łączenia podrzędnego
  • [SPARK-48686] [SC-170365][sql] Zwiększanie wydajności parserUtils.unescapeSQLString
  • [SPARK-48798] [SC-170588][python] Wprowadzono spark.profile.render do profilowania opartego na SparkSession
  • [SPARK-48048] [SC-169099] Przywracanie "[SC-164846][connect][SS] Dodano obsługę odbiornika po stronie klienta dla języka Scala"
  • [SPARK-47910] [SC-168929][core] aby uniknąć wycieku pamięci, zamknij strumień, kiedy DiskBlockObjectWriter zamknie zasoby
  • [SPARK-48816] [SC-170547][sql] Skrót dla konwerterów przedziałów w UnivocityParser
  • [SPARK-48589] [SC-170132][sql][SS] Dodawanie opcji snapshotStartBatchId i snapshotPartitionId do stanu źródła danych
  • [SPARK-48280] [SC-170293][sql] Poprawa obszaru testowania kolażu wykorzystując przetwarzanie wyrażeń
  • [SPARK-48837] [ SC-170540][ml] W CountVectorizer odczytywać parametr binarny tylko raz na przekształcenie, a nie raz na wiersz
  • [SPARK-48803] [SC-170541][sql] Rzucaj błąd wewnętrzny w deserializatorze Orc, aby wyrównać z ParquetWriteSupport
  • [SPARK-48764] [ SC-170129][python] Filtrowanie ramek powiązanych z biblioteką IPython ze stosu użytkownika
  • [SPARK-48818] [ SC-170414][python] Upraszczanie percentile funkcji
  • [SPARK-48479] [SC-169079][sql] Obsługa tworzenia skalarne i tabelowe funkcje zdefiniowane przez użytkownika (UDF) SQL w analizatorze
  • [SPARK-48697] [SC-170122][lc-4703][SQL] Dodawanie filtrów ciągów obsługujących sortowanie
  • [SPARK-48800] [SC-170409][connect][SS] Deflake ClientStreamingQuerySuite
  • [SPARK-48738] [SC-169814][sql] Popraw wersję początkową dla wbudowanego aliasu funkcji random, position, mod, cardinality, current_schema, user, session_user, char_length, character_length
  • [SPARK-48638] [SC-169575][connect] Dodaj obsługę informacji wykonania dla DataFrame
  • [SPARK-48064] [SC-164697][sql] Aktualizowanie komunikatów o błędach dla rutynowych powiązanych klas błędów
  • [SPARK-48810] [CONNECT] Interfejs API stop() sesji powinien być idempotentny i nie powinien zawieść, jeśli sesja została już wcześniej zamknięta przez serwer
  • [SPARK-48650] [15.x][python] Wyświetl poprawne miejsce wywołania z Notebooka IPython
  • [SPARK-48271] [SC-166076][sql] Przekształć błąd dopasowania w RowEncoder na UNSUPPORTED_DATA_TYPE_FOR_ENCODER
  • [SPARK-48709] [ SC-169603][sql] Poprawka niezgodności rozpoznawania typów varchar dla dataSourceV2 CTAS
  • [SPARK-48792] [SC-170335][sql] Napraw regresję dla INSERT z częściową listą kolumn do tabeli zawierającej znaki lub tekst (char/varchar)
  • [SPARK-48767] [SC-170330][sql] Popraw niektóre komunikaty o błędach, gdy dane typu variant są nieprawidłowe
  • [SPARK-48719] [ SC-170339][sql] Naprawiono usterkę obliczania parametru RegrSlope & RegrIntercept gdy pierwszy parametr ma wartość null
  • [SPARK-48815] [ SC-170334][connect] Środowisko aktualizacji podczas zatrzymywania sesji połączenia
  • [SPARK-48646] [ SC-169020][python] Uściślij dokumentację interfejsu API źródła danych języka Python i wskazówki dotyczące typów
  • [SPARK-48806] [SC-170310][sql] Przekaż rzeczywisty wyjątek w przypadku niepowodzenia url_decode
  • [SPARK-47777] [SC-168818] Naprawić test połączenia ze źródłem danych przesyłania strumieniowego w Pythonie
  • [SPARK-48732] [SC-169793][sql] Wyczyść przestarzałe użycie interfejsu API związane z JdbcDialect.compileAggregate
  • [SPARK-48675] [SC-169538][sql] Napraw tabelę pamięci podręcznej z kolumną sortowaną
  • [SPARK-48623] [SC-169034][core] Migracje logowania strukturalnego
  • [SPARK-48655] [SC-169542][sql] SPJ: Dodawanie testów dla pomijania operacji mieszania dla zapytań agregowanych
  • [SPARK-48586] [SC-169808][ss] Usuwanie pozyskiwania blokady w narzędziu doMaintenance() przez utworzenie głębokiej kopii mapowań plików w narzędziu RocksDBFileManager w load()
  • [SPARK-48799] [Backport][15.x][SC-170283][ss] Refaktoryzacja wersjonowania dla odczytu/zapisu metadanych operatora i wywołań
  • [SPARK-48808] [SC-170309][sql] Napraw NPE przy łączeniu thriftserver przez Hive 1.2.1, gdy schemat wyników jest pusty
  • [SPARK-48715] [SC-170291][sql] Integracja walidacji UTF8String z implementacjami funkcji ciągów uwzględniającymi sortowanie
  • [SPARK-48747] [SC-170120][sql] Dodać iterator punktów kodowych do UTF8String
  • [SPARK-48748] [SC-170115][sql] Cache numChars in UTF8String
  • [SPARK-48744] [ SC-169817][core] Wpis dziennika powinien być konstruowany tylko raz
  • [SPARK-46122] [SC-164313][sql] Wartość spark.sql.legacy.createHiveTableByDefault domyślnie ustawiana na false
  • [SPARK-48765] [ SC-170119][deploy] Ulepszanie oceny wartości domyślnej dla SPARK_IDENT_STRING
  • [SPARK-48759] [SC-170128][sql] Dodaj dokumentację migracyjną dotyczącą zmiany zachowania CREATE TABLE AS SELECT od czasu wprowadzenia Spark 3.4.
  • [SPARK-48598] [SC-169484][python][CONNECT] Propagacja schematu buforowanego w operacjach ramek danych
  • Udokumentować różnicę w zachowaniu między extraction i element_at
  • [SPARK-48768] [SC-170124][python][CONNECT] Nie należy buforować explain
  • [SPARK-48770] [Backport][15.x][SC-170133][ss] Zmień, aby odczytać metadane operatora raz na sterowniku, aby sprawdzić, czy możemy znaleźć informacje dla parametru numColsPrefixKey używanego dla zapytań agg okna sesji
  • [SPARK-48656] [SC-169529][core] Wykonaj sprawdzanie długości i zgłoś błąd COLLECTION_SIZE_LIMIT_EXCEEDED w CartesianRDD.getPartitions
  • [SPARK-48597] [SC-168817][sql] Wprowadzenie znacznika dla właściwości isStreaming w tekstowej reprezentacji planu logicznego
  • [SPARK-48472] [SC-169044][sql] Włącz wyrażenia reflect za pomocą ciągów uporządkowanych
  • [SPARK-48699] [SC-169597][sql] Uściślij interfejs API sortowania
  • [SPARK-48682] [SC-169812][sql][BEHAVE-58] Użyj ICU w wyrażeniu InitCap dla ciągów znaków UTF8_BINARY
  • [SPARK-48282] [SC-169813][sql] Zmień logikę wyszukiwania ciągów dla sortowania UTF8_BINARY_LCASE (StringReplace, FindInSet)
  • [SPARK-47353] [SC-169599][sql] Włącz obsługę sortowania dla wyrażenia Mode
  • [SPARK-48320] [SPARK-48490] Synchronizowanie najnowszej cechy rejestrowania oraz przypadków testowych z projektu open-source Spark
  • [SPARK-48629] [SC-169479] Migrowanie kodu resztowego do struktury rejestrowania strukturalnego
  • [SPARK-48681] [SC-169469][sql][BEHAVE-58] Użycie ICU w wyrażeniach Lower/Upper dla łańcuchów UTF8_BINARY
  • [SPARK-48573] [15.x][sc-169582][SQL] Uaktualnianie wersji ICU
  • [SPARK-48687] [Backport][15.x][SS] Dodawanie zmiany w celu przeprowadzenia weryfikacji schematu stanu i aktualizacji sterownika dla zapytań stanowych
  • [SPARK-47579] [15.x][sc-167310][CORE][part4] Migracja logInfo ze zmiennymi do strukturalnego systemu rejestrowania
  • [SPARK-48008] [SC-167363][1/2] Obsługa plików UDAFs w programie Spark Connect
  • [SPARK-48578] [SC-169505][sql] Dodaj funkcje związane z weryfikacją ciągów UTF8
  • [SPARK-48670] [SC-169598][sql] Podanie sugestii w ramach komunikatu o błędzie w przypadku podania nieprawidłowej nazwy sortowania
  • [SPARK-48059] [SPARK-48145][spark-48134][SPARK-48182][spark-48209][SPA... … RK-48291] Struktura dzienników strukturalnych po stronie języka Java
  • [SPARK-47599] [15.x][sc-166000][MLLIB] MLLib: Migrowanie logWarn ze zmiennymi do struktury rejestrowania strukturalnego
  • [SPARK-48706] [SC-169589][python] Funkcja UDF w języku Python w funkcjach wyższego rzędu nie powinna zgłaszać błędu wewnętrznego
  • [SPARK-48498] [BEHAVE-38][sc-168060][SQL] Zawsze wykonuj dopełnianie znaków w predykatach
  • [SPARK-48662] [SC-169533][sql] Poprawka wyrażenia StructsToXml z sortowaniami
  • [SPARK-48482] [ SC-167702][python][15.x] dropDuplicates i dropDuplicatesWithinWatermark powinny akceptować argumenty o zmiennej długości
  • [SPARK-48678] [SC-169463][core] Optymalizacje wydajności dla platformy SparkConf.get(ConfigEntry)
  • [SPARK-48576] [SQL] Zmień nazwę UTF8_BINARY_LCASE na UTF8_LCASE
  • [SPARK-47927] [SC-164123][sql]: Poprawa atrybutu nullowalności w dekoderze UDF
  • [SPARK-47579] [SC-165297][core][PART1] Migruj logInfo ze zmiennymi do strukturalnego frameworku logowania (nowy)
  • [SPARK-48695] [ SC-169473][python] TimestampNTZType.fromInternal nie używa przestarzałych metod
  • [SPARK-48431] [SC-167290][lc-4066][SQL] Nie przekazuj predykatów na posortowane kolumny do czytników plików
  • [SPARK-47579] Przywróć "[SC-165297][core][PART1] Migracja logInfo z zmiennymi do strukturalnego systemu logowania"
  • [SPARK-47585] [ SC-164306][sql] Core SQL: Migrate logInfo with variables to structured logging framework (Migrowanie informacji logInfo ze zmiennymi do struktury rejestrowania ze strukturą)
  • [SPARK-48466] [SC-169042][sql] Tworzenie dedykowanego węzła dla EmptyRelation w AQE
  • [SPARK-47579] [ SC-165297][core][PART1] Migracja logInfo ze zmiennymi do strukturalnego frameworku logowania
  • [SPARK-48410] [SC-168320][sql] Naprawa wyrażenia InitCap dla sortowania UTF8_BINARY_LCASE i ICU
  • [SPARK-48318] [SC-167709][sql] Włącz obsługę łączenia z użyciem skrótów dla wszystkich porządków znakowych (typy złożone)
  • [SPARK-48435] [SC-168128][sql] Sortowanie UNICODE nie powinno obsługiwać równości binarnej
  • [SPARK-48555] [SC-169041][sql][PYTHON][connect] Obsługa używania kolumn jako parametrów dla kilku funkcji w narzędziu pyspark/scala
  • [SPARK-48591] [ SC-169081][python] Dodawanie funkcji pomocniczej w celu uproszczenia Column.py
  • [SPARK-48574] [ SC-169043][sql] Poprawiono obsługę typów struktur z sortowaniami
  • [SPARK-48305] [SC-166390][sql] Dodano obsługę sortowania dla wyrażeń CurrentLike
  • [SPARK-48342] [SC-168941][sql] Wprowadzenie analizatora skryptów SQL
  • [SPARK-48649] [ SC-169024][sql] Dodaj konfiguracje "ignoreInvalidPartitionPaths" i "spark.sql.files.ignoreInvalidPartitionPaths", aby umożliwić ignorowanie nieprawidłowych ścieżek partycji
  • [SPARK-48000] [SC-167194][sql] Włączyć obsługę sprzężeń skrótów dla wszystkich kolokacji (StringType)
  • [SPARK-48459] [SC-168947][connect][PYTHON] Implement DataFrameQueryContext w programie Spark Connect
  • [SPARK-48602] [SC-168692][sql] Tworzenie generatora csv obsługi innego stylu danych wyjściowych za pomocą spark.sql.binaryOutputStyle
  • [SPARK-48283] [SC-168129][sql] Modyfikowanie porównania ciągów dla UTF8_BINARY_LCASE
  • [SPARK-48610] [ SC-168830][sql] refaktoryzacja: użyj pomocniczej metody idMap zamiast OP_ID_TAG
  • [SPARK-48634] [SC-169021][python][CONNECT] Unikaj statycznego zainicjowania puli wątków w obiekcie ExecutePlanResponseReattachableIterator
  • [SPARK-47911] [ SC-164658][sql] Wprowadza universal BinaryFormatter w celu zapewnienia spójności danych wyjściowych binarnych
  • [SPARK-48642] [SC-168889][core] Niepoprawny błąd SparkOutOfMemoryError spowodowany zakończeniem zadania przez przepełnienie pamięci.
  • [SPARK-48572] [SC-168844][sql] Napraw DateSub, DateAdd, WindowTime, TimeWindow oraz SessionWindow wyrażenia
  • [SPARK-48600] [SC-168841][sql] Napraw wyrażenia FrameLessOffsetWindowFunction — niejawne konwersje typów
  • [SPARK-48644] [ SC-168933][sql] Wykonaj sprawdzenie długości i wyrzuć błąd COLLECTION_SIZE_LIMIT_EXCEEDED w funkcji Hex.hex
  • [SPARK-48587] [SC-168824][wariant] Należy unikać zwiększania przestrzeni magazynowej podczas uzyskiwania dostępu do podwariantu
  • [SPARK-48647] [ SC-168936][python][CONNECT] Uściślij komunikat o błędzie dla elementu YearMonthIntervalType w df.collect
  • [SPARK-48307] [SC-167802][sql] InlineCTE powinno zachować relacje niezwinięte w oryginalnym węźle ZCTE
  • [SPARK-48596] [SC-168581][sql] Ulepszenie wydajności operacji przy obliczaniu ciągu szesnastkowego dla typu long.
  • [SPARK-48621] [ SC-168726][sql] Poprawka podobna do uproszczenia w optymalizatorze dla ciągów sortowania
  • [SPARK-47148] [SC-164179][sql] Unikaj materializowania AQE ExchangeQueryStageExec podczas anulowania
  • [SPARK-48584] [SC-168579][sql] Ulepszenia wydajności dla unescapePathName
  • [SPARK-48281] [SC-167260][sql] Zmienić logikę wyszukiwania ciągów znaków dla porównania UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
  • [SPARK-48577] [SC-168826][sql] Wymiana nieprawidłowej sekwencji bajtów UTF-8
  • [SPARK-48595] [SC-168580][core] Usunięcie przestarzałego użycia interfejsu API związanego z commons-compress
  • [SPARK-48030] [ SC-164303][sql] SPJ: buforowanie kolejności wierszy i typu struktury dla InternalRowComparableWrapper
  • [SPARK-48004] [SC-164005][sql] Dodaj cechę WriteFilesExecBase dla zapisu w wersji 1
  • [SPARK-48551] [SC-168438][sql] Ulepszenia wydajności dla escapePathName
  • [SPARK-48565] [SC-168437][ui] Poprawiono wyświetlanie zrzutu stanu wątków w interfejsie użytkownika
  • [SPARK-48364] [ SC-166782][sql] Dodaj rzutowanie typu AbstractMapType i naprawa mapy parametrów RaiseError do pracy z sortowanymi ciągami znaków
  • [SPARK-48421] [SC-168689][sql] SPJ: Dodawanie dokumentacji
  • [SPARK-48604] [SC-168698][sql] Zastąp przestarzałe new ArrowType.Decimal(precision, scale) wywołanie metody
  • [SPARK-46947] [SC-157561][core] Opóźnij inicjowanie menedżera pamięci do momentu załadowania wtyczki sterownika
  • [SPARK-48411] [SC-168576][ss][PYTHON] Dodaj test E2E dla funkcji DropDuplicateWithinWatermark
  • [SPARK-48543] [SC-168697][ss] Śledzenie niepowodzeń walidacji wierszy stanu przy użyciu jawnej klasy błędów
  • [SPARK-48221] [SC-167143][sql] Zmień logikę wyszukiwania ciągów znaków dla kolacji UTF8_BINARY_LCASE (Zawiera, Zaczyna się od, Kończy się na, Znajdz pozycję)
  • [SPARK-47415] [SC-168441][sql] Dodano obsługę sortowania dla wyrażenia Levenshtein
  • [SPARK-48593] [SC-168719][python][CONNECT] Poprawiono reprezentację ciągu funkcji lambda
  • [SPARK-48622] [SC-168710][sql] get SQLConf raz podczas rozpoznawania nazw kolumn
  • [SPARK-48594] [ SC-168685][python][CONNECT] Zmień nazwę parent pola na child w ColumnAlias
  • [SPARK-48403] [SC-168319][sql] Fix Lower & Upper expressions for UTF8_BINARY_LCASE & ICU collations (Poprawki dolnych i górnych wyrażeń dla sortowania UTF8_BINARY_LCASE i ICU)
  • [SPARK-48162] [SC-166062][sql] Dodano obsługę sortowania dla wyrażeń MISC
  • [SPARK-48518] [SC-167718][core] Kompresja LZF może działać równolegle
  • [SPARK-48474] [SC-167447][core] Poprawiono nazwę klasy dziennika SparkSubmitArguments i SparkSubmit
  • [SPARK-48012] [SC-168267][sql] SPJ: Obsługa wyrażeń przekształcających dla jednostronnego tasowania
  • [SPARK-48552] [ SC-168212][sql] wielowierszowe wnioskowanie schematu CSV powinno również zgłosić FAILED_READ_FILE
  • [SPARK-48560] [SC-168268][ss][PYTHON] Umożliwić ustawienie StreamingQueryListener.spark
  • [SPARK-48569] [SC-168321][ss][CONNECT] Obsługa skrajnych przypadków w nazwach zapytań (query.name)
  • [SPARK-47260] [SC-167323][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_3250
  • [SPARK-48564] [SC-168327][python][CONNECT] Propagacja buforowanego schematu w operacjach zestawu
  • [SPARK-48155] [ SC-165910][sql] AQEPropagateEmptyRelation dla sprzężenia powinien sprawdzić, czy pozostały element podrzędny jest tylko BroadcastQueryStageExec
  • [SPARK-48506] [ SC-167720][core] Krótkie nazwy koderów kompresji są nieczułe na wielkość liter, z wyjątkiem logowania zdarzeń
  • [SPARK-48447] [SC-167607][ss] Sprawdź klasę dostawcy dla magazynu stanów przed wywołaniem konstruktora
  • [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff i DateTimeUtils.timestampAdd nie powinny zgłaszać wyjątku INTERNAL_ERROR
  • [SPARK-48513] [Backport][15.x][SC-168085][ss] Dodanie klasy błędów dla zgodności schematu stanu i drobna refaktoryzacja
  • [SPARK-48413] [SC-167669][sql] ZMIEŃ z porządkowaniem
  • [SPARK-48561] [SC-168250][ps][CONNECT] Rzuć PandasNotImplementedError dla nieobsługiwanych funkcji wykresów
  • [SPARK-48465] [SC-167531][sql] Unikaj no-op pustej propagacji relacji
  • [SPARK-48553] [SC-168166][python][CONNECT] Buforuj więcej właściwości
  • [SPARK-48540] [SC-168069][core] Unikaj ładowania ustawień wyjściowych ivy do stdout
  • [SPARK-48535] [SC-168057][ss] Zaktualizować dokumentację konfiguracji, aby wskazać możliwość utraty lub uszkodzenia danych, jeśli włączona jest opcja pomijania wartości null dla konfiguracji sprzężeń strumień-strumień.
  • [SPARK-48536] [ SC-168059][python][CONNECT] Buforuj schemat określony przez użytkownika w applyInPandas i applyInArrow
  • [SPARK-47873] [SC-163473][sql] Zapisywanie ciągów ze zdefiniowanym porządkiem w magazynie metadanych Hive przy użyciu zwykłego typu stringu
  • [SPARK-48461] [SC-167442][sql] Zastąp NullPointerExceptions klasą błędu w wyrażeniu AssertNotNull
  • [SPARK-47833] [SC-163191][sql][CORE] Dostarczanie stosu wywołań dla checkAndGlobPathIfNecessary AnalysisException.
  • [SPARK-47898] [SC-163146][sql] Port HIVE-12270: Dodanie wsparcia dla DBTokenStore do tokenu delegowania HS2
  • [SPARK-47578] [SC-167497][r] Migrowanie narzędzi RPackageUtils ze zmiennymi do struktury rejestrowania strukturalnego
  • [SPARK-47875] [SC-162935][core] Remove spark.deploy.recoverySerializer
  • [SPARK-47552] [SC-160880][core] Ustaw spark.hadoop.fs.s3a.connection.establish.timeout wartość 30s, jeśli brakuje
  • [SPARK-47972] [SC-167692][sql] Ogranicz wyrażenie CAST dla sortowania
  • [SPARK-48430] [SC-167489][sql] Napraw wyodrębnianie wartości mapy, gdy mapa zawiera posortowane ciągi
  • [SPARK-47318] [SC-162712][core][3.5] Dodaje rundę HKDF do wyprowadzania kluczy AuthEngine w celu przestrzegania standardowych praktyk KEX
  • [SPARK-48503] [BEHAVE-29][es-1135236][SQL] Napraw niepoprawne skalarne podzapytania z grupowaniem według kolumn niedowartościowanych, które były niepoprawnie dozwolone.
  • [SPARK-48508] [SC-167695][connect][PYTHON] Buforuj użytkownika określonego schematu w DataFrame.{to, mapInPandas, mapInArrow}
  • [SPARK-23015] [ SC-167188][windows] Naprawiono usterkę w systemie Windows, w której uruchamianie wielu wystąpień platformy Spark w ciągu tej samej sekundy powoduje błąd
  • [SPARK-45891] [SC-167608]Przywróć "Opis schematu rozdrabniania dla wariantu"
  • [SPARK-48391] [SC-167554][core]Użycie funkcji addAll zamiast funkcji add w metodzie fromAccumulatorInfos klasy TaskMetrics
  • [SPARK-48496] [SC-167600][core] Używanie statycznych instancji wzorca regularnego w JavaUtils.timeStringAs i JavaUtils.byteStringAs
  • [SPARK-48476] [SC-167488][sql] napraw błąd komunikatu NPE dla csv z pustym ogranicznikiem
  • [SPARK-48489] [SC-167598][sql] Zgłoszenie bardziej zrozumiałego błędu dla użytkownika podczas próby odczytu nieprawidłowego schematu z tekstowego źródła danych
  • [SPARK-48471] [ SC-167324][core] Ulepszanie dokumentacji i przewodnika użycia serwera historii
  • [SPARK-45891] [SC-167597] Opis schematu rozdrabniania dla wariantu
  • [SPARK-47333] [ SC-159043][sql] Użyj checkInputDataTypes, aby sprawdzić typy parametrów funkcji to_xml
  • [SPARK-47387] [SC-159310][sql] Usuń niektóre nieużywane klasy błędów
  • [SPARK-48265] [ES-1131440][sql] Partia limitu grup okien wnioskowania powinna wykonywać stałe składanie
  • [SPARK-47716] [SC-167444][sql] Unikaj konfliktu nazw widoku w teście sortowania semantycznego SQLQueryTestSuite
  • [SPARK-48159] [ SC-167141][sql] Rozszerzanie obsługi posortowanych ciągów dla wyrażeń daty/godziny
  • [SPARK-48462] [ SC-167271][sql][Testy] Używanie z programemSQLConf w testach: Refaktoryzacja aplikacji HiveQuerySuite i HiveTableScanSuite
  • [SPARK-48392] [SC-167195][core] Załaduj również spark-defaults.conf gdy jest dostarczone --properties-file
  • [SPARK-48468] [SC-167417] Dodawanie interfejsu LogicalQueryStage w katalizatorze
  • [SPARK-47578] [ SC-164988][core] Ręczne wsteczne przeniesienie dla wniosku o zmianę platformy Spark #46309: Migrowanie logowania ostrzeżeń ze zmiennymi do strukturalnego systemu logowania
  • [SPARK-48415] [SC-167321]Cofnij refaktoryzację "[PYTHON] TypeName w celu obsługi sparametryzowanych typów danych"
  • [SPARK-46544] [SC-151361][sql] Obsługa wersji 2 DESCRIBE TABLE ROZSZERZONEj ze statystykami tabeli
  • [SPARK-48325] [SC-166963][core] Zawsze określaj komunikaty w metodzie ExecutorRunner.killProcess
  • [SPARK-46841] [SC-167139][sql] Dodano obsługę sortowania dla ustawień regionalnych ICU i specyfikatorów sortowania
  • [SPARK-47221] [SC-157870][sql] Używa sygnatur z CsvParser do AbstractParser
  • [SPARK-47246] [SC-158138][sql] Zastąp element InternalRow.fromSeq , new GenericInternalRow aby zapisać konwersję kolekcji
  • [SPARK-47597] [ SC-163932][streaming] Ręczne przeniesienie wsteczne dla wniosku scalającego Sparka nr 46192: Przesyłanie strumieniowe: migrowanie informacji logInfo ze zmiennymi do strukturalnego systemu rejestrowania
  • [SPARK-48415] [SC-167130][python] Refaktoryzacja TypeName w celu obsługi sparametryzowanych typów danych
  • [SPARK-48434] [SC-167132][python][CONNECT] Użyj printSchema buforowanego schematu
  • [SPARK-48432] [ES-1097114][sql] Unikaj rozpakowywania liczb całkowitych w module UnivocityParser
  • [SPARK-47463] [SC-162840][sql] Użyj V2Predicate, aby opakować wyrażenie, które zwraca wartość logiczną
  • [SPARK-47781] [SC-162293][sql] Obsługa ujemnych przecinków skali dla źródeł danych JDBC
  • [SPARK-48394] [SC-166966][core] Usunięcie mapIdToMapIndex przy wyrejestrowaniu mapoutput
  • [SPARK-47072] [ SC-156933][sql] Poprawiono obsługiwane formaty interwałów w komunikatach o błędach
  • [SPARK-47001] [SC-162487][sql] Weryfikacja wypychania w optymalizatorze
  • [SPARK-48335] [SC-166387][python][CONNECT] Zgodność _parse_datatype_string z programem Spark Connect
  • [SPARK-48329] [SC-166518][sql] Włącz spark.sql.sources.v2.bucketing.pushPartValues.enabled domyślnie
  • [SPARK-48412] [SC-166898][python] Refaktoryzacja parsowania typu danych JSON
  • [SPARK-48215] [SC-166781][sql] Rozszerzanie obsługi ciągów sortowania w wyrażeniu date_format
  • [SPARK-45009] [ SC-166873][sql][FOLLOW UP] Dodawanie klasy błędów i testów podzapytania predykatu w warunku sprzężenia, które odwołują się do obu elementów podrzędnych sprzężenia podrzędnego
  • [SPARK-47960] [SC-165295][ss][15.x] Zezwalaj na tworzenie łańcuchów innych operatorów stanowych po operatorze transformWithState.
  • [SPARK-48340] [SC-166468][python] Obsługa TimestampNTZ podczas inferowania schematu, preferując prefer_timestamp_ntz
  • [SPARK-48157] [SC-165902][sql] Dodano obsługę sortowania dla wyrażeń CSV
  • [SPARK-48158] [SC-165652][sql] Dodano obsługę sortowania dla wyrażeń XML
  • [SPARK-48160] [SC-166064][sql] Dodano obsługę sortowania dla wyrażeń XPATH
  • [SPARK-48229] [SC-165901][sql] Dodano obsługę sortowania dla wyrażeń inputFile
  • [SPARK-48367] [SC-166487][connect] Poprawka lint-scala dla scalafmt w celu wykrywania plików do poprawnego formatowania
  • [SPARK-47858] [SC-163095][spark-47852][PYTHON][sql] Refaktoryzacja struktury kontekstu błędów DataFrame
  • [SPARK-48370] [ SC-166787][połączenie] Checkpoint i lokalny Checkpoint w kliencie Scala Spark Connect
  • [SPARK-48247] [SC-166028][python] Użyj wszystkich wartości w słowniku przy wnioskowaniu schematu MapType
  • [SPARK-48395] [SC-166794][python] Poprawka StructType.treeString dotycząca typów sparametryzowanych
  • [SPARK-48393] [SC-166784][python] Przenieś grupę stałych do pyspark.util
  • [SPARK-48372] [SC-166776][spark-45716][PYTHON] Implement StructType.treeString
  • [SPARK-48258] [SC-166467][python][CONNECT] Punkt kontrolny i lokalny punkt kontrolny w Spark Connect

Zobacz konserwacyjne aktualizacje środowiska Databricks Runtime 15.4 LTS.

Środowisko systemu

  • System operacyjny: Ubuntu 22.04.4 LTS
    • Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery DBR działają na maszynach wirtualnych dostawcy usług w chmurze, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
  • Java: Zulu 8.78.0.19-CA-linux64
  • Scala: 2.12.15
  • Python: 3.11.11
  • R: 4.3.2
  • Delta Lake: 3.2.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.2
usługi przechowywania blobów Azure 12.19.1 Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) 12.14.0 backcall (przywołanie zwrotne) 0.2.0
czarny 23.3.0 kierunkowskaz 1.4 boto3 1.34.39
botocore 1.34.39 cachetools (narzędzia do zarządzania pamięcią podręczną) 5.3.3 certyfikat 2023.7.22
cffi 1.15.1 chardet 4.0.0 normalizator zestawu znaków 2.0.4
kliknięcie 8.0.4 cloudpickle (biblioteka Python do serializacji obiektów) 2.2.1 Komunikacja 0.1.2
ContourPy 1.0.5 kryptografia 41.0.3 rowerzysta 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 dekorator 5.1.1 distlib 0.3.8
punkty wejścia 0,4 Wykonywanie 0.8.3 aspekty — omówienie 1.1.1
blokada plików 3.13.4 fonttools 4.25.0 gitdb (baza danych Git) 4.0.11
GitPython 3.1.43 google-api-core 2.18.0 google-auth (autoryzacja Google) 2.31.0
google-cloud-core 2.4.1 Google Cloud Storage (usługa przechowywania danych w chmurze od Google) 2.17.0 google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) 1.5.0
Google Media z Możliwością Wznowienia 2.7.1 googleapis-common-protos 1.63.2 grpcio 1.60.0
status grpcio 1.60.0 httplib2 0.20.2 IDNA 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 Jedi 0.18.1 Jeepney 0.7.1
jmespath 0.10.0 joblib 1.2.0 jupyter_client 7.4.9
jupyter_core 5.3.0 brelok do kluczy 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
biblioteka matplotlib 3.7.2 biblioteka matplotlib-inline 0.1.6 mlflow-skinny 2.11.4
więcej itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 opakowanie 23.2
Pandas 1.5.3 parso 0.8.3 specyfikacja ścieżki 0.10.3
Patsy 0.5.3 pexpect 4.8.0 pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) 0.7.5
Poduszka 9.4.0 pip (menedżer pakietów Pythona) 23.2.1 platformdirs 3.10.0
kreślenie 5.9.0 zestaw narzędzi prompt 3.0.36 proto-plus 1.24.0
Protobuf (w skrócie od Protocol Buffers) 4.24.1 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 14.0.1
pyasn1 0.4.8 pyasn1-modules 0.2.8 pyccolo 0.0.52
pycparser 2.21 pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) 1.10.6 Pygments 2.15.1
PyGObject 3.42.1 PyJWT 2.3.0 pyodbc 4.0.39
pyparsing – biblioteka do przetwarzania tekstu w Pythonie 3.0.9 python-dateutil (biblioteka Pythona do zarządzania datami) 2.8.2 python-lsp-jsonrpc 1.1.1
pytz (biblioteka Pythona do obliczeń stref czasowych) 2022.7 PyYAML 6.0 pyzmq 23.2.0
żądania 2.31.0 RSA 4.9 s3transfer 0.10.2
scikit-learn 1.3.0 scipy (biblioteka naukowa dla Pythona) 1.11.1 urodzony na morzu 0.12.2
SecretStorage 3.3.1 setuptools 68.0.0 Sześć 1.16.0
smmap 5.0.1 sqlparse 0.5.0 ssh-import-id (narzędzie do importowania kluczy SSH) 5,11
stos danych 0.2.0 statsmodels - biblioteka do modelowania statystycznego 0.14.0 Wytrzymałość 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tornado 6.3.2
traitlety 5.7.1 moduł typing_extensions 4.10.0 tzdata 2022.1
ujson (szybka biblioteka do obsługi formatu JSON) 5.4.0 nienadzorowane uaktualnienia 0.1 urllib3 1.26.16
virtualenv 20.24.2 wadllib 1.3.6 szerokość(wcwidth) 0.2.5
wheel 0.38.4 zamek błyskawiczny 3.11.0

Zainstalowane biblioteki języka R

Biblioteki R są instalowane z wersji migawkowej CRAN Menedżera Pakietów Posit z dnia 2024-02-05: https://packagemanager.posit.co/cran/2024-02-05/.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzała 14.0.0.2 askpass 1.2.0 potwierdzić to 0.2.1
backports (wersje tylnie) 1.4.1 baza 4.3.2 base64enc 0.1-3
bigD 0.2.0 odrobina 4.0.5 bit-64 4.0.5
bitops 1.0-7 blob 1.2.4 rozruch 1.3-28
warzyć 1.0-10 Brio 1.1.4 miotła 1.0.5
bslib 0.6.1 kaszmir 1.0.8 wywoływacz 3.7.3
karetka 6.0-94 cellranger 1.1.0 Chroń 2.3-61
klasa 7.3-22 CLI 3.6.2 clipr 0.8.0
zegar 0.7.0 klaster 2.1.4 codetools 0.2-19
przestrzeń kolorów 2.1-0 commonmark 1.9.1 kompilator 4.3.2
konfiguracja 0.3.2 zdezorientowany 1.2.0 cpp11 0.4.7
kredka 1.5.2 dane logowania 2.0.1 lok 5.2.0
tabela danych 1.15.0 zbiory danych 4.3.2 DBI 1.2.1
dbplyr 2.4.0 opis 1.4.3 devtools 2.4.5
schemat 1.6.5 diffobj 0.3.5 skrót 0.6.34
downlit (wyłączony) 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 wielokropek 0.3.2 ocenić 0.23
fani 1.0.6 kolory 2.1.1 szybka mapa 1.1.1
Font Awesome 0.5.2 dla kotów 1.0.0 foreach 1.5.2
zagraniczny 0.8-85 kuźnia 0.2.0 Fs 1.6.3
przyszłość 1.33.1 wprowadź przyszłość 1.11.1 płukać gardło 1.5.2
typy ogólne 0.1.3 Gert 2.0.1 ggplot2 3.4.4
Gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globalna 0.16.2 klej 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafika 4.3.2 grDevices 4.3.2 siatka 4.3.2
gridExtra 2.3 gsubfn 0,7 Gt 0.10.1
gtabela 0.3.4 hełm ochronny 1.3.1 przystań 2.5.4
wyższy 0.10 HMS 1.1.3 htmltools – narzędzie do tworzenia stron internetowych 0.5.7
widżety HTML 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 Numery identyfikacyjne 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 Obiekty iterujące 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 soczysty sok 0.1.0
KernSmooth 2.23-21 knitr (narzędzie do generowania dynamicznych raportów w R) 1,45 Etykietowanie 0.4.3
później 1.3.2 krata 0.21-8 lawa 1.7.3
cykl życia 1.0.4 nasłuchiwanie 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Markdown 1.12 MASA 7.3-60
Macierz 1.5-4.1 zapamiętywanie 2.0.1 metody 4.3.2
mgcv 1.8-42 mim 0,12 miniUI (interfejs użytkownika) 0.1.1.1
mlflow 2.10.0 Metryki modelu 1.2.2.2 modeler 0.1.11
munsell 0.5.0 nlme 3.1-163 sieć neuronowa (nnet) 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 równoległy 4.3.2
równolegle 1.36.0 filar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 pochwała 1.0.0
prettyunits 1.2.0 Proc 1.18.5 Procesx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 Postęp 1.2.3
progressr 0.14.0 Obietnice 1.2.1 Proto 1.0.0
serwer proxy 0.4-27 Post Scriptum 1.7.6 mruczenie 1.0.2
R6 2.5.1 ragg 1.2.7 "randomForest" 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 reaktywny 0.4.4
ReactR 0.5.0 czytnik 2.1.5 readxl (biblioteka do odczytu plików Excel) 1.4.3
przepisy 1.0.9 rewanż 2.0.0 rematch 2 2.1.2
Urządzenia zdalnego sterowania 2.4.2.1 przykład do odtworzenia (reprex) 2.1.0 zmień kształt2 1.4.4
rlang 1.1.3 rmarkdown (narzędzie do tworzenia dokumentów w R) 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions (rversions) 2.1.2 rvest 1.0.3 Sass 0.4.8
waga 1.3.0 selektor 0.4-2 informacje o sesji 1.2.2
kształt 1.4.6 błyszczący 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 przestrzenny 7.3-15 Splajny 4.3.2
sqldf 0.4-11 KWADRAT 2021.1 Statystyki 4.3.2
statystyki4 4.3.2 łańcuchy 1.8.3 stringr 1.5.1
przetrwanie 3.5-5 pewność siebie 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
kształtowanie tekstu 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 zmiana czasu 0.3.0
czasData 4032.109 tinytex 0,49 narzędzia 4.3.2
Baza Danych Stref Czasowych (tzdb) 0.4.0 sprawdzacz URL 1.0.1 użyj tego 2.2.2
utf8 1.2.4 programy narzędziowe 4.3.2 UUID (Uniwersalnie Unikalny Identyfikator) 1.2-0
Wersja 8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
Vroom 1.6.5 Waldo 0.5.2 wibrys 0.4.1
Withr 3.0.0 xfun 0.41 xml2 1.3.6
xopen 1.0.0 Xtable 1.8-4 yaml 2.3.8
zapał 0.1.0 zamek 2.3.1

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws Klient Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-automatyczne-skalowanie 1.12.610
com.amazonaws aws-java-sdk-cloudformation 1.12.610
com.amazonaws aws-java-sdk-cloudfront 1.12.610
com.amazonaws aws-java-sdk-cloudhsm (biblioteka do obsługi usług CloudHSM) 1.12.610
com.amazonaws aws-java-sdk-cloudsearch 1.12.610
com.amazonaws aws-java-sdk-cloudtrail 1.12.610
com.amazonaws aws-java-sdk-cloudwatch 1.12.610
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.610
com.amazonaws aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) 1.12.610
com.amazonaws aws-java-sdk-cognitoidentity 1.12.610
com.amazonaws aws-java-sdk-cognitosync 1.12.610
com.amazonaws aws-java-sdk-config (konfiguracja aws-java-sdk) 1.12.610
com.amazonaws aws-java-sdk-core 1.12.610
com.amazonaws aws-java-sdk-datapipeline 1.12.610
com.amazonaws aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) 1.12.610
com.amazonaws aws-java-sdk-directory 1.12.610
com.amazonaws aws-java-sdk-dynamodb 1.12.610
com.amazonaws aws-java-sdk-ec2 1.12.610
com.amazonaws aws-java-sdk-ecs 1.12.610
com.amazonaws aws-java-sdk-efs 1.12.610
com.amazonaws aws-java-sdk-elasticache 1.12.610
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.610
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.610
com.amazonaws aws-java-sdk-elastictranscoder 1.12.610
com.amazonaws aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) 1.12.610
com.amazonaws AWS Java SDK dla Glacier 1.12.610
com.amazonaws aws-java-sdk-klej 1.12.610
com.amazonaws aws-java-sdk-iam 1.12.610
com.amazonaws AWS-Java-SDK-ImportExport 1.12.610
com.amazonaws AWS SDK dla Javy - Kinesis 1.12.610
com.amazonaws aws-java-sdk-kms 1.12.610
com.amazonaws aws-java-sdk-lambda 1.12.610
com.amazonaws aws-java-sdk-logs 1.12.610
com.amazonaws aws-java-sdk-uczenie-maszynowe 1.12.610
com.amazonaws aws-java-sdk-opsworks 1.12.610
com.amazonaws aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) 1.12.610
com.amazonaws aws-java-sdk-redshift 1.12.610
com.amazonaws aws-java-sdk-route53 1.12.610
com.amazonaws aws-java-sdk-s3 1.12.610
com.amazonaws aws-java-sdk-ses 1.12.610
com.amazonaws aws-java-sdk-simpledb 1.12.610
com.amazonaws aws-java-sdk-simpleworkflow 1.12.610
com.amazonaws aws-java-sdk-sns 1.12.610
com.amazonaws aws-java-sdk-sqs 1.12.610
com.amazonaws aws-java-sdk-ssm 1.12.610
com.amazonaws aws-java-sdk-storagegateway 1.12.610
com.amazonaws aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) 1.12.610
com.amazonaws wsparcie dla aws-java-sdk 1.12.610
com.amazonaws aws-java-sdk-swf-biblioteki 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.610
com.amazonaws jmespath-java 1.12.610
com.clearspring.analytics odtwarzać strumieniowo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core Adnotacje Jackson 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat Jackson-format-danych-CBOR 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofeina kofeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1-rodzimi
com.github.fommil.netlib natywny_system java 1.1
com.github.fommil.netlib natywny_system java 1.1-rodzimi
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-rodzimi
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-rodzimi
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone komentarze podatne na błędy 2.10.0
com.google.flatbuffers flatbuffers-java 26.05.23
com.google.guava owoc guawy 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.WYDANIE
com.lihaoyi kodźródłowy_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (biblioteka do kompresji danych) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses soczewki_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfiguracja 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
Zbiory Commons Zbiory Commons 3.2.2
commons-dbcp commons-dbcp 1.4
wspólne przesyłanie plików wspólne przesyłanie plików 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift sprężarka powietrza 0.25
io.delta delta-sharing-client_2.12 1.1.1
io.dropwizard.metrics adnotacja metryk 4.2.19
io.dropwizard.metrics metryki —rdzeń 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metryki-kontrole zdrowia 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metryki w formacie JSON 4.2.19
io.dropwizard.metrics metryki-JVM 4.2.19
io.dropwizard.metrics serwlety metryczne 4.2.19
io.netty netty-all 4.1.96.Final
io.netty Netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common (element wspólny) 4.1.96.Final
io.netty "netty-handler" 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty rozwiązywacz netty 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty Klasy netty-tcnative 2.0.61.Final
io.netty transport Netty 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx moduł zbierający 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
\ jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction interfejs programistyczny transakcji 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine kiszony ogórek 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake SDK do pobierania danych Snowflake 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc (niedostępne w lokalnym języku) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr Szablon łańcucha 3.2.1
org.apache.ant mrówka 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant program uruchamiający Ant 1.10.11
org.apache.arrow format strzałki 15.0.0
org.apache.arrow strzałka-pamięć-rdzeń 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow wektor strzałki 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons tekst wspólny 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-pamięć 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop środowisko uruchomieniowe klienta Hadoop 3.3.6
org.apache.hive hive-beeline (narzędzie do interakcji z bazą danych Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive Klient hive-llap 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api (interfejs do przechowywania danych hive) 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims harmonogram osłon/imitacji ula 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy bluszcz 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j szablon układu log4j w formacie JSON 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc podkładki orc-shim 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-cieniowane 4.23
org.apache.yetus adnotacje dla widowni 0.13.0
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. opiekun zwierząt 3.6.3
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. tryb Jute dla Zookeepera 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapujący-ASL 1.9.13
org.codehaus.janino commons-kompilator 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections kolekcje eclipse 11.1.0
org.eclipse.collections API kolekcji Eclipse 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-kontynuacja 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-plus 9.4.52.v20230823
org.eclipse.jetty serwer pośredniczący Jetty 9.4.52.v20230823
org.eclipse.jetty moduł bezpieczeństwa Jetty 9.4.52.v20230823
org.eclipse.jetty serwer Jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-aplikacja internetowa 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-klient 9.4.52.v20230823
org.eclipse.jetty.websocket websocket —wspólne 9.4.52.v20230823
org.eclipse.jetty.websocket serwer websocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-lokalizator-zasobów 1.0.3
org.glassfish.hk2.external aopalliance-zapakowane ponownie 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers serwlet kontenerowy Jersey 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core dzianina-zwykła 2.40
org.glassfish.jersey.core serwer jersey 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap Podkładki regulacyjne 0.9.45-databricks
org.rocksdb rocksdbjni 8.11.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest zgodny ze standardem scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten ThreeTen Extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.2-linux-x86_64
oprogramowanie.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1