Udostępnij za pośrednictwem


Databricks Runtime 16.1 (EoS)

Uwaga / Notatka

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby zapoznać się z datą zakończenia wsparcia, zobacz End-of-support and end-of-life history (Koniec wsparcia technicznego i historia zakończenia życia). Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 16.1 obsługiwanym przez platformę Apache Spark 3.5.0.

Usługa Databricks wydała tę wersję w grudniu 2024 r.

Zmiany zachowania

ważna zmiana: Obsługa wyrażeń regularnych w Photon jest teraz zgodna z platformą Apache Spark

W środowisku Databricks Runtime 15.4 lub nowszym obsługa wyrażeń regularnych w aplikacji Photon jest aktualizowana w celu dopasowania do zachowania obsługi wyrażeń regularnych platformy Apache Spark. Wcześniej funkcje wyrażeń regularnych uruchamiane przez aplikację Photon, takie jak split() i regexp_extract(), zaakceptowały niektóre wyrażenia regularne odrzucone przez analizator Spark. Aby zachować spójność z platformą Apache Spark, zapytania Photon nie będą teraz działać w przypadku wyrażeń regularnych, które platforma Spark uważa za nieprawidłowe.

Ze względu na tę zmianę możesz zobaczyć błędy, jeśli kod platformy Spark zawiera nieprawidłowe wyrażenia regularne. Na przykład, wyrażenie split(str_col, '{'), które zawiera niepasujący nawias i zostało wcześniej zaakceptowane przez Photon, teraz kończy się niepowodzeniem. Aby naprawić to wyrażenie, możesz użyć znaku escape przed nawiasem klamrowym: split(str_col, '\\{').

Zachowanie Photona i Sparka różniło się również w dopasowywaniu wyrażeń regularnych do znaków spoza ASCII. Jest to również aktualizowane, aby aplikacja Photon odpowiadała zachowaniu platformy Apache Spark.

Typ danych VARIANT nie może być już używany z operacjami, które wymagają porównań

W środowisku Databricks Runtime 16.1 lub nowszym nie można używać następujących klauzul ani operatorów w zapytaniach zawierających typ danych VARIANT:

  • DISTINCT
  • INTERSECT
  • EXCEPT
  • UNION
  • DISTRIBUTE BY

Ponadto nie można używać tych funkcji ramki danych:

  • df.dropDuplicates()
  • df.repartition()

Te operacje wykonują porównania, a porównania korzystające z typu danych VARIANT generują niezdefiniowane wyniki i nie są obsługiwane w usłudze Databricks. Jeśli używasz typu VARIANT w obciążeniach lub tabelach Azure Databricks, usługa Databricks zaleca następujące zmiany:

  • Zaktualizuj zapytania lub wyrażenia, aby jawnie rzutować wartości VARIANT na typy danych inne niż VARIANT.
  • Jeśli masz pola, które muszą być używane z dowolną z powyższych operacji, wyodrębnij te pola z VARIANT typu danych i zapisz je przy użyciu typów danych innych niżVARIANT.

Aby dowiedzieć się więcej, zobacz Dane wariantu zapytania.

Nowe funkcje i ulepszenia

Aktualizacja łącznika BigQuery

  • Łącznik Google BigQuery został uaktualniony do korzystania z wersji 0.41.0 łącznika Spark-BigQuery open source.

  • Łącznik Google BigQuery dla federacji Lakehouse używa teraz interfejsu API Storage BigQuery zamiast sterownika JDBC. Ta migracja rozwiązuje problemy z wydajnością sterownika JDBC i opiera się na łączniku Spark-BigQuery open source.

    Dzięki tej zmianie wyniki zapytania pośredniego dla widoków BigQuery i tabel zewnętrznych muszą być zapisywane w tabelach tymczasowych. Te obiekty nie są przechowywane bezpośrednio w magazynie BigQuery. Tabele tymczasowe będą przechowywane w projekcie rozliczeniowym BigQuery. Sprawdź, czy odpowiednie uprawnienia są ustawione na kontach usługi BigQuery. Aby uzyskać szczegółowe informacje, zobacz Uruchamianie zapytań federacyjnych w usłudze Google BigQuery.

Obsługa sortowania na platformie Apache Spark jest dostępna w publicznej wersji zapoznawczej

Możesz teraz przypisywać sortowania uwzględniające język, niewrażliwe na wielkość liter i niewrażliwe na dostęp do kolumn i wyrażeń STRING. Te sortowania są używane w porównaniach ciągów, sortowaniu, operacjach grupowania i wielu funkcjach ciągów. Zobacz Kolażowanie.

Obsługa sortowania w usłudze Delta Lake jest dostępna w publicznej wersji zapoznawczej

Teraz można definiować sortowania dla kolumn podczas tworzenia lub zmieniania tabeli delty. Zobacz Obsługa sortowania dla Delta Lake.

Tryb LITE dla próżni jest w wersji publicznej.

Teraz można użyć VACUUM table_name LITE do wykonania mniej zasobożernej operacji odkurzania, która wykorzystuje metadane w dzienniku transakcji Delta. Zobacz Tryb pełny kontra tryb lite i VACUUM.

Obsługa parametryzacji klauzuli USE CATALOG with IDENTIFIER

W środowisku Databricks Runtime 16.1 lub nowszym, klauzula IDENTIFIER jest obsługiwana w instrukcji USE CATALOG. Dzięki tej obsłudze można sparametryzować bieżący wykaz na podstawie zmiennej ciągu lub znacznika parametru.

obsługa tabel i widoków COMMENT ONCOLUMN

W środowisku Databricks Runtime 16.1 lub nowszym instrukcja COMMENT ON obsługuje zmienianie komentarzy dla kolumn widoków i tabel.

Nowe funkcje SQL

W środowisku Databricks Runtime 16.1 lub nowszym dostępne są następujące nowe wbudowane funkcje SQL:

  • dayname(expr) zwraca trzyliterowy angielski akronim dnia tygodnia dla danej daty.
  • uniform(expr1, expr2 [,seed]) zwraca wartość losową z niezależnymi i identycznymi wartościami rozproszonymi w określonym zakresie liczb.
  • randstr(length) zwraca losowy ciąg znaków alfanumerycznych length.

Wywołanie nazwanego parametru dla większej liczby funkcji

W środowisku Databricks Runtime 16.1 lub nowszym następujące funkcje obsługują wywoływanie parametrów nazwanych:

Parametr SYNC METADATA polecenia REPAIR TABLE jest obsługiwany w magazynie metadanych Hive

W środowisku Databricks Runtime 16.1 lub nowszym można użyć parametru SYNC METADATA za pomocą polecenia REPAIR TABLE, aby zaktualizować metadane zarządzanej tabeli magazynu metadanych Hive. Zobacz: REPAIR TABLE.

Rozszerzona integralność danych dla skompresowanych partii Apache Arrow

W środowisku Databricks Runtime 16.1 lub nowszym, każda LZ4 skompresowana partia Apache Arrow zawiera teraz zawartość LZ4 i sumy kontrolne bloku, dla dodatkowej ochrony przed uszkodzeniem danych. Zobacz opis formatu ramek LZ4.

Obsługa dodana dla metod Scala w standardowym trybie dostępu obliczeniowego Unity Catalog (dawniej we współdzielonym trybie dostępu)

W środowisku Databricks Runtime 16.1 lub nowszym, w standardowym trybie dostępu katalogu Unity na komputerach, dodano obsługę dla następujących metod Scala: Dataset.flatMapGroups(), Dataset.mapGroups()i DataStreamWriter.foreach().

Wbudowany sterownik JDBC Teradata

W środowisku Databricks Runtime 16.1 lub nowszym sterownik Teradata JDBC jest wbudowany w Azure Databricks. Jeśli używasz pliku JAR sterownika JDBC przekazanego przez klienta za pośrednictwem DriverManager, musisz ponownie napisać skrypty, aby jawnie użyć niestandardowego pliku JAR. W przeciwnym razie jest używany wbudowany sterownik. Ten sterownik obsługuje jedynie federację Lakehouse. W innych przypadkach użycia musisz dostarczyć własny sterownik.

Obsługa elementu StreamingQueryListener dla języka Scala

Teraz można używać StreamingQueryListener w Scala na instancjach obliczeniowych skonfigurowanych w standardowym trybie dostępu.

Wbudowany sterownik Oracle JDBC

W środowisku Databricks Runtime 16.1 lub nowszym sterownik Oracle JDBC jest wbudowany w Azure Databricks. Jeśli używasz pliku JAR sterownika JDBC przekazanego przez klienta za pośrednictwem DriverManager, musisz ponownie napisać skrypty, aby jawnie użyć niestandardowego pliku JAR. W przeciwnym razie jest używany wbudowany sterownik. Ten sterownik obsługuje jedynie federację Lakehouse. W innych przypadkach użycia musisz dostarczyć własny sterownik.

Bardziej szczegółowe błędy dla tabel Delta dostępnych przy użyciu ścieżek

Teraz dostępne jest nowe doświadczenie komunikatów o błędach dla tabel Delta, do których uzyskuje się dostęp przy użyciu ścieżek. Wszystkie wyjątki są teraz przekazywane do użytkownika. Wyjątek DELTA_MISSING_DELTA_TABLE jest teraz zarezerwowany, gdy nie można odczytać podstawowych plików jako tabeli delty.

Inne zmiany

Zmieniono nazwy kodów błędów dla źródła przesyłania strumieniowego ze strukturą cloudFiles

Ta wersja zawiera zmianę nazwy następujących kodów błędów:

  • _LEGACY_ERROR_TEMP_DBR_0143 zmieniono nazwę na CF_INCORRECT_STREAM_USAGE.
  • _LEGACY_ERROR_TEMP_DBR_0260 zmieniono nazwę na CF_INCORRECT_BATCH_USAGE .

Poprawki błędów

Zagnieżdżone typy teraz prawidłowo akceptują ograniczenia o wartości NULL

W tej wersji naprawiono usterkę wpływającą na niektóre kolumny generowane przez Delta dla typów zagnieżdżonych, na przykład STRUCT. Te kolumny czasami niepoprawnie odrzucają wyrażenia w oparciu o ograniczenia NULL lub NOT NULL zagnieżdżonych pól. To zostało naprawione.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki Python:
    • Aktualizacja ipyflow-core z wersji 0.0.198 do 0.0.201
    • pyccolo od 0.0.52 do 0.0.65
  • Uaktualnione biblioteki języka R:
  • Uaktualnione biblioteki Java:
    • io.delta.delta-sharing-client_2.12 z wersji 1.2.1 do 1.2.2
    • org.lz4.lz4-java od 1.8.0 do 1.8.0-databricks-1
    • software.amazon.cryptools.AmazonCorrettoCryptoProvider z wersji 1.6.2-linux-x86_64 do wersji 2.4.1-linux-x86_64

Apache Spark

Środowisko Databricks Runtime 16.1 obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 16.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-50482] [SC-182879][core] Przestarzała konfiguracja no-op spark.shuffle.spill
  • [SPARK-50032] [SC-182706][sql][16.x] Zezwalaj na używanie w pełni kwalifikowanej nazwy sortowania
  • [SPARK-50467] [SC-182823][python] Dodawanie __all__ dla wbudowanych funkcji
  • [SPARK-48898] [SC-182828][sql] Naprawiono usterkę rozdrabniania wariantu
  • [SPARK-50441] [SC-182668][sql] Naprawa parametryzowanych identyfikatorów, które nie działają podczas odwoływania się do CTE.
  • [SPARK-50446] [SC-182639][python] Poziom współbieżności w zoptymalizowanym dla Arrow Python UDF
  • [SPARK-50430] [SC-182536][core] Użyj standardowego Properties.clone zamiast klonowania ręcznego
  • [SPARK-50471] [SC-182790][python] Obsługa modułu zapisywania źródła danych opartego na strzałkach Python
  • [SPARK-50466] [SC-182791][python] Uściślij docstring dotyczący funkcji ciągowych — część 1
  • [SPARK-50194] [DBR16.x][sc-182593][SS][python] Integracja nowego interfejsu API czasomierza i interfejsu API stanu początkowego z czasomierzem
  • [SPARK-50437] [SC-182586][ss] Zmniejszenie obciążenia związanego z tworzeniem deserializatorów w TransformWithStateExec
  • [SPARK-49676] [DBR16.x][sc-182538][SS][python] Dodano obsługę tworzenia łańcuchów o...
  • [SPARK-49294] [SC-182730][ui] Dodaj atrybut szerokości dla pola wyboru shuffle-write-time.
  • [SPARK-50426] [SC-182540][python] Unikaj wyszukiwania źródła danych statycznych Python podczas korzystania z wbudowanych lub Java źródeł danych
  • [SPARK-48356] [SC-182603][sql] Obsługa instrukcji FOR
  • [SPARK-50333] [SC-182136][sql] Obsługa programu Codegen dla CsvToStructs (wywoływanie & RuntimeReplaceable)
  • [SPARK-50285] [SC-182575] Metryki dla zatwierdzeń w instancjach StagedTable
  • [SPARK-50081] [SC-182344][sql] Obsługa generowania kodu dla XPath*(wywoływana przez & RuntimeReplaceable)
  • [SPARK-50440] [SC-182592] [SQL] Refaktoryzacja funkcji AttributeSeq.resolveCandidates
  • [SPARK-50067] [SC-179648][sql] Obsługa generowania kodu dla schemaOfCsv(przez wywołanie & RuntimeReplaceable)
  • [SPARK-49873] [SC-178577][sql] poprawa błędu po scaleniu podczas testowania błędów
  • [SPARK-50118] [SC-181259][connect] Resetowanie izolowanej pamięci podręcznej stanu, gdy zadania są uruchomione
  • [SPARK-49873] [SC-178577][sql] Przypisz właściwą klasę błędów dla _LEGACY_ERROR_TEMP_1325
  • [SPARK-50381] [SC-182197][core] Wsparcie spark.master.rest.maxThreads
  • [SPARK-46725] [SC-182448][sql] Dodaj funkcję DAYNAME
  • [SPARK-50270] [SC-181179][ss][PYTHON] Dodano niestandardowe metryki stanu dla elementu TransformWithStateInPandas
  • [SPARK-50118] przywróć "[SC-181259][connet] Resetowanie izolowanej pamięci podręcznej stanu podczas uruchamiania zadań"
  • [SPARK-50075] [SC-181820][sql][PYTHON][connect] Dodawanie interfejsów API DataFrame dla funkcji zwracających tabele
  • [SPARK-49470] [SC-175736][ui] Zaktualizuj arkusze stylów i skrypty JavaScript dataTables z wersji 1.13.5 do 1.13.11
  • [SPARK-50235] przywróć "[SC-180786][sql] Wyczyść zasób ColumnVector po przetworzeniu wszystkich wierszy w ColumnarToRowExec"
  • [SPARK-50324] [SC-182278][python][CONNECT] Spowoduj, że createDataFrame wywoła Config RPC co najwyżej raz
  • [SPARK-50387] [SC-182441][ss] Aktualizacja warunku wygaśnięcia czasomierza i odpowiedniego testu
  • [SPARK-50287] [SC-182400][sql] Łączenie opcji tabeli i relacji przy tworzeniu WriteBuilder w FileTable
  • [SPARK-50066] [SC-181484][sql] Obsługa generowania kodu dla SchemaOfXml (przez wywołanie & RuntimeReplaceable)
  • [SPARK-50092] [SC-181568][sql] Poprawka zachowania łącznika PostgreSQL dla tablic wielowymiarowych
  • [SPARK-50318] [SC-181641][sql] Dodaj IntervalUtils.makeYearMonthInterval w celu deduplikacji kodu między interpretacją a generacją kodu
  • [SPARK-50312] [SC-181646][sql] Błąd przekazywania parametru createServer w SparkThriftServer, gdy kerberos jest ustawiony na true
  • [SPARK-50246] [SC-181468][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2167: INVALID_JSON_RECORD_TYPE
  • [SPARK-50214] [SC-180692][sql] Z formatu json/xml nie należy zmieniać sortowania w danym schemacie
  • [SPARK-50250] [SC-181466][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2075: UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE
  • [SPARK-50248] [SC-181467][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2058: INVALID_PARTITION_VALUE
  • [SPARK-50118] [SC-181259][connect] Resetowanie izolowanej pamięci podręcznej stanu, gdy zadania są uruchomione
  • [SPARK-50235] [SC-180786][sql] Czyszczenie zasobu typu ColumnVector po przetworzeniu wszystkich wierszy w ColumnarToRowExec
  • [SPARK-50156] [SC-180781][sql] Integracja _LEGACY_ERROR_TEMP_2113 z UNRECOGNIZED_STATISTIC
  • [SPARK-50069] [SC-180163][sql] Integracja _LEGACY_ERROR_TEMP_0028 z UNSUPPORTED_FROM_TO_EXPRESSION
  • [SPARK-50154] [SC-180663][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_0043: INVALID_RESET_COMMAND_FORMAT
  • [SPARK-49967] [SC-179534][sql] Obsługa codegen dla StructsToJson(to_json)
  • [SPARK-50055] [SC-180978][sql] Dodaj alternatywę TryMakeInterval
  • [SPARK-50397] [SC-182367][core] Usuń przestarzałe argumenty --ip i -i z Master/Worker
  • [SPARK-50238] [SC-181434][python] Dodanie obsługi wariantów w funkcjach UDF/UDTF/UDAF PySpark i UC UDF Python
  • [SPARK-50079] [SC-179830][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2013: NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION
  • [SPARK-50182] [SC-180346][przykład] Dodawanie przykładu interfejsu API REST submit-sql.sh
  • [SPARK-49966] [SC-179501][sql] Używanie Invoke do implementowania JsonToStructs(from_json)
  • [SPARK-50302] [SC-182518][ss] Upewnij się, że pomocnicze rozmiary indeksów są równe rozmiarom indeksu podstawowego dla zmiennych stanowych TransformWithState z TTL
  • [SPARK-50301] [SC-182241][ss][16.x] Spraw, aby metryki TransformWithState odzwierciedlały ich intuicyjne znaczenie
  • [SPARK-50175] [SC-182140][sql] Obliczenie pierwszeństwa sortowania zmian
  • [SPARK-50148] [SC-180292][sql] Dostosuj StaticInvoke zgodnie z metodą, która deklaruje rzucenie wyjątku
  • [SPARK-50280] [SC-181214][python] Sortowanie wyników refaktoryzacji i wypełnianie pustych pojemników compute_hist
  • [SPARK-50190] [SC-182458][python] Usuń bezpośrednią zależność biblioteki Numpy z histogramu
  • [SPARK-50382] [SC-182368][connect] Dodaj dokumentację, aby uzyskać ogólne informacje na temat tworzenia aplikacji za pomocą/rozszerzania programu Spark Connect
  • [SPARK-50296] [SC-181464][python][CONNECT] Unikaj używania właściwości klasy w puli wątków dla connectora Python Connect
  • [SPARK-49566] [SC-182239][sql] Dodawanie składni potoku SQL dla operatora EXTEND
  • [SPARK-50036] [SC-179533][core][PYTHON] Uwzględnij SPARK_LOG_SCHEMA w kontekście powłoki REPL
  • [SPARK-49859] [SC-178259][connect] Zastąp multiprocessing.ThreadPool na ThreadPoolExecutor
  • [SPARK-50141] [SC-182378][python] Powodować, że lpad i rpad będą akceptować argumenty typu kolumny
  • [SPARK-50379] [SC-182142][sql] Poprawka obsługi DayTimeIntervalType w WindowExecBase
  • [SPARK-49954] [SC-179110][sql] Obsługa codegen dla SchemaOfJson ("Invoke" & "RuntimeReplaceable")
  • [SPARK-50398] [SC-182341][core] Użyj ExitCode 0 dla --help w skryptach Spark
  • [SPARK-50377] [SC-182238][sql] Umożliwienie oceny składanych elementów typu RuntimeReplaceable
  • pl-PL: [SPARK-50241] [SC-181444][sql] Zastąp NullIntolerant Mixin z metodą Expression.nullIntolerant
  • [SPARK-50084] [SC-179672][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_3168: MISSING_TIMEOUT_CONFIGURATION
  • [SPARK-50078] [SC-179649][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_0038: DUPLICATED_CTE_NAMES
  • [SPARK-50057] [SC-179573][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_1049: INVALID_ATTRIBUTE_NAME_SYNTAX
  • [SPARK-50070] [SC-179579][sql] Integracja _LEGACY_ERROR_TEMP_0039 z UNSUPPORTED_SQL_STATEMENT
  • [SPARK-50378] [SC-182235][ss] Dodaj niestandardową metrykę do śledzenia zużycia dla początkowego stanu przetwarzania w transformWithState
  • [SPARK-50029] [SC-179531][sql] Ustaw StaticInvoke zgodne z metodą zwracającą Any
  • [SPARK-49990] [SC-179497][sql] Zwiększanie wydajności randStr
  • [SPARK-50048] [SC-179528][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2114: UNRECOGNIZED_STATISTIC
  • [SPARK-50053] [SC-179532][sql] Przekształcanie _LEGACY_ERROR_TEMP_2104 w INTERNAL_ERROR
  • [SPARK-49665] [SC-180054][sql] Obsługa przycinania z uwzględnieniem sortowania dla funkcji ciągów
  • [SPARK-48549] [SC-176472][sql][PYTHON] Poprawa funkcji SQL sentences
  • [SPARK-50022] [SC-179503][core][UI] Poprawka MasterPage, aby ukryć odnośniki aplikacji w interfejsie użytkownika, gdy interfejs użytkownika jest wyłączony
  • [SPARK-50087] [SC-182152] Niezawodna obsługa wyrażeń logicznych w CASE WHEN dla MsSqlServer oraz przyszłych łączników
  • [SPARK-49991] [SC-179481][sql] Spraw, aby HadoopMapReduceCommitProtocol respektował 'mapreduce.output.basename' w celu generowania nazw plików
  • [SPARK-50038] [SC-179521][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_0008: MERGE_WITHOUT_WHEN
  • [SPARK-50236] [SC-181671][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_1156: COLUMN_NOT_DEFINED_IN_TABLE
  • [SPARK-50021] [SC-179500][core][UI] Poprawka ApplicationPage, aby ukryć linki UI aplikacji, gdy interfejs użytkownika jest wyłączony
  • [SPARK-49911] [SC-179111][sql] Poprawka semantyki obsługi równości binarnej
  • [SPARK-50025] [SC-179496][sql] Integrowanie _LEGACY_ERROR_TEMP_1253 z EXPECT_VIEW_NOT_TABLE
  • [SPARK-49829] [SC-179480][ss] Napraw błąd związany z optymalizacją podczas dodawania danych wejściowych do stanowego magazynu danych w sprzężeniu strumień-strumień
  • [SPARK-50004] [SC-179499][sql] Integracja _LEGACY_ERROR_TEMP_3327 z FIELD_NOT_FOUND
  • [SPARK-50380] [SC-182210][sql] ReorderAssociativeOperator powinien przestrzegać kontraktu w ConstantFolding
  • [SPARK-50340] [SC-181859][sql] Rozpakuj UDT w zapytaniu wejściowym INSERT
  • [SPARK-50237] [SC-181660][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2138-9: CIRCULAR_CLASS_REFERENCE
  • [SPARK-50258] [SC-181993][sql] Rozwiązano problem z zmianą kolejności kolumn wyjściowych po optymalizacji AQE
  • [SPARK-49773] [SC-178369][sql] Nieprzechwycony wyjątek Java z make_timestamp() z nieprawidłową strefą czasową
  • [SPARK-49977] [SC-179265][sql] Użyj iteracyjnych obliczeń opartych na stosie, aby uniknąć tworzenia wielu obiektów listy Scala dla drzew wyrażeń głębokich
  • [SPARK-50153] [SC-181591][sql] Dodaj name do RuleExecutor aby ułatwić czytelność dzienników QueryExecutionMetrics podczas drukowania
  • [SPARK-50320] [SC-181668][core] Ustaw --remote oficjalną opcję, usuwając ostrzeżenie experimental
  • [SPARK-49909] [SC-179492]Przywróć "[SQL] Popraw ładną nazwę niektórych wyrażeń"
  • [SPARK-50330] [SC-180720][sc-181764][SQL] Dodawanie wskazówek do węzłów Sort i Window
  • [SPARK-50364] [SC-182003][sql] Implementowanie serializacji dla typu LocalDateTime w pliku Row.jsonValue
  • [SPARK-50016] [SC-182139][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_2067: UNSUPPORTED_PARTITION_TRANSFORM
  • [SPARK-49899] [SC-181175][python][SS] Obsługa deleteIfExists dla TransformWithStateInPandas
  • [SPARK-49757] [SC-177824][sql] Obsługa wyrażenia IDENTIFIER w instrukcji SETCATALOG
  • [SPARK-50315] [SC-181886][sql] Obsługa metryk niestandardowych dla zapisów V1Fallback
  • [SPARK-42838] [SC-181509][sql] Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_2000
  • [SPARK-50353] [SC-181985][sql] Refactor ResolveSQLOnFile
  • [SPARK-48344] [SC-181967][sql] Przygotowanie skryptów SQL do dodania ramy wykonawczej
  • [SPARK-49345] [SC-174786][connect] Upewnij się, że używasz bieżącej sesji Spark
  • [SPARK-49925] [SC-178882][sql] Dodaj testy dla 'order by' z porównywanymi ciągami
  • [SPARK-50167] [SC-181199][python][CONNECT] Ulepsz komunikaty o błędach i importy PySpark
  • [SPARK-49368] [SC-174999][connect] Należy unikać bezpośredniego dostępu do klas protobuf lite
  • [SPARK-50056] [SC-181378][sql] Obsługa generowania kodu dla ParseUrl (wywoływanie & RuntimeReplaceable)
  • [SPARK-49601] [SC-180770][ss][PYTHON] Obsługa początkowego stanu danych dla transformWithStateInPandas
  • [SPARK-49908] [SC-178768][sql] Przypisz prawidłowy warunek błędu dla _LEGACY_ERROR_TEMP_0044
  • [SPARK-50144] [SC-180307][ss] Rozwiązywanie problemów z ograniczeniami obliczeń metryk przy użyciu źródeł przesyłania strumieniowego DSv1
  • [SPARK-49874] [SC-178303][sql] Usuń specyfikatory sortowania trim i ltrim.
  • [SPARK-49513] [SC-180339][ss] Dodanie wsparcia dla czasomierza w interfejsie API transformWithStateInPandas
  • [SPARK-49119] [SC-175607][sql] Naprawiono niespójność składni show columns między wersjami 1 i v2
  • [SPARK-49206] [SC-173704][core][UI] Dodaj tabelę Environment Variables do Master EnvironmentPage
  • [SPARK-49934] [SC-179581][sql] Dodanie niejawnego rzutowania dla dostępu do sortowanej mapy za pomocą literału
  • [SPARK-50049] [SC-181659][sql] Obsługa niestandardowych metryk sterowników przy zapisie do tabeli w wersji 2
  • [SPARK-50171] [SC-180295][python] Ustaw narzędzie numpy jako opcjonalne dla wykresu KDE
  • [SPARK-49962] [SC-179320][sql] Uproszczenie hierarchii klas AbstractStringTypes
  • [SPARK-50226] [SC-181483][sql] Poprawić MakeDTInterval i MakeYMInterval w celu wychwycenia wyjątków języka Java
  • [SPARK-48775] [SC-170801][sql][STS] Zastąp SQLContext zastąpieniem SparkSession w STS
  • [SPARK-49015] [SC-175688][core] Serwer połączenia powinien uwzględniać spark.log.structuredLogging.enabled
  • [SPARK-50327] [SC-181667][sql][16.x] Wydzielenie rozpoznawania funkcji do ponownego użycia w analizatorze jednoprzebiegowym
  • [SPARK-49995] [SC-180762][sql] Dodanie obsługi argumentów nazwanych do większej liczby TVF-ów
  • [SPARK-49268] [SC-174903][core] Zarejestruj wyjątki IO w dostawcy historii SHS
  • [SPARK-48123] [SC-164989][core] Podaj stały schemat tabeli na potrzeby wykonywania zapytań dotyczących dzienników strukturalnych
  • [SPARK-49217] [SC-174904][core] Obsługa oddzielnej konfiguracji rozmiaru buforu w narzędziu UnsafeShuffleWriter
  • [SPARK-50325] [SC-181664][sql][16.x] Wydzielenie rozwiązywania aliasów do ponownego użycia w analizatorze jednokrotnego przekazu
  • [SPARK-50322] [SC-181665][sql] Poprawka identyfikatora sparametryzowanego w podzapytaniu
  • [SPARK-48400] [SC-175283][core] Promowanie PrometheusServlet do DeveloperApi
  • [SPARK-50118] przywróć "[SC-181259][connet] Resetowanie izolowanej pamięci podręcznej stanu podczas uruchamiania zadań"
  • [SPARK-50306] [SC-181564][python][CONNECT] Obsługa Python 3.13 w programie Spark Connect
  • [SPARK-50152] [SC-181264][ss] Wsparcie dla handleInitialState z czytnikiem źródła danych o stanie
  • [SPARK-50260] [SC-181271][connect] Refaktoryzacja i optymalizacja kodu Spark C...
  • [SPARK-47591] [SC-163090][sql] Hive-thriftserver: Migracja logInfo ze zmiennymi do strukturalnego frameworku logowania
  • [SPARK-49312] [SC-174672][python] Ulepszanie komunikatu o błędzie dla assertSchemaEqual
  • [SPARK-49439] [SC-175236][sql] Poprawiono ładną nazwę wyrażenia FromProtobuf & ToProtobuf
  • [SPARK-50092] [ES-1258521] Poprawka zachowania łącznika PostgreSQL dla tablic wielowymiarowych
  • [SPARK-49913] [SC-181565][sql] Dodanie sprawdzenia unikatowości nazw etykiet w zagnieżdżonych oznaczonych zakresach
  • [SPARK-49563] [SC-181465][sql] Dodaj składnię potoku SQL dla operatora WINDOW
  • [SPARK-49661] [SC-179021][sql] Implementacja funkcji mieszania i porównywania sortowania z przycinaniem.
  • [SPARK-38912] [SC-181543][python] Usuń komentarz związany z classmethod i property
  • [SPARK-49770] [16.x][sc-179802][SC-179270][ss][RocksDB Hardening] Poprawić zarządzanie mapowaniem plików SST RocksDB i naprawić problem dotyczący ponownego ładowania tej samej wersji z istniejącą migawką
  • [SPARK-49002] przywróć "[SC-172846][sql] Spójna obsługa nieprawidłowych lokalizacji w magazynie/SCHEMA/TABLE/PARTITION/DIRECTORY
  • [SPARK-49668] [SC-178268][sql] Implementowanie obsługi klucza sortowania na potrzeby sortowania przycinania
  • [SPARK-50262] [SC-181193][sql] Zabronić specyfikowania typów złożonych podczas zmieniania sortowania
  • [SPARK-48898] [SC-181435][sql] Dodawanie funkcji rozdrabniania wariantów
  • [SPARK-48273] [SC-181381]Przywróć “[SQL] Napraw późne ponowne zapisanie PlanWithUnresolvedIdentifier
  • [SPARK-50222] [SC-180706][core] Wsparcie spark.submit.appName
  • [SPARK-50208] [SC-180662][core] Wsparcie spark.master.useDriverIdAsAppName.enabled
  • [SPARK-50224] [SC-180689][sql] Zamiany isValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 powinny być odporne na wartości Null
  • [SPARK-50247] [SC-180962][core] Zdefiniuj BLOCK_MANAGER_REREGISTRATION_FAILED jako ExecutorExitCode
  • [SPARK-50282] [SC-181221][ml] Uproszczenie TargetEncoderModel.transform
  • [SPARK-50112] [SC-180763][sql] Zezwalanie operatorowi TransformWithState na używanie kodowania Avro
  • [SPARK-50267] [SC-181180][ml] Ulepsz TargetEncoder.fit za pomocą API DataFrame
  • [SPARK-37178] [SC-180939][ml] Dodaj kodowanie docelowe do ml.feature
  • [SPARK-50118] [SC-181259][connect] Resetowanie izolowanej pamięci podręcznej stanu, gdy zadania są uruchomione
  • [SPARK-50085] [BEHAVE-176][sc-179809][PYTHON] Spraw, aby lit(ndarray) z np.int8 respektował typ danych numpy
  • [SPARK-50256] [SC-181048][sql] Dodawanie uproszczonej weryfikacji w celu sprawdzenia, czy plan logiczny zostanie nierozwiązany po każdej regule optymalizatora
  • [SPARK-50196] [SC-180932][connect] Naprawiono kontekst błędu w Pythonie w celu użycia odpowiedniego kontekstu
  • [SPARK-50274] [SC-181181][core] Ochrona przed użyciem po zamknięciu w funkcji DirectByteBufferOutputStream
  • [SPARK-49999] [SC-180063][python][CONNECT] Obsługa opcjonalnego parametru "column" w wykresach pudełkowych, wykresach kde i wykresach histogramu
  • [SPARK-50273] [SC-181178][ss] Ulepszenie rejestrowania przypadków zdobywania/zwalniania blokady bazy danych RocksDB
  • [SPARK-50033] [SC-180720][sc-180659][SQL] Dodaj wskazówkę do logicznego węzła Aggregate()
  • [SPARK-50163] [16.x][sc-180201][SC-180664][ss] Naprawienie dodatkowego zwolnienia acquireLock w RocksDB z powodu nasłuchiwacza zakończenia
  • [SPARK-50253] [SC-180969][ss] Stream-Stream Join nie powinien pobierać identyfikatora punktu kontrolnego, jeśli nie jest obsługiwany.
  • [SPARK-50255] [SC-180964][python] Unikaj niepotrzebnego rzutu w compute_hist
  • [SPARK-50228] [SC-180780][sql] Przenieś regułę RewriteCollationJoin do FinishAnalysis
  • [SPARK-50001] [SC-179524][python][PS][connect] Dostosuj "precyzję", aby uwzględnić ją jako parametr kwargs dla wykresów skrzynkowych
  • [SPARK-49637] [SC-180160][sql] Zmieniono komunikat o błędzie dla INVALID_FRACTION_OF_SECOND
  • [SPARK-49530] [SC-180658][python] Pobieranie aktywnej sesji z ramek danych
  • [SPARK-50195] [SC-180654][core] Napraw StandaloneRestServer aby poprawnie propagować spark.app.name do SparkSubmit
  • [SPARK-50229] [SC-180773] Zmniejszenie użycia pamięci w sterowniku dla szerokiego schematu przez zmniejszenie okresu istnienia obiektów AttributeReference utworzonych podczas planowania logicznego
  • [SPARK-50231] [SC-180815][python] Uczynić funkcję instr akceptującą Kolumnę substring
  • [SPARK-49854] [SC-179812][16.x][SQL] Klonowanie menedżera artefaktów podczas klonowania sesji
  • [SPARK-50219] [SC-180694][sql] Refaktoryzacja ApplyCharTypePadding, aby metody pomocnicze mogły być używane w jednoprzepustowym resolverze
  • [SPARK-50077] [SC-179827][sql] Wprowadzenie nowego obiektu wzorca dla relacji LogicalRelation, aby pomóc w unikaniu domyślnego wzorca z pełnymi parametrami
  • [SPARK-50128] [Backport][16x][SC-180677][ss] Dodawanie interfejsów API obsługi procesora stanowego przy użyciu koderów niejawnych w języku Scala
  • [SPARK-50061] [SC-179961][sql] Umożliwić analizę tabeli dla posortowanych kolumn
  • [SPARK-49993] [SC-180084][sql] Ulepszanie komunikatów o błędach dla sumy i średniej
  • [SPARK-49638] [SC-179665][sql] Usuń w INVALID_URL sugestię konfiguracji ANSI
  • [SPARK-50204] [SC-180660][sql] Uwzględnianie HiveTableRelation rozpoznawania ścieżki odczytu
  • [SPARK-50193] [SC-180651][ss] Naprawa obsługi wyjątków podczas walidacji trybów czasu
  • [SPARK-50179] [SC-180342][core] Wprowadź właściwość spark.app.name opcjonalną w interfejsie API REST
  • [SPARK-50068] [SC-180300][sql] Refaktoryzacja TypeCoercion i AnsiTypeCoercion w celu oddzielenia przekształceń pojedynczego węzła
  • [SPARK-49411] [SC-179483][ss] Komunikacja identyfikatora punktu kontrolnego magazynu stanu między sterownikiem a operatorami stanowymi
  • [SPARK-50124] [SC-180294][sql] LIMIT/OFFSET powinny zachować kolejność danych
  • [SPARK-49506] [SC-180165][sql] Optymalizacja ArrayBinarySearch dla składających się tablic.
  • [SPARK-50097] [SC-179908][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_1248: ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE
  • [SPARK-50071] [SC-180159][sql][PYTHON] Dodawanie try_make_timestamp(_ltz i _ntz) oraz powiązanych testów
  • [SPARK-50054] [SC-180228][python][CONNECT] Obsługa wykresów histogramów
  • [SPARK-50015] [SC-179964][sql] Przypisz odpowiedni warunek błędu dla _LEGACY_ERROR_TEMP_1125: MISSING_DATABASE_FOR_V1_SESSION_CATALOG
  • [SPARK-50155] [SC-180240][3.5] Przenoszenie plików scala i Java do folderów domyślnych
  • [SPARK-49980] [SC-180353][core][SQL] Naprawianie potencjalnych wycieków strumienia plików spowodowanych przerwami w anulowanych zadaniach
  • [SPARK-49010] [SC-172304][sql][XML] Dodanie testów jednostkowych dla wnioskowania schematu XML pod względem wrażliwości na wielkość liter
  • [SPARK-49562] [SC-180211][sql] Dodaj składnię potoku SQL do agregacji
  • [SPARK-49663] [SC-180239][sql] Włącz sugestie RTRIM w wyrażeniach sortowania
  • [SPARK-48965] [SC-175926][sql] Użyj poprawnego schematu w Dataset#toJSON
  • [SPARK-48493] [SC-175893][python] Udoskonalenie czytnika źródeł danych w Pythonie poprzez bezpośrednią obsługę zbioru Arrow w celu poprawy wydajności
  • [SPARK-49734] [SC-180226][python] Dodawanie argumentu seed dla shuffle funkcji
  • [SPARK-50174] [16.x][sc-180253][SQL] Wydzielenie rozwiązywania UnresolvedCatalogRelation
  • [SPARK-49989] [SC-179512][python][CONNECT] Obsługa wykresów kde/gęstości
  • [SPARK-49805] [SC-180218][sql][ML] Usuwanie funkcji prywatnych[xxx] z function.scala
  • [SPARK-49808] [SC-179490][sql] Naprawienie zakleszczenia w wykonywaniu podzapytania z powodu leniwych wartości
  • [SPARK-49929] [SC-180144][python][CONNECT] Wsparcie dla wykresów pudełkowych
  • [SPARK-50008] [SC-179290][ps][CONNECT] Unikaj niepotrzebnych operacji w attach_distributed_sequence_column
  • [SPARK-49767] [SC-180161][ps][CONNECT] Zrefaktoruj wywołanie funkcji wewnętrznej
  • [SPARK-49683] [SC-178341][sql] Blokuj sortowanie z przycinaniem
  • [SPARK-49939] [SC-178941][sql] Obsługa Codegen dla json_object_keys (przez wywołanie & RuntimeReplaceable)
  • [SPARK-50031] [SC-179582][sql] Dodawanie wyrażenia TryParseUrl
  • [SPARK-49766] [SC-178933][sql] Obsługa programu Codegen dla json_array_length (przez Invoke & RuntimeReplaceable)
  • [SPARK-50046] [SC-180026][ss] Użyj stabilnej kolejności węzła EventTimeWatermark, aby obliczyć znacznik czasu
  • [SPARK-49540] [SC-180145][ps] Ujednolicenie użycia distributed_sequence_id
  • [SPARK-50060] [SC-179965][sql] Wyłączono konwersję między różnymi klasyfikacjami sortowania w ramach TypeCoercion i AnsiTypeCoercion
  • [SPARK-49004] [SC-173244][connect] Wykorzystaj osobny rejestr dla funkcji wewnętrznych interfejsu API kolumn
  • [SPARK-49811] [ SC-177888][sql] Zmień nazwę StringTypeAnyCollation
  • [SPARK-49202] [SC-180059][ps] Zastosuj ArrayBinarySearch dla histogramu
  • [SPARK-49203] [SC-175734][sql] Dodawanie wyrażenia dla java.util.Arrays.binarySearch
  • [SPARK-50034] [SC-179816][core] Naprawa błędnego raportowania krytycznych błędów jako nieuchwyconych wyjątków w SparkUncaughtExceptionHandler
  • [SPARK-50093] [SC-179836][sql] Sortowania korzystające z ICU powinny zawierać wersję używanej biblioteki ICU
  • [SPARK-49985] [SC-179644][sql] Usuń obsługę typów interwałów w Wariancie
  • [SPARK-49103] [SC-173066][core] Wsparcie spark.master.rest.filters
  • [SPARK-50090] [SC-179819] Refaktoryzacja rozwiązania ResolveBinarythmetic w celu oddzielenia transformacji z jednym węzłem
  • [SPARK-49902] [SC-179650][sql] Przechwyć podstawowe błędy środowiska uruchomieniowego w RegExpReplace
  • [SPARK-49126] [SC-173342][core] Przenieś definicję konfiguracji spark.history.ui.maxApplications do History.scala
  • [SPARK-50094] [SC-179820][python][CONNECT] Lepszy komunikat o błędzie podczas korzystania z profilera pamięci w edytorach bez numerów wierszy
  • [SPARK-50062] [SC-179835][sql] Obsługa sortowania przez InSet
  • [SPARK-50035] [Backport][16x][SC-179530][ss] Dodanie obsługi dla jawnej funkcji handleExpiredTimer jako części procesora stanowego
  • [SPARK-49982] [SC-179814][sql] Naprawić negatywne buforowanie w InMemoryRelation
  • [SPARK-49082] [SC-173350][sql] Poszerzenie promocji typów w AvroDeserializer
  • [SPARK-50088] [SC-179680][sql] Refaktoryzować UnresolvedStarBase.expand
  • [SPARK-49802] [SC-179482][ss] Dodaj obsługę odczytu strumienia zmian dla typów map i list używanych w procesorach stanowych
  • [SPARK-49846] [SC-179506][ss] Dodawanie metryk numUpdatedStateRows i numRemovedStateRows do użycia z operatorem transformWithState
  • [SPARK-50050] [SC-179643][python][CONNECT][16.x] Spraw, aby lit akceptował typy numpy ndarray str i bool
  • [SPARK-49821] [SC-179527][ss][PYTHON] Implementowanie obsługi MapState i TTL dla transformWithStateInPandas
  • [SPARK-49558] [SC-179485][sql] Dodawanie składni potoku SQL dla LIMIT/OFFSET i ORDER/SORT/CLUSTER/DISTRIBUTE BY
  • [SPARK-48144] [SC-165725][lc-4080][SQL] Poprawka canPlanAsBroadcastHashJoin w celu przestrzegania wskazówek dotyczących przetasowania podczas dołączenia
  • [SPARK-50051] [SC-179571][python][CONNECT] Spraw, aby lit działało z pustym ndarray numpy
  • [SPARK-50018] [SC-179488][sql] Tworzenie serializowalnego parametru AbstractStringType
  • [SPARK-50016] [SC-179491][sql] Poprawa błędu niezgodności sortowania jawnego
  • [SPARK-50010] [SC-179487][sql] Rozwiń niejawny błąd niezgodności sortowania
  • pl-PL: [SPARK-48749] [SC-170116][sql] Upraszczanie funkcji UnaryPositive i eliminowanie jej reguł katalizatora z wykorzystaniem RuntimeReplaceable
  • [SPARK-49857] [SC-178576][sql] Dodaj storageLevel do interfejsu API lokalnego punktu kontrolnego zestawu danych
  • [SPARK-50058] [SC-179538][sql] Wydzielenie funkcji normalizacji planu do późniejszego wykorzystania ich w testach jednoprzepustowych analizatora
  • [SPARK-50052] [SC-179535][python][16.X] Spraw, aby NumpyArrayConverter obsługiwał pusty str ndarray
  • [SPARK-47261] [SC-173665][sql] Przypisz lepszą nazwę błędów _LEGACY_ERROR_TEMP_1172, _LEGACY_ERROR_TEMP_1173 i _LEGACY_ERROR_TEMP_1174
  • [SPARK-49147] [SC-173471][core] Oznacz KryoRegistrator za pomocą interfejsu DeveloperApi
  • [SPARK-48949] [SC-173070][sql] SPJ: filtrowanie partycji środowiska uruchomieniowego
  • [SPARK-50044] [SC-179523][python] Uściślij dokumentację wielu funkcji matematycznych
  • [SPARK-48757] [SC-170113][core] Ustaw, aby IndexShuffleBlockResolver miały jawne konstruktory
  • [SPARK-50037] [SQL] Refactor AttributeSeq.resolve(...)
  • [SPARK-48782] [SC-177056][sql] Dodanie obsługi wykonywania procedur w katalogach
  • [SPARK-49057] [SC-173081][sql] Nie blokuj pętli AQE podczas przesyłania etapów zapytania
  • [SPARK-48824] [SC-176772][behave-167][SQL] Dodaj składnię SQL dla kolumny tożsamości
  • [SPARK-48773] [SC-170773] Udokumentowanie konfiguracji "spark.default.parallelism" za pomocą frameworka do budowania konfiguracji
  • [SPARK-48735] [SC-169810][sql] Poprawa wydajności funkcji BIN
  • [SPARK-48900] [SC-172433] Dodaj pole reason dla wszystkich wewnętrznych wywołań dotyczących anulowania zadania/etapu
  • [SPARK-48488] [SC-167605][core] Naprawa metod log[info|warning|error] w SparkSubmit
  • [SPARK-48708] [SC-169809][core] Usuń trzy niepotrzebne rejestracje typów z KryoSerializer
  • [SPARK-49958] [SC-179312][python] API Pythona dla funkcji weryfikacji ciągów znaków
  • [SPARK-49979] [SC-179264][sql] Rozwiązanie problemu z zawieszaniem AQE podczas dwukrotnego zbierania na nieudanym planie
  • [SPARK-48729] [SC-169795][sql] Dodawanie interfejsu UserDefinedFunction do reprezentowania funkcji SQL
  • [SPARK-49997] [SC-179279][sql] Integracja _LEGACY_ERROR_TEMP_2165 z MALFORMED_RECORD_IN_PARSING
  • [SPARK-49259] [SC-179271][ss]Tworzenie partycji opartej na rozmiarze podczas odczytu platformy Kafka
  • [SPARK-48129] [SC-165006][python] Podaj stały schemat tabeli w programie PySpark na potrzeby wykonywania zapytań dotyczących dzienników strukturalnych
  • [SPARK-49951] [SC-179259][sql] Przypisz prawidłowy warunek błędu dla LEGACY_ERROR_TEMP(1099|3085)
  • [SPARK-49971] [SC-179278][sql] Przypisz prawidłowy warunek błędu dla _LEGACY_ERROR_TEMP_1097
  • [SPARK-49998] [SC-179277][sql] Integracja _LEGACY_ERROR_TEMP_1252 z EXPECT_TABLE_NOT_VIEW
  • [SPARK-49876] [SC-179262][connect] Pozbyć się globalnych blokad z usługi Spark Connect
  • [SPARK-49957] [SC-179202][sql] Interfejs API języka Scala dla funkcji walidacji ciągów
  • [SPARK-48480] [SC-173055][ss][CONNECT] StreamingQueryListener nie powinien być wpływany przez komendę spark.interrupt().
  • [SPARK-49643] [SC-179239][sql] Połącz _LEGACY_ERROR_TEMP_2042 z ARITHMETIC_OVERFLOW
  • [SPARK-49959] [SC-179109][sql] Fix ColumnarArray.copy() aby odczytać wartości null z poprawnego przesunięcia
  • [SPARK-49956] Cofnij “[SC-179070] Wyłączenie sortowań z użyciem wyrażenia collect_set”
  • [SPARK-49987] [SC-179180][sql] Napraw komunikat o błędzie, gdy seedExpression jest nieskładający się w randstr
  • [SPARK-49948] [SC-179158][ps][CONNECT] Dodaj parametr „precision” do pandas na wykresie pudełkowym w Spark
  • [SPARK-49970] [SC-179167][sql] Przypisz prawidłowy warunek błędu dla _LEGACY_ERROR_TEMP_2069
  • [SPARK-49916] [SC-179108][sql] Rzuć odpowiedni wyjątek dla niezgodności typu między ColumnType a typem danych w niektórych wierszach
  • [SPARK-49956] [SC-179070] Wyłączone sortowania z wyrażeniem collect_set
  • [SPARK-49974] [16.x][sc-179071][SQL] Przenieść resolveRelations(...) z Analyzer.scala
  • [SPARK-47259] [SC-176437][sql] Przypisywanie nazw warunkom błędów związanych z przedziałami czasowymi
  • [SPARK-47430] [SC-173679][sql] Przekształć grupowanie według typu mapy, aby naprawić błąd powiązania
  • [SPARK-49067] [SC-172616][sql] Przenieś literał utf-8 do wewnętrznych metod klasy UrlCodec
  • [SPARK-49955] [SC-178989][sql] wartość null nie oznacza uszkodzonego pliku podczas analizowania ciągu JSON w RDD
  • [SPARK-49393] [SC-175212][sql] Niepowodzenie domyślnie w przestarzałych interfejsach API wtyczki wykazu
  • [SPARK-49952] [SC-178985][sql] Przypisz prawidłowy warunek błędu dla _LEGACY_ERROR_TEMP_1142
  • [SPARK-49405] [SC-175224][sql] Ograniczanie zestawów znaków w JsonOptions
  • [SPARK-49892] [SC-178975][sql] Przypisz właściwą klasę błędów dla _LEGACY_ERROR_TEMP_1136
  • [SPARK-49904] [SC-178973][sql] Przypisz prawidłowy warunek błędu dla _LEGACY_ERROR_TEMP_2140
  • [SPARK-47257] [SC-174244][sql] Przypisywanie nazw do klas błędów _LEGACY_ERROR_TEMP_105[3–4] i _LEGACY_ERROR_TEMP_1331
  • [SPARK-49915] [SC-178869][sql] Obsługa zer i jedynek w ReorderAssociativeOperator
  • [SPARK-49891] [SC-178970][sql] Przypisz prawidłowy warunek błędu dla _LEGACY_ERROR_TEMP_2271
  • [SPARK-49918] [SC-178748][core] Użyj dostępu tylko do odczytu do conf w SparkContext tam, gdzie to jest odpowiednie
  • [SPARK-49666] [SC-177891][sql] Dodanie flagi funkcji dla funkcji przycinania podczas sortowania
  • [SPARK-48885] [SC-171050][sql] Spraw, aby niektóre podklasy RuntimeReplaceable nadpisywały zamianę na lazy val
  • [SPARK-49932] [SC-178931][core] Aby uniknąć przecieków pamięci, użyj zasobów tryWithResourceJsonUtils#toJsonString
  • [SPARK-49949] [SC-178978][ps] Unikaj niepotrzebnego zadania analizy w attach_sequence_column
  • [SPARK-49924] [SC-178935][sql] Zachowaj containsNull po zastąpieniu ArrayCompact
  • [SPARK-49121] [SC-174787][sql] Obsługa from_protobuf i to_protobuf dla funkcji SQL
  • [SPARK-47496] [SC-160529][sql] Obsługa Java SPI dla dynamicznego rejestrowania dialektu JDBC
  • [SPARK-49359] [SC-174895][sql] Zezwolenie, aby implementacje StagedTableCatalog mogły przejść na zapis nieatomowy
  • [SPARK-49895] [SC-178543][sql][ES-1270338] Poprawa błędu przy napotkaniu końcowego przecinka w klauzuli SELECT
  • [SPARK-47945] [SC-163457][sql] MsSQLServer: Dokumentacja mapowania typów danych Spark SQL z Microsoft SQL Server i dodanie testów
  • [SPARK-46037] [SC-175495][sql] Poprawka poprawności kompilacji shuffled Hash Join w lewo bez generowania kodu
  • [SPARK-47813] [SC-162615][sql] Zastąp funkcję getArrayDimension funkcją updateExtraColumnMeta
  • [SPARK-49542] [SC-178765][sql] Błąd oceny wyjątku przekształcenia partycji
  • [SPARK-47172] [SC-169537][core] Dodaj obsługę AES-GCM szyfrowania RPC
  • [SPARK-47666] [SC-161476][sql] Napraw błąd NPE podczas odczytywania tablicy bitowej MySQL jako typ LongType
  • [SPARK-48947] [SC-174239][sql] Użyj małej nazwy zestawu znaków, aby zmniejszyć brak pamięci podręcznej w elemecie Charset.forName
  • [SPARK-49909] [SC-178552][sql] Poprawiono ładną nazwę niektórych wyrażeń
  • [SPARK-47647] [SC-161377][sql] Utwórz źródło danych MySQL w stanie odczytać bit(n>1) jako typ binarny, taki jak Postgres
  • [SPARK-46622] [SC-153004][core] Nadpisanie metody toString dla o.a.s.network.shuffledb.StoreVersion
  • [SPARK-48961] [SC-171910][python] Ujednolicenie nazewnictwa parametrów PySparkException zgodnie z JVM
  • [SPARK-49889] [SC-178474][python] Dodawanie trim argumentu dla funkcjitrim/ltrim/rtrim
  • [SPARK-47537] [SC-160747][sql] Naprawa błędnego mapowania typów danych w MySQL Connector/J
  • [SPARK-47628] [SC-161257][sql] Naprawiono problem z tablicą bitową Postgres "Nie można przekształcić na wartość logiczną"
  • [SPARK-49843] [SC-178084][es-1268164][SQL] Naprawa komentarza dotyczącego kolumn char/varchar
  • [SPARK-49549] [SC-178764][sql] Przypisywanie nazwy do warunków błędu _LEGACY_ERROR_TEMP_3055, 3146
  • [SPARK-49791] [SC-177730][sql] Uczynienie DelegatingCatalogExtension bardziej podatnym na rozszerzenie
  • [SPARK-49559] [SC-178551][sql] Dodaj składnię rurociągu SQL dla operacji zbioru
  • [SPARK-49906] [SC-178536][sql] Wprowadzenie i zastosowanie błędu CONFLICTING_DIRECTORY_STRUCTURES dla PartitioningUtils
  • [SPARK-49877] [SC-178392][sql] Zmień sygnaturę funkcji classifyException: dodawanie argumentu isRuntime
  • [SPARK-47501] [SC-160532][sql] Dodaj convertDateToDate podobnie jak istniejące convertTimestampToTimestamp dla JdbcDialect
  • [SPARK-49044] [SC-175746][sql] Funkcja ValidateExternalType powinna zwrócić podrzędny element w przypadku błędu
  • [SPARK-47462] [SC-160460][sql] Wyrównanie mapowań innych niepodpisanych typów liczbowych za pomocą funkcji TINYINT w usłudze MySQLDialect
  • [SPARK-47435] [SC-160129][sql] Rozwiązano problem z przepełnieniem typu MySQL UNSIGNED TINYINT spowodowany przez SPARK-45561
  • [SPARK-49398] [SC-176377][sql] Ulepszanie błędu parametrów w zapytaniu CACHE TABLE i CREATE VIEW
  • [SPARK-47263] [SC-177012][sql] Przypisywanie nazw do starszych warunków _LEGACY_ERROR_TEMP_13[44-46]
  • [SPARK-49605] [SC-176605][sql] Napraw komunikat, gdy ascendingOrder jest DataTypeMismatch w SortArray
  • [SPARK-49806] [SC-178304][sql][CONNECT] Usuń nadmiarowe blank space po show w klientach Scala i Connect
  • [SPARK-47258] [SC-175032][sql] Przypisywanie nazw do klas błędów _LEGACY_ERROR_TEMP_127[0-5]
  • [SPARK-49564] [SC-178461][sql] Dodać składnię potoku SQL dla operatora JOIN
  • [SPARK-49836] [SC-178339][sql][SS] Naprawa potencjalnie uszkodzonego zapytania, gdy okno jest przekazywane do funkcji window/session_window.
  • [SPARK-47390] [SC-163306][sc-159312][SPARK-47396][sc-159376][SPARK-47406] Obsługa mapowania sygnatur czasowych SQL dla bazy danych Postgres i MySQL
  • [SPARK-49776] [SC-177818][python][CONNECT] Obsługa wykresów kołowych
  • [SPARK-49824] [SC-178251][ss][CONNECT] Ulepszanie logowania w SparkConnectStreamingQueryCache
  • [SPARK-49894] [SC-178460][python][CONNECT] Uściślij reprezentację ciągu operacji pól kolumny
  • [SPARK-49764] [SC-177491][python][CONNECT] Obsługa wykresów obszarowych
  • [SPARK-49694] [SC-177376][python][CONNECT] Obsługa wykresów rozrzutu
  • [SPARK-49744] [SC-178363][ss][PYTHON] Implementacja obsługi TTL dla ListState w TransformWithStateInPandas
  • [SPARK-49879] [SC-178334][core] Przenieś TransportCipherUtil do oddzielnego pliku w celu wyeliminowania ostrzeżeń kompilacji Java
  • [SPARK-49866] [SC-178353][sql] Poprawić komunikat o błędzie opisujący tabelę z kolumnami partycji
  • [SPARK-49867] [SC-178302][es-1260570][SQL] Ulepszanie komunikatu o błędzie, gdy indeks jest poza granicami podczas wywoływania polecenia GetColumnByOrdinal
  • [SPARK-49607] [SC-177373][python] Aktualizacja podejścia do próbkowania dla wykresów opartych na próbkach
  • [SPARK-49626] [SC-177276][python][CONNECT] Obsługa wykresów słupkowych poziomych i pionowych
  • [SPARK-49531] [SC-177770][python][CONNECT] Obsługa wykresu liniowego z backendem Plotly
  • [SPARK-49444] [SC-177692][es-1203248][SQL] Zmodyfikowano UnivocityParser, aby wyrzucać wyjątki czasu wykonania spowodowane przez ArrayIndexOutOfBounds z bardziej przyjaznymi dla użytkownika komunikatami.
  • [SPARK-49870] [SC-178262][python] Dodawanie obsługi Python 3.13 w klasycznym środowisku Spark
  • [SPARK-49560] [SC-178121][sql] Dodano składnię potoku SQL dla operatora TABLESAMPLE
  • [SPARK-49864] [SC-178305][sql] Ulepszanie komunikatu BINARY_ARITHMETIC_OVERFLOW
  • [SPARK-48780] [SC-170274][sql] Uogólnione błędy w NamedParametersSupport do obsługi funkcji i procedur
  • [SPARK-49358] [SC-178158][sql] Wyrażenie trybu dla typów map z uporządkowanymi ciągami
  • [SPARK-47341] [SC-178157][sql] Poprawiono niedokładną dokumentację środowiska RuntimeConfig#get
  • [SPARK-48357] [SC-178153][sql] Obsługa instrukcji LOOP
  • [SPARK-49845] [SC-178059][core] Tworzenie appArgs i environmentVariables opcjonalne w interfejsie API REST
  • [SPARK-49246] [SC-174679][sql] TableCatalog#loadTable powinien wskazać, czy jest używany do pisania
  • [SPARK-48048] [SC-177525][sc-164846][CONNECT][ss] Dodano obsługę odbiornika po stronie klienta dla języka Scala
  • [SPARK-48700] [SC-177978][sql] Wyrażenie trybu dla typów złożonych (wszystkie sortowania)
  • [SPARK-48196] [SC-177899][sql] Zmień plany val lazy w QueryExecution na LazyTry
  • [SPARK-49749] [16.x][sc-177877][CORE] Zmień poziom dziennika na debugowanie w BlockManagerInfo
  • [SPARK-49561] [SC-177897][sql] Dodaj składnię potoku SQL dla operatorów PIVOT i UNPIVOT
  • [SPARK-49823] [SC-177885][ss] Unikaj opróżniania podczas zamykania w ścieżce zamknięcia bazy danych rocksdb
  • [SPARK-49820] [SC-177855] [PYTHON] Zmiana raise IOError na raise OSError
  • [SPARK-49653] [SC-177266][sql] Pojedyncze połączenie dla skorelowanych podzapytań skalarnego
  • [SPARK-49552] [SC-177477][python] Dodawanie obsługi interfejsu API ramki danych dla nowych funkcji SQL "randstr" i "uniform"
  • [SPARK-48303] [16.x][sc-166251][CORE] Przeorganizować LogKeys
  • [SPARK-49656] [16x][backport][SS] Dodać obsługę zmiennych stanu z typami kolekcji wartości stanów i opcjami odczytu kanału zmian
  • [SPARK-48112] [SC-165129][connect] Uwidacznianie sesji w programie SparkConnectPlanner z wtyczkami
  • [SPARK-48126] [16.x][sc-165309][Core] Upewnij się, że spark.log.structuredLogging.enabled jest skuteczny
  • [SPARK-49505] [SC-176873][sql] Tworzenie nowych funkcji SQL "randstr" i "uniform" w celu generowania losowych ciągów lub liczb w zakresach
  • [SPARK-49463] [SC-177474] Obsługa ListState dla TransformWithStateInPandas
  • [SPARK-48131] [SC-165007][core] Ujednolić klucz MDC mdc.taskName i task_name
  • [SPARK-49557] [SC-177227][sql] Dodaj składnię 'pipe' SQL dla operatora WHERE
  • [SPARK-49323] [16.x][sc-174689][CONNECT] Przenieś mockObserver z folderu testowego serwera Spark Connect Server do folderu głównego serwera
  • [SPARK-49745] [SC-177501][ss] Wprowadź zmianę umożliwiającą odczyt zarejestrowanych czasomierzy przez źródło danych stanu za pomocą czytnika
  • [SPARK-49772] [16.x][sc-177478][SC-177214][ss] Usuń ColumnFamilyOptions i dodaj konfiguracje bezpośrednio do dbOptions w RocksDB.

Obsługa sterowników ODBC/JDBC usługi Databricks

Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 16.1.

Środowisko systemu

  • System operacyjny: Ubuntu 24.04.1 LTS
    • Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery środowiska Databricks Runtime działają na maszynach wirtualnych dostawcy chmury, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
  • Java: Zulu17.54+21-CA
  • Scala: 2.12.15
  • Python: 3.12.3
  • R: 4.4.0
  • Delta Lake: 3.2.1

Zainstalowane biblioteki Python

Biblioteka wersja Biblioteka wersja Biblioteka wersja
typy z adnotacjami 0.7.0 asttokens 2.0.5 astunparse 1.6.3
autokomenda 2.2.2 azure-core 1.31.0 Azure Storage Blob 12.23.0
Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) 12.17.0 backports.tarfile 1.2.0 czarny 24.4.2
kierunkowskaz 1.7.0 boto3 1.34.69 botocore 1.34.69
cachetools (narzędzia do zarządzania pamięcią podręczną) 5.3.3 certyfikat 2024.6.2 cffi 1.16.0
chardet 4.0.0 normalizator zestawu znaków 2.0.4 kliknij 8.1.7
cloudpickle (biblioteka Python do serializacji obiektów) 2.2.1 komunikacja 0.2.1 ContourPy 1.2.0
kryptografia 42.0.5 rowerzysta 0.11.0 Cython 3.0.11
databricks-sdk 0.30.0 dbus-python 1.3.2 debugpy 1.6.7
dekorator 5.1.1 Przestarzałe 1.2.14 distlib 0.3.8
Konwertowanie docstringów na markdown 0,11 punkty wejścia 0,4 wykonywanie 0.8.3
aspekty — omówienie 1.1.1 blokada plików 3.15.4 fonttools 4.51.0
gitdb (baza danych Git) 4.0.11 GitPython 3.1.37 google-api-core 2.20.0
google-auth (autoryzacja Google) 2.35.0 google-cloud-core 2.4.1 system do przechowywania danych w chmurze Google 2.18.2
google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) 1.6.0 Google Media z Możliwością Wznowienia 2.7.2 googleapis-common-protos 1.65.0
grpcio 1.60.0 status grpcio 1.60.0 httplib2 0.20.4
IDNA 3.7 importlib-metadata 6.0.0 importlib_resources 6.4.0
odchylić 7.3.1 ipyflow-core 0.0.201 ipykernel 6.28.0
ipython 8.25.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
isodate 0.6.1 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.1 jmespath 1.0.1
joblib 1.4.2 jupyter_client 8.6.0 jupyter_core 5.7.2
kiwisolver 1.4.4 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 matplotlib 3.8.4 pakiet matplotlib-inline 0.1.6
Mccabe 0.7.0 mlflow-skinny 2.15.1 more-itertools 10.3.0
mypy 1.10.0 mypy-extensions 1.0.0 nest-asyncio 1.6.0
nodeenv 1.9.1 numpy 1.26.4 oauthlib 3.2.2
opentelemetry-api 1.27.0 opentelemetry-sdk 1.27.0 opentelemetry-semantic-conventions (standardowe konwencje semantyczne w OpenTelemetry) 0.48b0
opakowanie 24.1 Pandas 1.5.3 parso 0.8.3
specyfikacja ścieżki 0.10.3 ofiara 0.5.6 pexpect 4.8.0
poduszka 10.3.0 pip (menedżer pakietów Pythona) 24,2 platformdirs 3.10.0
kreślenie 5.22.0 wtyczkowy 1.0.0 zestaw narzędzi prompt 3.0.43
proto-plus 1.24.0 Protobuf (w skrócie od Protocol Buffers) 4.24.1 psutil 5.9.0
psycopg2 2.9.3 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 15.0.2 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.65 pycparser 2.21 pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) 2.8.2
pydantic_core 2.20.1 pyflakes (narzędzie do analizy statycznej kodu Python) 3.2.0 Pygments 2.15.1
PyGObject 3.48.2 PyJWT 2.7.0 pyodbc 5.0.1
pyparsing – biblioteka do przetwarzania tekstu w Pythonie 3.0.9 pyright 1.1.294 python-dateutil (biblioteka Pythona do zarządzania datami) 2.9.0.post0
python-lsp-jsonrpc 1.1.2 python-lsp-server 1.10.0 pytoolconfig 1.2.6
pytz (biblioteka Pythona do obliczeń stref czasowych) 2024.1 PyYAML 6.0.1 pyzmq 25.1.2
żądania 2.32.2 lina 1.12.0 RSA 4.9
s3transfer 0.10.2 scikit-learn 1.4.2 scipy (biblioteka naukowa dla Pythona) 1.13.1
urodzony na morzu 0.13.2 setuptools 74.0.0 sześć 1.16.0
smmap 5.0.0 sqlparse 0.5.1 ssh-import-id (narzędzie do importowania kluczy SSH) 5.11
stos danych 0.2.0 statsmodels - biblioteka do modelowania statystycznego 0.14.2 Wytrzymałość 8.2.2
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.4.1 traitlets 5.14.3 osłona typów 4.3.0
types-protobuf 3.20.3 types-psutil 5.9.0 types-pytz 2023.3.1.1
types-PyYAML 6.0.0 typy-żądań 2.31.0.0 types-setuptools 68.0.0.0
typy-sześć 1.16.0 types-urllib3 1.26.25.14 moduł typing_extensions 4.11.0
ujson (szybka biblioteka do obsługi formatu JSON) 5.10.0 nienadzorowane uaktualnienia 0.1 urllib3 1.26.16
virtualenv 20.26.2 wadllib 1.3.6 szerokość(wcwidth) 0.2.5
czymjestłatka 1.0.2 wheel 0.43.0 zawinięty 1.14.1
yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) 0.33.0 zamek błyskawiczny 3.17.0

Zainstalowane biblioteki języka R

Biblioteki R są instalowane z migawki CRAN z Posit Menedżer pakietów z dnia 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.

Biblioteka wersja Biblioteka wersja Biblioteka wersja
strzałka 16.1.0 askpass 1.2.0 potwierdzić to 0.2.1
porty wsteczne 1.5.0 baza 4.4.0 base64enc 0.1-3
bigD 0.2.0 odrobina 4.0.5 bit-64 4.0.5
bitops 1.0-8 blob 1.2.4 rozruch systemu 1.3-30
warzyć (piwo) / parzyć (kawę, herbatę) 1.0-10 Brio 1.1.5 miotła 1.0.6
bslib 0.8.0 kaszmir 1.1.0 dzwoniący 3.7.6
karetka 6.0-94 cellranger 1.1.0 Chroń 2.3-61
klasa 7.3-22 CLI 3.6.3 clipr 0.8.0
zegar 0.7.1 klaster 2.1.6 codetools 0.2-20
przestrzeń kolorów 2.1-1 commonmark 1.9.1 kompilator 4.4.0
konfig 0.3.2 zdezorientowany 1.2.0 cpp11 0.4.7
kredka 1.5.3 dane logowania 2.0.1 skręt 5.2.1
tabela danych 1.15.4 zbiory danych 4.4.0 DBI 1.2.3
dbplyr 2.5.0 Opis 1.4.3 devtools 2.4.5
schemat 1.6.5 diffobj 0.3.5 skrót 0.6.36
przyciemnione oświetlenie 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 wielokropek 0.3.2 ocenić 0.24.0
fani 1.0.6 kolory 2.1.2 szybka mapa 1.2.0
Font Awesome 0.5.2 dla kotów 1.0.0 foreach 1.5.2
zagraniczny 0.8-86 kuźnia 0.2.0 fs 1.6.4
przyszłość 1.34.0 wprowadź przyszłość 1.11.2 płukać 1.5.2
typy ogólne 0.1.3 Gert 2.1.0 ggplot2 3.5.1
Gh 1.4.1 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globalne 0.16.3 klej 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafika 4.4.0 grDevices 4.4.0 siatka 4.4.0
gridExtra 2.3 gsubfn 0,7 Gt 0.11.0
gtabela 0.3.5 hardhat 1.4.0 przystań 2.5.4
wyżej 0,11 HMS 1.1.3 htmltools – narzędzie do tworzenia stron internetowych 0.5.8.1
widżety HTML 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.0.2 Numery identyfikacyjne 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Obiekty iterujące 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 soczysty sok 0.1.0
KernSmooth 2.23–2.22 knitr (narzędzie do generowania dynamicznych raportów w R) 1.48 etykietowanie 0.4.3
później 1.3.2 siatka 0.22-5 lawa 1.8.0
cykl życia 1.0.4 nasłuchiwanie 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Markdown 1.13 MASA 7.3-60.0.1
Matryca 1.6-5 zapamiętywanie 2.0.1 metody 4.4.0
mgcv 1.9-1 pantomima 0,12 miniUI (interfejs użytkownika) 0.1.1.1
mlflow 2.14.1 Metryki modelowe 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-165 sieć neuronowa (nnet) 7.3-19
numDeriv 2016.8-1.1 openssl 2.2.0 równoległy 4.4.0
równolegle 1.38.0 kolumna 1.9.0 pkgbuild 1.4.4
pkgconfig 2.0.3 pkgdown 2.1.0 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 pochwała 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Procesx 3.8.4
prodlim 2024.06.25 profvis 0.3.8 postęp 1.2.3
progressr 0.14.0 Obietnice 1.3.0 Prototyp 1.0.0
serwer proxy 0.4-27 Postscriptum 1.7.7 mruczenie 1.0.2
R6 2.5.1 ragg 1.3.2 "randomForest" 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.13 RcppEigen 0.3.4.0.0 reaktywny 0.4.4
ReactR 0.6.0 czytnik 2.1.5 readxl (biblioteka do odczytu plików Excel) 1.4.3
przepisy 1.1.0 rewanż 2.0.0 rewanż 2 2.1.2
Zdalne sterowanie 2.5.0 przykład powtarzalny 2.1.1 zmień kształt2 1.4.4
rlang 1.1.4 rmarkdown (narzędzie do tworzenia dokumentów w R) 2.27 RODBC 1.3-23
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.7 rstudioapi 0.16.0
rversions 2.1.2 rvest 1.0.4 Sass 0.4.9
waga (urządzenie) 1.3.0 selektor 0.4-2 Informacje o sesji 1.2.2
kształt 1.4.6.1 błyszczący 1.9.1 sourcetools 0.1.7-1
sparklyr 1.8.6 SparkR 3.5.0 przestrzenny 7.3-17
Splatiny 4.4.0 sqldf 0.4-11 SQUAREM 2021.1
Statystyki 4.4.0 statystyki4 4.4.0 łańcuchy 1.8.4
stringr 1.5.1 przetrwanie 3.6-4 pewność siebie 5.17.14.1
sys 3.4.2 systemfonts 1.1.0 tcltk 4.4.0
testthat 3.2.1.1 kształtowanie tekstu 0.4.0 tibble 3.2.1
tidyr 1.3.1 tidyselect 1.2.1 tidyvere 2.0.0
zmiana czasu 0.3.0 czasData 4032.109 tinytex 0.52
narzędzia 4.4.0 Baza Danych Stref Czasowych (tzdb) 0.4.0 sprawdzacz URL 1.0.1
użyj tego 3.0.0 utf8 1.2.4 oprogramowanie użytkowe 4.4.0
uniwersalny unikalny identyfikator (UUID) 1.2-1 V8 4.4.2 vctrs 0.6.5
viridisLite 0.4.2 Vroom 1.6.5 Waldo 0.5.2
włosek czuciowy 0.4.1 Withr 3.0.1 xfun 0,46
xml2 1.3.6 xopen 1.0.1 Xtable 1.8-4
yaml 2.3.10 zapał 0.1.0 zamek / zip 2.3.1

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu wersja
antlr antlr 2.7.7
com.amazonaws Klient Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-automatyczne-skalowanie 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (konfiguracja aws-java-sdk) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) 1.12.638
com.amazonaws AWS Java SDK dla Glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws AWS-Java-SDK-ImportExport 1.12.638
com.amazonaws AWS SDK dla Javy - Kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-uczenie-maszynowe 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) 1.12.638
com.amazonaws wsparcie dla aws-java-sdk 1.12.638
com.amazonaws aws-java-sdk-swf-biblioteki 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics odtwarzać strumieniowo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kriogenicznie cieniowany 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core Adnotacje Jackson 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat Jackson-format-danych-CBOR 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofeina kofeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1-rodzimi
com.github.fommil.netlib natywny_system java 1.1
com.github.fommil.netlib natywny_system java 1.1-rodzimi
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-rodzimi
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-rodzimi
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone adnotacje podatne na błędy 2.10.0
com.google.flatbuffers flatbuffers-java 26.05.23
com.google.guava owoc guawy 15,0
com.google.protobuf protobuf-java 3.25.1
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.WYDANIE
com.lihaoyi kodźródłowy_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf (biblioteka do kompresji danych) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses soczewki_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfig 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity parsery jednoznaczności 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
Zbiory Commons Zbiory Commons 3.2.2
commons-dbcp commons-dbcp 1.4
wspólne przesyłanie plików wspólne przesyłanie plików 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blask 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor powietrza 0.27
io.delta delta-sharing-client_2.12 1.2.2
io.dropwizard.metrics adnotacja metryk 4.2.19
io.dropwizard.metrics metryki —rdzeń 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics metryki-kontrole zdrowotne 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metryki w formacie JSON 4.2.19
io.dropwizard.metrics metryki-JVM 4.2.19
io.dropwizard.metrics serwlety metryczne 4.2.19
io.netty netty-all 4.1.108.Final
io.netty Netty-buffer 4.1.108.Final
io.netty netty-codec 4.1.108.Final
io.netty netty-codec-http 4.1.108.Final
io.netty netty-codec-http2 4.1.108.Final
io.netty netty-codec-socks 4.1.108.Final
io.netty netty-common (element wspólny) 4.1.108.Final
io.netty "netty-handler" 4.1.108.Final
io.netty netty-handler-proxy 4.1.108.Final
io.netty rozwiązywacz netty 4.1.108.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-db-r16-windows-x86_64
io.netty Klasy netty-tcnative 2.0.61.Final
io.netty Netty-transport 4.1.108.Final
io.netty netty-transport-classes-epoll 4.1.108.Final
io.netty netty-transport-classes-kqueue 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final
io.netty netty-transport-native-epoll 4.1.108.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.108.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.108.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.108.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx moduł zbierający 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
\ jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction interfejs transakcyjny (API) 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine kiszonka 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake SDK do pobierania danych Snowflake 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc (niedostępne w lokalnym języku) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr Szablon łańcucha 3.2.1
org.apache.ant mrówka 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant program uruchamiający Ant 1.10.11
org.apache.arrow format strzałki 15.0.0
org.apache.arrow strzałka-pamięć-rdzeń 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow wektor strzałki 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons tekst wspólny 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator Framework kuratora 2.13.0
org.apache.curator przepisy wyselekcjonowane przez kuratora 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-pamięć 2.0.0
org.apache.derby mecz derbowy 10.14.2.0
org.apache.hadoop środowisko uruchomieniowe klienta Hadoop 3.3.6
org.apache.hive hive-beeline (narzędzie do interakcji z bazą danych Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive Klient hive-llap 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api (interfejs do przechowywania danych hive) 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims harmonogram osłon/imitacji ula 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy bluszcz 2.5.2
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j szablon układu log4j w formacie JSON 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc podkładki ORC 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-shaded 4.23
org.apache.yetus adnotacje dla widowni 0.13.0
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. opiekun zoo 3.9.2
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. Zookeeper-jute 3.9.2
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapujący-ASL 1.9.13
org.codehaus.janino commons-kompilator 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections Eclipse Collections 11.1.0
org.eclipse.collections API kolekcji Eclipse 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-kontynuacja 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-plus 9.4.52.v20230823
org.eclipse.jetty serwer pośredniczący Jetty 9.4.52.v20230823
org.eclipse.jetty moduł bezpieczeństwa Jetty 9.4.52.v20230823
org.eclipse.jetty serwer aplikacji Jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty aplikacja jetty-webowa 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-klient 9.4.52.v20230823
org.eclipse.jetty.websocket websocket —wspólne 9.4.52.v20230823
org.eclipse.jetty.websocket serwer WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 Lokalizator zasobów OSGi 1.0.3
org.glassfish.hk2.external aopalliance-zapakowane ponownie 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers serwlet kontenerowy Jersey 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core dzianina-zwykła 2.40
org.glassfish.jersey.core serwer jersey 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45-databricks
org.roaringbitmap podkładki regulacyjne 0.9.45-databricks
org.rocksdb rocksdbjni 9.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-java8-compat_2.12 0.9.1
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.16
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest zgodny ze standardem scalatest 3.2.16
org.scalatest scalatest-core_2.12 3.2.16
org.scalatest scalatest-diagrams_2.12 3.2.16
org.scalatest scalatest-featurespec_2.12 3.2.16
org.scalatest scalatest-flatspec_2.12 3.2.16
org.scalatest scalatest-freespec_2.12 3.2.16
org.scalatest scalatest-funspec_2.12 3.2.16
org.scalatest scalatest-funsuite_2.12 3.2.16
org.scalatest scalatest-matchers-core_2.12 3.2.16
org.scalatest scalatest-mustmatchers_2.12 3.2.16
org.scalatest scalatest-propspec_2.12 3.2.16
org.scalatest scalatest-refspec_2.12 3.2.16
org.scalatest scalatest-shouldmatchers_2.12 3.2.16
org.scalatest scalatest-wordspec_2.12 3.2.16
org.scalatest scalatest_2.12 3.2.16
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten ThreeTen Extra 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.4.1-linux-x86_64
Stax stax-api 1.0.1