Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 16.3 obsługiwanym przez platformę Apache Spark 3.5.2.
Usługa Databricks wydała tę wersję w marcu 2025 r.
Zmiany zachowania
Rozwiązanie problemów dla opcji Auto Loader: modifiedBefore, modifiedAfter, pathGlobFilter
Wcześniej modyfikowanie wartości opcji automatycznego modułu ładującego modifiedBefore, modifiedAfter i pathGlobFilter nie miało żadnego efektu. Ten problem został rozwiązany.
Teraz, gdy zmodyfikujesz wartości tych filtrów, Auto Loader pozyskuje nowe pliki, które spełniają kryteria filtrów. Jeśli mniej plików kwalifikuje się na podstawie zaktualizowanych wartości filtru, pliki, które nie są już uprawnione, nie są usuwane z ujścia, ale pozostają pozyskiwane.
Ulepszony komunikat o błędzie po kafka.sasl.client.callback.handler.class przypisaniu nieprawidłowej wartości
W tej wersji wprowadzono zmianę, aby zwracać bardziej opisowy komunikat o błędzie, gdy kafka.sasl.client.callback.handler.class przypisano nieprawidłową wartość.
Nowy komunikat o błędzie to org.apache.spark.sql.AnalysisException: [RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.KAFKA_CLIENT_CALLBACK_SHADED_CLASS] The option kafka.sasl.client.callback.handler.class has restricted values on Shared clusters for the kafka source. The Kafka client callback class must be "shadedmskiam.software.amazon.msk.auth.iam.IAMClientCallbackHandler". SQLSTATE: 0A000
Wcześniej zwrócony komunikat o błędzie był org.apache.spark.sql.AnalysisException: [UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED] Streaming options kafka.sasl.client.callback.handler.class are not supported for data source kafka on a shared cluster. Please confirm that the options are specified and spelled correctly, and check https://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-shared for limitations. SQLSTATE: 0A000
Nowe funkcje i ulepszenia
- Wsparcie obsługi czytnika stanu jest ogólnie dostępne dla standardowych zasobów obliczeniowych
- Opcja obniżenia wersji protokołu tabeli Delta jest powszechnie dostępna z ochroną punktów kontrolnych
- Pisanie proceduralnych skryptów SQL opartych na języku ANSI SQL/PSM (publiczna wersja zapoznawcza)
- Sortowanie domyślne na poziomie tabeli i widoku
- Instalowanie niestandardowych zależności w Python UDF w ramach Unity Catalog (publiczna wersja zapoznawcza)
- Zmienianie wielu kolumn tabeli w jednej ALTER TABLE instrukcji
-
Obsługa standardowych
transformWithStateInPandasobliczeń -
Obsługa
MERGE INTOtabel ze szczegółową kontrolą dostępu na dedykowanych zasobach obliczeniowych (publiczna wersja zapoznawcza) - Obsługa dołączania danych do tabel z precyzyjną kontrolą dostępu na dedykowanych zasobach obliczeniowych
- Rozszerzona obsługa samołączeń z precyzyjnie kontrolowanymi dostępem obiektami na dedykowanej jednostce obliczeniowej
- Nowe funkcje H3
Wsparcie odczytu stanu jest dostępne w GA dla standardowych obliczeń.
Obsługa odczytywania informacji o stanie zapytań dotyczących strukturalnego przesyłania strumieniowego jest teraz ogólnie dostępna dla obliczeń skonfigurowanych w standardowym trybie dostępu. Zobacz Jak odczytać informacje o stanie strukturalnego strumieniowania danych.
Obniżenie protokołu tabeli Delta jest ogólnie dostępne z ochroną punktu kontrolnego.
DROP FEATURE jest ogólnie dostępny do usuwania funkcji tabel Delta Lake i obniżania wersji protokołu tabeli. Domyślnie DROP FEATURE tworzy teraz chronione punkty kontrolne, aby zapewnić bardziej zoptymalizowane i uproszczone doświadczenie związane z przesiadką, które nie wymaga czasu oczekiwania ani skracania historii. Zobacz Upuszczanie funkcji tabeli Delta Lake i obniżanie poziomu protokołu tabeli.
Pisanie proceduralnych skryptów SQL opartych na języku ANSI SQL/PSM (publiczna wersja zapoznawcza)
Teraz można używać funkcji skryptów opartych na języku ANSI SQL/PSM do pisania logiki proceduralnej za pomocą języka SQL, w tym instrukcji przepływu sterowania, zmiennych lokalnych i obsługi wyjątków. Zobacz skrypty SQL.
Sortowanie domyślne na poziomie tabeli i widoku
Teraz można określić domyślne sortowanie tabel i widoków. Upraszcza to tworzenie tabel i widoków, w których wszystkie lub większość kolumn ma to samo sortowanie. Zobacz Kolażowanie.
Instalowanie niestandardowych zależności w funkcjach UDF języka Python Unity Catalog (wersja testowa)
Rozszerz funkcjonalność funkcji UDF języka Python poza środowisko Databricks Runtime, definiując niestandardowe zależności dla bibliotek zewnętrznych. Zobacz Rozszerzanie funkcji UDF za pomocą niestandardowych zależności.
Zmienianie wielu kolumn tabeli w jednej ALTER TABLE instrukcji
W środowisku Databricks Runtime 16.3 można zmienić wiele kolumn w jednej ALTER TABLE instrukcji. Zobacz ALTER TABLE klauzulę ... COLUMN
Wsparcie dla transformWithStateInPandas w standardowych obliczeniach
Teraz można używać transformWithStateInPandas na obliczeniach skonfigurowanych ze standardowym trybem dostępu. Zobacz sekcję Budowanie niestandardowej aplikacji stanowej.
MERGE INTO Obsługa tabel z szczegółową kontrolą dostępu w dedykowanych obliczeniach (publiczna wersja zapoznawcza)
W środowisku Databricks Runtime 16.3 lub nowszym dedykowane obliczenia obsługują MERGE INTO tabele Unity Catalog, które używają szczegółowej kontroli dostępu. Podobnie jak w przypadku odczytu z tych obiektów, MERGE polecenia są automatycznie przekazywane do obliczeń bezserwerowych, jeśli jest to wymagane.
Zobacz Szczegółową kontrolę dostępu na dedykowanej jednostce obliczeniowej.
Wsparcie dla dołączania danych do tabel z drobiazgową kontrolą dostępu na dedykowanych zasobach obliczeniowych
W środowisku Databricks Runtime 16.3 lub nowszym dedykowane zasoby przetwarzania obsługują dołączanie do obiektów Unity Catalog, które używają drobiazgowej kontroli dostępu. Aby użyć tej funkcji, użyj DataFrame.write.mode("append") funkcji w interfejsie API platformy Apache Spark. Podobnie jak w przypadku odczytu z tych obiektów, zapisy dołączające są automatycznie przekazywane do bezserwerowych obliczeń, gdy jest to potrzebne.
Aby dowiedzieć się więcej na temat używania dedykowanych obliczeń z obiektami Katalogu Unity z kontrolą dostępu, zobacz Szczegółowa kontrola dostępu na dedykowanych obliczeniach.
Rozszerzona obsługa samołączeń z obiektami z precyzyjną kontrolą dostępu na dedykowanej infrastrukturze obliczeniowej
W środowisku Databricks Runtime 16.3 lub nowszym funkcja filtrowania danych w celu precyzyjnej kontroli dostępu do dedykowanych zasobów obliczeniowych automatycznie synchronizuje migawki między dedykowanymi i bezserwerowymi zasobami obliczeniowymi, z wyjątkiem materializowanych widoków oraz jakichkolwiek widoków, materializowanych widoków i tabel przesyłania strumieniowego udostępnianych przy użyciu Delta Sharing. Ta ulepszona funkcjonalność sprawia, że podczas filtrowania danych samosprzężenia zwracają identyczne migawki. Zobacz Szczegółową kontrolę dostępu na dedykowanej jednostce obliczeniowej.
Nowe funkcje H3
Dodano trzy nowe funkcje H3: h3_try_coverash3, h3_try_coverash3string i h3_try_tessellateaswkb.
Uaktualnienia biblioteki
Uaktualnione biblioteki języka Python:
- mlflow-skinny w wersji od 2.15.1 do 2.19.0
Uaktualnione biblioteki języka R:
Uaktualnione biblioteki Java:
Apache Spark
Środowisko Databricks Runtime 16.3 obejmuje platformę Apache Spark 3.5.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 16.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-51594] [DBRRM-1604][sc-192125][SQL] Użyj pustego schematu podczas zapisywania widoku, który nie jest zgodny z programem Hive
- [SPARK-51388] [SC-190503][sql] Ulepszanie propagacji fragmentów SQL w to_timestamp i UNII
- [SPARK-51394] [SC-190492][ml] Optymalizacja usunięcia dodatkowego mieszania w testach statystycznych
- [SPARK-51385] [SC-190486][sql] Znormalizuj projekcję dodaną w DeduplicateRelations w celu deduplikacji danych wyjściowych podunii
- [SPARK-51357] [SC-190485][sql] Zachowaj poziom logowania zmian planu dla widoków
- [SPARK-50654] [SC-186686][ss] CommitMetadata powinna ustawić wartość stateUniqueIds na Wartość Brak w wersji 1
- [SPARK-51362] [SC-190352][sql] Zmień funkcję toJSON, aby użyć interfejsu API NextIterator i wyeliminować sąsiadującą zależność rekordu
-
[SPARK-51375] [SC-190355][sql][CONNECT] Tłumienie komunikatów dziennika
SparkConnect(Execution|Session)Manager.periodicMaintenance - [SPARK-50596] [SC-184060][python] Uaktualnianie Py4J z wersji 0.10.9.7 do 0.10.9.8
- [SPARK-51097] [SC-190456][revert] Cofnij zmianę metryk instancji RocksDB
-
[SPARK-51363] [SC-190343][sql]
Desc As JSONnazwy kolumn klastrowania - [SPARK-51373] [SC-190370] [SS] Usuwanie dodatkowej kopii prefiksu rodziny kolumn z "ReplyChangelog"
- [SPARK-51378] [SC-190363][core] Zastosuj listę wykluczeń JsonProtocol do ExecutorMetricsUpdate i TaskEndReason
- [SPARK-51369] [SC-190253][sql] Naprawiono zmienną kursora, aby obsługiwała nazwy z mieszanymi wielkościami liter
-
[SPARK-51381] [SC-190360][sql][CONNECT] Pokaż
Session IDna stronieSpark Connect Session - [SPARK-51119] [SC-188491][sql] Czytniki na wykonawcach rozwiązujących EXISTS_DEFAULT nie powinny wywoływać katalogów
- [SPARK-51322] [SC-190013][sql] Lepszy komunikat o błędzie dla wyrażenia podzapytania streamingu
- [SPARK-50817] [SC-186642][ss] Naprawianie raportowania błędów bazy danych RocksDB
- [SPARK-51370] [SC-190286] Poprawa przejrzystości kodu INSERT INTO w analizowaniu w programie AstBuilder.scala
- [SPARK-51083] [SC-189217][core][16.x] Zmodyfikuj narzędzia JavaUtils, aby nie połykać InterruptedExceptions
- [SPARK-51324] [SC-189997][sql] Naprawiono zagnieżdżoną instrukcję FOR, która zgłaszała błąd, gdy wynik był pusty
- [SPARK-49756] [SC-178793][sql] Dialekt Postgres obsługuje funkcje przetwarzania daty/godziny.
- [SPARK-51270] [SC-190108][sql] Obsługa typu UUID w Variant
- [SPARK-51310] [SC-190018][sql] Rozwiązywanie typu wyrażeń produkujących domyślne ciągi znaków
- [SPARK-49488] [SC-176685][sql] Dialekt MySQL obsługuje przenoszenie funkcji daty i czasu.
- [SPARK-50856] [DBR16.x][sc-189812][SS][python][CONNECT] Obsługa programu Spark Connect dla funkcji TransformWithStateInPandas w języku Python
-
[SPARK-50553] [SC-190076][connect] Rzuć
InvalidPlanInputdla nieprawidłowej wiadomości planu - [SPARK-51337] [16.x][sc-190105][SQL] Dodać maxRows do CTERelationDef i CTERelationRef
- [SPARK-51281] [SC-190033][sql] DataFrameWriterV2 powinien uwzględniać opcję ścieżki
- [SPARK-51323] [SC-190005][python] Duplikuj "total" na metrykach Py SQL
-
[SPARK-48618] [SC-174007][sql] Wykorzystać
ErrorCodeiSQLStatezwrócone w SQLException do bardziej precyzyjnego określania błędów - [SPARK-47871] [SC-162873][sql] Oracle: Zmapuj TimestampType na TIMESTAMP Z LOKALNĄ STREFĄ CZASOWĄ
- [SPARK-50993] [SC-187319][sql] Przenieść nullDataSourceOption z QueryCompilationErrors do QueryExecutionErrors
- [SPARK-47761] [SC-162288][sql] Oracle: wsparcie dla odczytywania typów AnsiIntervalTypes
- [SPARK-51265] [SC-189826][sql] IncrementalExecution powinien poprawnie ustawić kod wykonywania polecenia
- [SPARK-50785] [SC-189722][sql] Refaktoryzacja instrukcji FOR w celu prawidłowego korzystania ze zmiennych lokalnych.
- [SPARK-51315] [SC-189838][sql] Włączanie sortowania na poziomie obiektu domyślnie
- [SPARK-51312] [SC-189824][sql] Naprawienie createDataFrame z RDD[Row]
-
[SPARK-51305] [SC-189625][sql][CONNECT] Ulepszyć
SparkConnectPlanExecution.createObservedMetricsResponse - [SPARK-51313] [SC-189816][python] Poprawiono format znacznika czasu dla protokołu PySparkLogger
- [SPARK-51095] [SC-189623][core][SQL] Dołącz kontekst wywołania do dzienników audytu HDFS dla wywołań ze sterownika
- [SPARK-51292] [SC-189566][sql] Usuń niepotrzebne dziedziczenie z PlanTestBase, ExpressionEvalHelper i PlanTest
- [SPARK-50739] [SC-186903][sql][FOLLOW] Uproszczenie rozwiązania ResolveRecursiveCTESuite przy użyciu rozszerzenia dsl
- [SPARK-51097] [SC-189428] [SS] Dodawanie metryk instancji magazynu stanów dla ostatniej przekazanej wersji migawki w RocksDB
- [SPARK-49912] [SC-189615] Refaktoryzacja prostej instrukcji CASE w celu oceny zmiennej przypadku tylko raz
- [SPARK-50655] [16x][sc-189235][SS] Przenieść mapowanie związane z rodziną wirtualnych kolumn do warstwy bazy danych, zamiast do kodera
-
[SPARK-51177] [SC-188989][python][CONNECT] Dodawanie
InvalidCommandInputdo klienta języka Python Spark Connect -
[SPARK-51278] [SC-189608][python] Użyj odpowiedniej struktury formatu JSON dla
PySparkLogger - [SPARK-48530] [SC-189357][sql] Obsługa zmiennych lokalnych w skryptach SQL
- [SPARK-51258] [SC-189551][sql] Usuń niepotrzebne dziedziczenie z SQLConfHelper
- [SPARK-50739] [SC-186818][sql] Rekursive CTE. Analizator zmienia się w celu rozwikłania i rozwiązywania problemów ze składnikami rekursji.
- [SPARK-51284] [SC-189483][sql] Poprawka wykonywania skryptu SQL w przypadku pustego wyniku
- [SPARK-50881] [SC-188407][python] W dataframe.py użyj buforowanego schematu, jeśli to możliwe.
- [SPARK-51274] [SC-189516][python] PySparkLogger powinien uwzględniać oczekiwane argumenty słowa kluczowego
- [SPARK-50636] [SC-184783][sql] Rozszerzenie CTESubstitution.scala, aby uwzględniał rekursję
-
[SPARK-50960] [SC-188821][python][CONNECT] Dodaj
InvalidPlanInputdo klienta platformy Spark Connect w języku Python - [SPARK-51109] [SC-188394][sql] CTE w wyrażeniu podrzędnym jako kolumna grupowania
- [SPARK-51067] [16.x][sc-188855][SQL] Przywracanie sortowania na poziomie sesji dla zapytań DML i stosowanie sortowania na poziomie obiektu dla zapytań DDL
- [SPARK-50849] [SC-189071][connect] Dodawanie przykładowego projektu w celu zademonstrowania bibliotek serwera Spark Connect
- [SPARK-51259] [SC-189344][sql] Refaktoryzacja obliczania kluczy połączenia naturalnego i z użyciem kluczy połączeniowych
- [SPARK-51185] [SC-188832][core] Przywrócenie uproszczeń do interfejsu API PartitionedFileUtil w celu zmniejszenia wymagań dotyczących pamięci
- [SPARK-51237] [16x][sc-189028][SS] Dodawanie szczegółowych informacji o nowych pomocniczych funkcjach API transformWithState, jeśli zajdzie taka potrzeba.
- [SPARK-51247] [SC-189236][sql] Przenieś moduł SubstituteExecuteImmediate do etapu "resolution" i przygotuj go do obsługi zmiennych lokalnych w skryptach SQL.
-
[SPARK-50403] [SC-186416][sql] Napraw błędnie sparametryzowany
EXECUTE IMMEDIATE - [SPARK-50598] [SC-183992][sql] Początkowe, no-op żądanie wciągnięcia, które dodaje nowe parametry do już istniejących klas UnresolvedWith, CTERelationRef i CTERelationDef w celu umożliwienia późniejszej implementacji rekurencyjnych CTE.
- [SPARK-48114] [SC-189176][sql] Przenoszenie sprawdzania poprawności podzapytania poza usługą CheckAnalysis
-
[SPARK-50767] [SC-189169][sql] Usuń kodgen
from_json - [SPARK-51242] [SC-189200][connect][PYTHON] Poprawa wydajności kolumn kiedy DQC jest wyłączone
- [SPARK-51202] [SC-189208][ml][PYTHON] Przekaż sesję w pisarzach algorytmu meta w języku Python
- [SPARK-51246] [SC-189175][sql] Upewnij się, że InTypeCoercion produkuje rozwiązane rzutowania
-
[SPARK-51192] [SC-189070][connect] Ujawnij
processWithoutResponseObserverForTestingwSparkConnectPlanner - [SPARK-51183] [SC-189010][sql] Link do specyfikacji Parquet w dokumentacji dotyczącej wariantów
-
[SPARK-51189] [SC-188829][core] Awansowanie
JobFailednaDeveloperApi -
[SPARK-51184] [SC-188801][core] Usuwanie logiki
TaskState.LOSTzTaskSchedulerImpl - [SPARK-51218] [SC-189012][sql] Unikaj stosowania map/flatMap w kolekcji NondeterministicExpressionCollection
- [SPARK-51228] [SC-189022][sql] Wprowadzenie normalizacji podzapytania w ramach NormalizePlan
- [SPARK-51113] [SC-188883][sql] Napraw poprawność z UNION/EXCEPT/INTERSECT wewnątrz widoku lub EXECUTE IMMEDIATE
-
[SPARK-51209] [SC-188987][core] Ulepsz
getCurrentUserNamedo obsługi Java 24+ - [SPARK-50953] [SC-188409][python][CONNECT] Dodanie obsługi ścieżek nieliteralnych w module VariantGet
- [SPARK-51181] [SC-188854] [SQL] Wymuszanie determinizmu podczas ściągania niedeterministycznych wyrażeń z planu logicznego
- [SPARK-50872] [SC-186901][sql][UI] sprawia, że wyrażenie ToPrettyString nie ma wpływu na prezentację interfejsu użytkownika
- [SPARK-51150] [SC-188512][ml] Jawne przekazywanie sesji w modułach zapisu algorytmów meta
- [SPARK-51008] [SC-188655][sql] Dodaj ResultStage dla AQE
- [SPARK-51114] [SC-188633] [SQL] Refaktoryzacja zasady PullOutNondeterministic
- [SPARK-51160] [SC-188666][sql] Refaktorowanie rozpoznawania funkcji literału
- [SPARK-51127] [SC-188366][python] Zabij pracownika Pythona po upływie limitu czasu bezczynności
- [SPARK-51099] [SC-188350][python] Dodawanie dzienników, gdy proces roboczy języka Python wygląda na zablokowany
- [SPARK-51157] [SC-188536][sql] Dodaj brakującą adnotację @varargs Scala dla interfejsów API funkcji Scala.
-
[SPARK-51155] [CORE]
SparkContextpokaż całkowity czas działania po zatrzymaniu - [SPARK-51140] [SC-188487][ml] Sortowanie parametrów przed zapisaniem
- [SPARK-51135] [SC-188392][sql] Poprawić ViewResolverSuite w trybach ANSI
- [SPARK-51057] [SC-188191][ss] Usuń wariant API oparty na opcji scala dla stanu wartości
- [SPARK-51131] [SC-188359][sql] Zgłaszanie wyjątku w przypadku znalezienia skryptu SQL wewnątrz polecenia EXECUTE IMMEDIATE
- [SPARK-51048] [SC-188369][core] Obsługa zatrzymania kontekstu Java Spark z kodem zakończenia
- [SPARK-50234] [SC-181433][python][SQL] Poprawiono komunikaty o błędach i testy dla transponowania API ramki danych
- [SPARK-51074] [SC-188153][ss][CONNECT] Ustawianie limitu czasu dla komunikacji konfiguracji inicjalizacji w foreachBatch dla przesyłania strumieniowego
- [SPARK-48353] [SC-187986][sql] Wprowadzenie mechanizmu obsługi wyjątków w skryptach SQL
- [SPARK-50596] [SC-184060][python] Uaktualnianie Py4J z wersji 0.10.9.7 do 0.10.9.8
- [SPARK-51043] [SC-187928][ss][CONNECT] Szczegółowe rejestrowanie działań użytkownika dla Spark Connect foreachBatch
-
[SPARK-51084] [ES-1336002][sc-188171][SQL] Przypisz odpowiednią klasę błędów dla
negativeScaleNotAllowedError - [SPARK-51042] [SC-188216][sql] Odczyt i zapis pól miesiąca i dni interwałów jednym poleceniem w klasach Unsafe*
- [SPARK-51010] [SC-188188][sql] Naprawiono problem z AlterColumnSpec, który niepoprawnie zgłaszał status rozwiązania.
- [SPARK-50799] [SC-188169][python] Uściślij komentarz dokumentujący rlike, length, octet_length, bit_length i transform
-
[SPARK-51061] [SC-187910][core] Ukryj informacje
Jettyw interfejsie API przesyłania REST - [SPARK-51055] [SC-187993][ss][CONNECT] Strumieniowanie foreachBatch powinno wywoływać logikę inicjalizacyjną wewnątrz instrukcji try.
- [SPARK-50982] [SC-188059][sql] Obsługa większej funkcjonalności ścieżki odczytu SQL/DataFrame w analizatorze jednoprzejściowym
-
[SPARK-51081] [SC-188092][sql] Refaktoryzacja
Join.outputdla jednokrotnego rozwiązania -
[SPARK-51064] [SC-188039][sql] Włącz
spark.sql.sources.v2.bucketing.enableddomyślnie - [SPARK-50883] [LC-5998][sc-187120][SQL] Obsługa zmiany wielu kolumn w tym samym poleceniu
- [SPARK-51034] [SC-187985][sql] Przeformatowanie opisu jako statystyki JSON dla możliwości analizy
- pl-PL: [SPARK-51058] [SC-187961][python] Unikaj używania JVM SparkSession
- [SPARK-51056] [SC-187871][python] Unikaj niepotrzebnego tworzenia obiektów w pliku SparkSession.getActiveSession.
- [SPARK-50967] [SC-187860][ss] Dodaj opcję pomijania emitowania początkowych kluczy stanu w operatorze FMGWS
- [SPARK-50813] [SC-186457][sql] Zezwalaj tylko na niekwalifikowane nazwy etykiet wewnątrz skryptów SQL
- [SPARK-50858] [SC-187399][python] Dodaj konfigurację do ukrycia śledzenia stosu UDF w języku Python
- [SPARK-50853] [SC-187219][core] Zamknij zapisywalny kanał pliku tymczasowego shuffle
- [SPARK-50663] [SC-187541][sql] Poprawiono gramatykę instrukcji IF ELSE (ELSE IF —> ELSEIF)
-
[SPARK-51027] [SC-187502][sql] Zapobieganie wywołaniu
HiveClient.runSqlHivew środowisku bez testowania - [SPARK-50977] [SC-187400][sc-187006][CORE] Poprawa dostępności logiki agregującej wyniki akumulatorów
- [SPARK-51001] [SC-187442][sql] Dopracuj arrayEquals
- [SPARK-50962][ SC-187168][sql] Unikaj WyjątkuPrzekroczeniaIndeksuCiągu w AttributeNameParser
- [SPARK-50683] [SC-184728][sql] Wstaw wspólne wyrażenie w klauzuli With, jeśli używane jest tylko raz
- [SPARK-50959] [SC-187139][ml][PYTHON] Połykanie wyjątku JavaWrapper.del
- [SPARK-50558] [SC-187337][sql] Wprowadzenie funkcji simpleString dla ExpressionSet
- [SPARK-50648] [SC-184706][core] Usuwanie zadań zombie w nieuruchomionych stadiach po anulowaniu zadania
-
[SPARK-50990] [SC-187316][sql] Przeprowadzenie refaktoryzacji w celu wydzielenia
UpCastrozwiązania zAnalyzer - [SPARK-49491] [SC-184714][sql] Zastąp AnyRefMap HashMap
- [SPARK-50685] [SC-186941][python] Zwiększanie wydajności Py4J dzięki wykorzystaniu metody getattr
- [SPARK-50688] [SC-184666][sql] Eliminowanie niejednoznaczności z powodu braku elementu rowTag w ścieżce zapisu xml
-
[SPARK-50976] [SC-187265][ml][PYTHON] Naprawa zapisywania/ładowania
TargetEncoder - [SPARK-49639] [SC-187297][sql] Usuń sugestię dotyczącą konfiguracji ANSI w INVALID_INTERVAL_WITH_MICROSECONDS_ADDITION
- [SPARK-50118] [SC-187110]Cofnij "[CONNECT] Zresetuj izolowaną pamięć podręczną stanu, gdy zadania są uruchomione"
- [SPARK-47579] [16.x][sc-166971][CORE][część3] Rdzeń Spark: Zmigrować logInfo z zmiennymi do strukturalnego systemu logowania
- [SPARK-50669] [SC-184566][es-1327450][PHOTON][test-only] Rozszerzenie testów jednostkowych fotonu związanych z wyrażeniem TimestampAdd dla typów długich.
- [SPARK-50909] [SC-187119][python] Konfiguracja faulthandler w PythonPlannerRunners
- [SPARK-50774] [SC-186349][sql] Scentralizuj nazwy sortowania w jednym miejscu
- [SPARK-50804] [SC-186684][sql] to_protobuf() nie powinien zgłaszać błędu MatchError
- [SPARK-50957] [SC-187136][protobuf] Zmień dostępność protobuf.utils.SchemaConverters na prywatną
- [SPARK-50900] [SC-186948][ml][CONNECT] Dodaj VectorUDT i MatrixUDT do ProtoDataTypes
- [SPARK-50895] [SC-186998][sql] Tworzenie wspólnego interfejsu dla wyrażeń, które generują domyślny typ ciągu
- [SPARK-50558] [SC-184216][sql] Dodaj konfigurowalne limity rejestrowania dla liczby elementów w InSet i In
- [SPARK-50875] [SC-186951][sql][16.x] Dodaj sortowania RTRIM do funkcji TVF
-
[SPARK-50579] [SC-183826][sql] Poprawka
truncatedString
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Środowisko systemu
-
System operacyjny: Ubuntu 24.04.2 LTS
- Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery środowiska Databricks Runtime działają na maszynach wirtualnych dostawcy chmury, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Zainstalowane biblioteki języka Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| typy z adnotacjami | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autokomenda | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) | 12.17.0 | backports.tarfile | 1.2.0 | czarny | 24.4.2 |
| kierunkowskaz | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools (narzędzia do zarządzania pamięcią podręczną) | 5.3.3 | certyfikat | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizator zestawu znaków | 2.0.4 | kliknij | 8.1.7 |
| cloudpickle (biblioteka Python do serializacji obiektów) | 2.2.1 | komunikacja | 0.2.1 | ContourPy | 1.2.0 |
| kryptografia | 42.0.5 | rowerzysta | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| dekorator | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| Konwertowanie docstringów na markdown | 0,11 | wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 |
| blokada plików | 3.15.4 | fonttools | 4.51.0 | gitdb (baza danych Git) | 4.0.11 |
| GitPython | 3.1.37 | google-api-core | 2.20.0 | google-auth (autoryzacja Google) | 2.35.0 |
| google-cloud-core | 2.4.1 | Google Cloud Storage (usługa przechowywania danych w chmurze od Google) | 2.18.2 | google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) | 1.6.0 |
| Google Media z Możliwością Wznowienia | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.4 | IDNA | 3.7 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | odchylić | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.6.1 |
| jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 |
| Jedi | 0.19.1 | jmespath | 1.0.1 | joblib | 1.4.2 |
| jupyter_client | 8.6.0 | jupyter_core | 5.7.2 | kiwisolver | 1.4.4 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 |
| mlflow-skinny | 2.19.0 | more-itertools | 10.3.0 | mypy | 1.10.0 |
| mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| numpy | 1.26.4 | oauthlib | 3.2.2 | opentelemetry-api | 1.27.0 |
| opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions (standardowe konwencje semantyczne w OpenTelemetry) | 0.48b0 | opakowanie | 24.1 |
| Pandas | 1.5.3 | parso | 0.8.3 | specyfikacja ścieżki | 0.10.3 |
| ofiara | 0.5.6 | pexpect | 4.8.0 | poduszka | 10.3.0 |
| pip (menedżer pakietów Pythona) | 24,2 | platformdirs | 3.10.0 | kreślenie | 5.22.0 |
| wtyczkowy | 1.0.0 | zestaw narzędzi prompt | 3.0.43 | proto-plus | 1.24.0 |
| Protobuf (w skrócie od Protocol Buffers) | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 15.0.2 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 2.8.2 | pydantic_core | 2.20.1 |
| pyflakes (narzędzie do analizy statycznej kodu Python) | 3.2.0 | Pygments | 2.15.1 | PyGObject | 3.48.2 |
| PyJWT | 2.7.0 | pyodbc | 5.0.1 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.9 |
| pyright | 1.1.294 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.9.0.post0 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2024.1 |
| PyYAML | 6.0.1 | pyzmq | 25.1.2 | żądania | 2.32.2 |
| lina | 1.12.0 | rsa | 4.9 | s3transfer | 0.10.2 |
| scikit-learn | 1.4.2 | scipy (biblioteka naukowa dla Pythona) | 1.13.1 | urodzony na morzu | 0.13.2 |
| setuptools | 74.0.0 | sześć | 1.16.0 | smmap | 5.0.0 |
| sqlparse | 0.5.1 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5.11 | stos danych | 0.2.0 |
| statsmodels - biblioteka do modelowania statystycznego | 0.14.2 | Wytrzymałość | 8.2.2 | threadpoolctl | 2.2.0 |
| tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.4.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-protobuf | 3.20.3 |
| types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 | types-PyYAML | 6.0.0 |
| typy-żądań | 2.31.0.0 | types-setuptools | 68.0.0.0 | typy-sześć | 1.16.0 |
| types-urllib3 | 1.26.25.14 | moduł typing_extensions | 4.11.0 | ujson (szybka biblioteka do obsługi formatu JSON) | 5.10.0 |
| nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.2 |
| wadllib | 1.3.6 | szerokość(wcwidth) | 0.2.5 | czymjestłatka | 1.0.2 |
| wheel | 0.43.0 | zawinięty | 1.14.1 | yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) | 0.33.0 |
| zamek błyskawiczny | 3.17.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN menedżera pakietów Posit z dnia 2024-08-04.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| strzałka | 16.1.0 | askpass | 1.2.0 | potwierdzić to | 0.2.1 |
| porty wsteczne | 1.5.0 | baza | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit-64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | rozruch systemu | 1.3-30 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-10 | Brio | 1.1.5 | miotła | 1.0.6 |
| bslib | 0.8.0 | kaszmir | 1.1.0 | dzwoniący | 3.7.6 |
| karetka | 6.0-94 | cellranger | 1.1.0 | Chroń | 2.3-61 |
| klasa | 7.3-22 | CLI | 3.6.3 | clipr | 0.8.0 |
| zegar | 0.7.1 | klaster | 2.1.6 | codetools | 0.2-20 |
| przestrzeń kolorów | 2.1-1 | commonmark | 1.9.1 | kompilator | 4.4.0 |
| konfig | 0.3.2 | zdezorientowany | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | dane logowania | 2.0.1 | skręt | 5.2.1 |
| tabela danych | 1.15.4 | zbiory danych | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Opis | 1.4.3 | devtools | 2.4.5 |
| schemat | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.36 |
| przyciemnione oświetlenie | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | wielokropek | 0.3.2 | ocenić | 0.24.0 |
| fani | 1.0.6 | kolory | 2.1.2 | szybka mapa | 1.2.0 |
| Font Awesome | 0.5.2 | dla kotów | 1.0.0 | foreach | 1.5.2 |
| zagraniczny | 0.8-86 | kuźnia | 0.2.0 | fs | 1.6.4 |
| przyszłość | 1.34.0 | wprowadź przyszłość | 1.11.2 | płukać | 1.5.2 |
| typy ogólne | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globalne | 0.16.3 | klej | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafika | 4.4.0 | grDevices | 4.4.0 | siatka | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtabela | 0.3.5 | hełm ochronny | 1.4.0 | przystań | 2.5.4 |
| wyżej | 0,11 | HMS | 1.1.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.8.1 |
| widżety HTML | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | soczysty sok | 0.1.0 |
| KernSmooth | 2.23–2.22 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1.48 | etykietowanie | 0.4.3 |
| później | 1.3.2 | siatka | 0.22-5 | lawa | 1.8.0 |
| cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matrix | 1.6-5 | zapamiętywanie | 2.0.1 | metody | 4.4.0 |
| mgcv | 1.9-1 | pantomima | 0,12 | miniUI (interfejs użytkownika) | 0.1.1.1 |
| mlflow | 2.14.1 | Metryki modelowe | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | sieć neuronowa (nnet) | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | równoległy | 4.4.0 |
| równolegle | 1.38.0 | kolumna | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Procesx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | postęp | 1.2.3 |
| progressr | 0.14.0 | Obietnice | 1.3.0 | Prototyp | 1.0.0 |
| serwer proxy | 0.4-27 | Postscriptum | 1.7.7 | mruczenie | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | "randomForest" | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reaktywny | 0.4.4 |
| reactR | 0.6.0 | czytnik | 2.1.5 | readxl (biblioteka do odczytu plików Excel) | 1.4.3 |
| przepisy | 1.1.0 | rewanż | 2.0.0 | rematch2 | 2.1.2 |
| Zdalne sterowanie | 2.5.0 | przykład powtarzalny | 2.1.1 | zmień kształt2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| waga (urządzenie) | 1.3.0 | selektor | 0.4-2 | Informacje o sesji | 1.2.2 |
| kształt | 1.4.6.1 | błyszczący | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | przestrzenny | 7.3-17 |
| Splatiny | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statystyki | 4.4.0 | statystyki4 | 4.4.0 | łańcuchy | 1.8.4 |
| stringr | 1.5.1 | przetrwanie | 3.6-4 | pewność siebie | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | kształtowanie tekstu | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| zmiana czasu | 0.3.0 | czasData | 4032.109 | tinytex | 0.52 |
| narzędzia | 4.4.0 | Baza Danych Stref Czasowych (tzdb) | 0.4.0 | sprawdzacz URL | 1.0.1 |
| użyj tego | 3.0.0 | utf8 | 1.2.4 | oprogramowanie użytkowe | 4.4.0 |
| UUID (Uniwersalnie Unikalny Identyfikator) | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| włosek czuciowy | 0.4.1 | Withr | 3.0.1 | xfun | 0,46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | Xtable | 1.8-4 |
| yaml | 2.3.10 | zapał | 0.1.0 | zip | 2.3.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.638 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.638 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.638 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rodzimi |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rodzimi |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blask | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.3 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.2.19 |
| io.dropwizard.metrics | metryki-JVM | 4.2.19 |
| io.dropwizard.metrics | serwlety metryczne | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | Netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common (element wspólny) | 4.1.108.Final |
| io.netty | "netty-handler" | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | rozwiązywacz netty | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | Klasy netty-tcnative | 2.0.61.Final |
| io.netty | Netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea (pakiet oprogramowania) | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | program uruchamiający Ant | 1.10.11 |
| org.apache.arrow | format strzałki | 15.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | wektor strzałki | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-pamięć | 2.0.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | szablon układu log4j w formacie JSON | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | podkładki ORC | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | adnotacje dla widowni | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.9.2 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | API kolekcji Eclipse | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.40 |
| org.glassfish.jersey.core | serwer jersey | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | podkładki regulacyjne | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen Extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| Stax | stax-api | 1.0.1 |