Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 16.2 obsługiwanym przez platformę Apache Spark 3.5.2.
Usługa Databricks wydała tę wersję w lutym 2025 r.
Zmiany zachowania
Funkcja ANALYZE pomija teraz kolanki z nieobsługiwanymi typami
ANALYZE TABLE nie powoduje już wystąpienia komunikatu o błędzie podczas uruchamiania w tabeli z nieobsługiwanymi typami, takimi jak ARRAY lub MAP. Nieobsługiwane kolumny są teraz automatycznie pomijane. Użytkownicy, którzy zaimplementowali logikę, która oczekuje tych błędów, powinni zaktualizować kod.
W Delta Sharing historia tabel jest domyślnie włączona
Udziały utworzone przy użyciu polecenia SQL ALTER SHARE <share> ADD TABLE <table> teraz mają domyślnie włączone udostępnianie historii (WITH HISTORY). Zobacz: ALTER SHARE.
Instrukcje SQL dotyczące poświadczeń zwracają błąd, gdy pojawia się niezgodność typu poświadczeń.
Jeśli w tej wersji typ poświadczeń określony w instrukcji SQL zarządzania poświadczeniami nie jest zgodny z typem argumentu poświadczeń, zwracany jest błąd i instrukcja nie jest uruchamiana. Na przykład w przypadku oświadczenia DROP STORAGE CREDENTIAL 'credential-name', jeśli credential-name nie jest poświadczeniem magazynowym, oświadczenie zawodzi z powodu błędu.
Ta zmiana jest wprowadzana w celu zapobiegania błędom użytkownika. Wcześniej te instrukcje zostały uruchomione pomyślnie, nawet jeśli przekazano poświadczenia niezgodne z określonym typem poświadczeń. Na przykład następująca instrukcja pomyślnie usunie storage-credential: DROP SERVICE CREDENTIAL storage-credential.
Ta zmiana ma wpływ na następujące oświadczenia:
- DROP CREDENTIAL
- ALTER CREDENTIAL
- DESCRIBE CREDENTIAL
- GRANT…NA…POWIERNIK
- REVOKE…NA…POWIERNIK
- SHOW GRANTS ON... POŚWIADCZENIA
Nowe funkcje i ulepszenia
-
Tworzenie niestandardowych aplikacji stanowych za pomocą polecenia
transformWithState - Uwierzytelnianie w magazynie obiektów w chmurze przy użyciu poświadczeń usługi
- Zarządzany przez Katalog Unity dostęp do zewnętrznych usług w chmurze za pomocą poświadczeń usługowych jest teraz ogólnie dostępny
- Notesy są obsługiwane jako pliki obszaru roboczego
-
Używanie wyrażeń
timestampdifftimestampaddkolumn i w wygenerowanych kolumnach - Obsługa składni potoku SQL
-
Wysyłanie żądania HTTP przy użyciu
http_requestfunkcji -
Aktualizacja w celu zwracania
DESCRIBE TABLEmetadanych jako ustrukturyzowanego kodu JSON - Końcowe puste sortowania bez uwzględniania
- Konwertowanie tabel platformy Apache Iceberg z partycjonowaniem zasobnika na niepartycyjne tabele delty
-
Środowisko obliczeniowe w trybie dostępu w warstwie Standardowa (dawniej tryb dostępu współdzielonego) obsługuje teraz metody
foreachSpark Scala ,foreachBatchiflatMapGroupsWithState
Tworzenie niestandardowych aplikacji stanowych za pomocą polecenia transformWithState
Teraz możesz używać transformWithState interfejsów API i powiązanych do implementowania niestandardowych aplikacji stanowych w ramach zapytań przesyłania strumieniowego ze strukturą. Zobacz Tworzenie niestandardowej aplikacji stanowej.
Uwierzytelnianie w magazynie obiektów w chmurze przy użyciu poświadczeń usługi
Teraz możesz użyć poświadczeń usługi Databricks do uwierzytelniania w magazynie obiektów w chmurze za pomocą modułu automatycznego ładowania. Zobacz Configure Auto Loader streams in file notification mode (Konfigurowanie strumieni automatycznego modułu ładującego w trybie powiadomień plików).
Dostęp katalogu aparatu Unity do zewnętrznych usług w chmurze przy użyciu poświadczeń usługi jest teraz ogólnie dostępny
Poświadczenia usługi umożliwiają proste i bezpieczne uwierzytelnianie za pomocą usług dzierżawy chmury z usługi Azure Databricks. W środowisku Databricks Runtime 16.2 poświadczenia usługi są ogólnie dostępne i obsługują teraz zestawy SDK języka Scala oprócz zestawu SDK języka Python obsługiwanego w publicznej wersji zapoznawczej. Zobacz Tworzenie poświadczeń usługi.
Notesy są obsługiwane jako pliki obszaru roboczego
W środowisku Databricks Runtime 16.2 lub nowszym notesy są obsługiwane jako pliki obszaru roboczego. Teraz możesz programowo korzystać z notesów z dowolnego miejsca, w którym jest dostępny system plików obszaru roboczego, w tym zapisywanie, odczytywanie i usuwanie notesów, takich jak każdy inny plik. Aby dowiedzieć się więcej, zobacz Programowe tworzenie, aktualizowanie i usuwanie plików i katalogów.
Użyj timestampdiff i timestampadd w wyrażeniach kolumn wygenerowanych
W środowisku Databricks Runtime 16.2 lub nowszym można użyć funkcji timestampdiff i timestampadd w wyrażeniach kolumn wygenerowanych przez usługę Delta Lake. Zobacz kolumny wygenerowane przez Delta Lake .
Obsługa składni potoku SQL
W środowisku Databricks Runtime 16.2 lub nowszym można tworzyć potoki SQL. Pipeline SQL strukturyzuje standardowe zapytanie, takie jak SELECT c2 FROM T WHERE c1 = 5, w sekwencję kroków, jak pokazano w poniższym przykładzie.
FROM T
|> SELECT c2
|> WHERE c1 = 5
Aby dowiedzieć się więcej o obsługiwanej składni potoków SQL, zobacz Składnia potoku SQL.
Aby zapoznać się z tym rozszerzeniem międzysektorowym, zobacz SQL Has Problems (Problemy z SQL). Możemy je naprawić: składnia potoku w SQL (Google Research).
Wysyłanie żądania HTTP przy użyciu http_request funkcji
W środowisku Databricks Runtime 16.2 lub nowszym można utworzyć połączenia HTTP i za ich pośrednictwem wysyłać żądania HTTP przy użyciu funkcji http_request .
Aktualizacja DESCRIBE TABLE zwraca metadane jako ustrukturyzowany JSON
W środowisku Databricks Runtime 16.2 lub nowszym można użyć DESCRIBE TABLE AS JSON polecenia , aby zwrócić metadane tabeli jako dokument JSON. Dane wyjściowe JSON są bardziej ustrukturyzowane niż domyślny raport czytelny dla człowieka i mogą służyć do programowego interpretowania schematu tabeli. Aby dowiedzieć się więcej, zobacz DESCRIBE TABLE AS JSON.
Końcowe porównania niewrażliwe na wielkość liter
Środowisko Databricks Runtime 16.2 dodaje obsługę końcowych sortowania bez uwzględniania, dodając obsługę sortowania dodanego w środowisku Databricks Runtime 16.1. Na przykład te sortowania traktują 'Hello' i 'Hello ' jako równe. Więcej informacji można znaleźć w porządku sortowania RTRIM.
Konwertowanie tabel platformy Apache Iceberg z partycjonowaniem zasobnika na niepartycyjne tabele delty
Instrukcje CONVERT TO DELTA i CREATE TABLE CLONE obsługują teraz konwertowanie tabeli Apache Iceberg z partycjonowaniem zasobnika na niepartycjonowaną tabelę delty.
Środowisko obliczeniowe w trybie dostępu w warstwie Standardowa (dawniej tryb dostępu współdzielonego) obsługuje teraz metody foreachSpark Scala , foreachBatchi flatMapGroupsWithState
W środowisku Databricks Runtime 16.2 lub nowszym środowisko obliczeniowe w trybie dostępu standardowego obsługuje teraz metody DataStreamWriter.foreachBatch Języka Scala i KeyValueGroupedDataset.flatMapGroupsWithState. W środowisku Databricks Runtime 16.1 lub nowszym środowisko obliczeniowe w trybie dostępu standardowego obsługuje teraz metodę DataStreamWriter.foreachScala.
Poprawki błędów
Ulepszone przetwarzanie klonowania przyrostowego
Ta wersja zawiera poprawkę dla przypadku brzegowego, w którym inkrementalne CLONE mogą ponownie kopiować już skopiowane pliki z tabeli źródłowej do tabeli docelowej. Zobacz Klonowanie tabeli w usłudze Azure Databricks.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- org.json4s.json4s-ast_2.12 z 3.7.0-M11 do 4.0.7
- org.json4s.json4s-core_2.12 z 3.7.0-M11 do 4.0.7
- org.json4s.json4s-jackson_2.12 z 3.7.0-M11 do 4.0.7
- org.json4s.json4s-scalap_2.12 z 3.7.0-M11 do 4.0.7
Apache Spark
Środowisko Databricks Runtime 16.2 obejmuje platformę Apache Spark 3.5.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 16.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
-
[SPARK-49966] Przywróć "[SC-179501][sql] Użyj
Invokedo zaimplementowaniaJsonToStructs(from_json)" - [SPARK-50904] [SC-186976][sql] Fix collation expression walker query execution (Rozwiązywanie problemów z wykonywaniem zapytań wyrażeń sortowania)
- [SPARK-49666] [ SQL] Włączanie testów przycinania dla wyrażenia InSet
- [SPARK-50669] [SC-184566][es-1327450][SQL] Zmienianie podpisu wyrażenia TimestampAdd
-
[SPARK-50795] [16.x][sc-186719][SQL] Przechowuj znacznik czasu jako typ
longwdescribeLinkedHashMap - [SPARK-50870] [ SC-186950][sql] Dodaj strefę czasową podczas rzutowania do znacznika czasu w V2ScanRelationPushDown
- [SPARK-50735] [ SC-186944][connect] Niepowodzenie w funkcji ExecuteResponseObserver powoduje nieskończone ponowne przyłączenie żądań
- [SPARK-50522] [ SC-186500][sql] Obsługa sortowania nieokreślonego
- [SPARK-50525] [ SC-186058][sql] Define InsertMapSortInRepartitionExpressions Rule
- [SPARK-50679] [ SC-184572][sql] Zduplikowane wyrażenia wspólne w różnych elementach With powinny być przewidywane tylko raz
- [SPARK-50847] [SC-186916] [SQL] Odmów applyCharTypePadding z stosowania dla określonych wyrażeń In
- [SPARK-50714] [SC-186786][sql][SS] Włączanie ewolucji schematu dla transformWithState, gdy używane jest kodowanie Avro
-
[SPARK-50795] [ SC-186390][sql] Wyświetl wszystkie daty DESCRIBE AS JSON w formacie ISO-8601 i typach jako
dataType.simpleString - [SPARK-50561] [ SC-185924][sql] DBR 16.x cherrypick: Ulepszanie przymusu typu i sprawdzania granic dla funkcji UNIFORM SQL
-
[SPARK-50700] [SC-184845][sql]
spark.sql.catalog.spark_catalogobsługujebuiltinwartość magic - [SPARK-50831] [ SC-186736][sql] Włączanie sortowania przycinania domyślnie
-
[SPARK-50263] [SC-186793][connect] Zamień na
System.currentTimeMillisSystem.nanoTime - [SPARK-48730] [ SC-184926][sql] Implement createSQLFunctionCommand for SQL Scalar and Table Functions
- [SPARK-50830] [SC-186718] [SQL] Return single-pass result as the dual run analysis result (Wynik analizy dwubiegowej)
- [SPARK-50707] [SC-186098][sql] Włączanie rzutowania do/z char/varchar
- [SPARK-49490] [SC-182137][sql] Dodawanie testów porównawczych dla initCap
-
[SPARK-50529] [SC-184535][sql] Zmień zachowanie char/varchar w
spark.sql.preserveCharVarcharTypeInforamach konfiguracji - [SPARK-49632] [ SC-184179][sql] Usuń sugestię konfiguracji ANSI w CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [ SC-186487][python][SQL] Naprawiono usterkę polegającą na tym, że przekazywanie wariantów null w elemecie createDataFrame powoduje niepowodzenie i dodanie obsługi wariantu w elemenie createDataFrame w programie Spark Connect
-
[SPARK-50828] [SC-186493][python][ML][connect] Przestarzałe
pyspark.ml.connect - [SPARK-50600] [SC-186057][connect][SQL] Ustaw analizowane w przypadku niepowodzenia analizy
- [SPARK-50824] [ SC-186472][python] Unikaj importowania opcjonalnych pakietów języka Python do sprawdzania
- [SPARK-50755] [SC-185521][sql] Wyświetlanie ładnego planu dla tabeli InsertIntoHiveTable
- [SPARK-50789] [ SC-186312][connect] Dane wejściowe dla typowanych agregacji powinny być analizowane
- [SPARK-50791] [SC-185867][sc-186338][SQL] Naprawianie serwera NPE w obsłudze błędów magazynu stanów
-
[SPARK-50801] [ SC-186365] [SQL] Ulepszanie
PlanLogger.logPlanResolution, dzięki czemu pokazuje tylko nierozwiązane i rozwiązane plany - [SPARK-50749] [ SC-185925][sql] Naprawiono usterkę porządkowania w metodzie CommutativeExpression.gatherCommutative
- [SPARK-50783] [ SC-186347] Canonicalize JVM profiler nazwa pliku wyników i układ w systemie plików DFS
- [SPARK-50790] [SC-186354][python] Implementowanie parse json w pyspark
- [SPARK-50738] [ SC-184856][python] Uaktualnij do wersji 23.12.1
- [SPARK-50764] [ SC-185930][python] Uściślij dokumentację metod związanych z xpath
-
[SPARK-50798] [SC-186277][sql] Ulepszanie
NormalizePlan - [SPARK-49883] [SC-183787][ss] Integracja Struktury Punktu Kontrolnego Sklepu Stanów V2 z RocksDB i RocksDBFileManager
- [SPARK-50779] [ SC-186062][sql] Dodawanie flagi funkcji dla sortowania na poziomie obiektu
- [SPARK-50778] [SC-186183][python] Dodawanie kolumny metadanych do ramki danych PySpark
- [SPARK-49565] [ SC-186056][sql] DBR 16.x cherrypick: Ulepszanie aliasów wyrażeń generowanych automatycznie za pomocą operatorów SQL potoku
- [SPARK-50541] [16.x][sc-184937] Opis tabeli jako JSON
- [SPARK-50772] [ SC-185923][sql] DBR 16.x cherrypick: Zachowaj aliasy tabeli po SEToperatorach EXTEND, DROP
- [SPARK-50769] [SC-185919][sql] Fix ClassCastException in HistogramNumeric
- [SPARK-49025] [SC-174667] Różnice kodu różnicowego synchronizacji z DBR
- [SPARK-50752] [SC-185547][python][SQL] Wprowadzenie konfiguracji do dostrajania funkcji zdefiniowanej przez użytkownika języka Python bez strzałki
-
[SPARK-50705] [SC-185944][sql] Tworzenie
QueryPlanblokady bez blokady - [SPARK-50690] [16.x][sc-184640][SQL] Naprawa rozbieżności w DESCRIBE TABLE kolumnach wyjściowych zapytania widoku
- [SPARK-50746] [SC-184932][sql] Zamień element albo na VariantPathSegment.
-
[SPARK-50715] [ SC-185546][python][CONNECT]
SparkSession.Builderustawia konfiguracje w partii - [SPARK-50480] [ SC-183359][sql] Extend CharType and VarcharType from StringType
- [SPARK-50675] [SC-184539][sql] Obsługa sortowania na poziomie tabeli i widoku
-
[SPARK-50409] [SC-184516][sql] Poprawiono instrukcję set, która ma być ignorowana
;na końcu ,SET;SET -v;iSET key; - [SPARK-50743] [ SC-185528][sql] Normalize CTERelationDef and CTERelationRef IDs (Normalizacja identyfikatorów CTERelationDef i CTERelationRef)
- [SPARK-50693] [ SC-184684][connect] Dane wejściowe dla typedScalaUdf powinny być analizowane
- [SPARK-50744] [ SC-184929][sql] Dodawanie przypadku testowego dla pierwszeństwa rozpoznawania nazw widoku/CTE
- [SPARK-50710] [ SC-184767][connect] Dodaj obsługę opcjonalnego ponownego nawiązywania połączenia z sesjami po wydaniu
- [SPARK-50703] [ SC-184843][python] Uściślij dokumentację regexp_replace, regexp_substr i regexp_instr
-
[SPARK-50716] [ SC-184823][core] Naprawiono logikę oczyszczania linków symbolicznych w
JavaUtils.deleteRecursivelyUsingJavaIOmetodzie - [SPARK-50630] [SC-184443][sql] Obsługa GROUP BY porządkowa dla operatorów potoku SQL AGGREGATE
- [SPARK-50614] [ SC-184729][sql] Dodano obsługę niszczania wariantów dla parquet
- [SPARK-50661] [ SASP-4936] Dodaj zgodność wsteczną dla starego klienta LUTEGO.
-
[SPARK-50676] [SC-184641][sql] Usuń nieużywane
private lazy val mapValueContainsNullzElementAt -
[SPARK-50515] [ SC-183813][core] Dodawanie interfejsu tylko do odczytu do
SparkConf - [SPARK-50697] [SC-184702][sql] Włączanie rekursji ogona wszędzie tam, gdzie to możliwe
- [SPARK-50642] [SC-184726][sc-183517][CONNECT][ss][2/N][16.x]Napraw schemat stanu dla flatMapGroupsWithState w połączeniu spark, gdy nie ma stanu początkowego
- [SPARK-50701] [ SC-184704][python] Tworzenie kreślenia wymaga minimalnej wersji wykresu
- [SPARK-50702] [ SC-184727][python] Uściślij dokumentację regexp_count, regexp_extract i regexp_extract_all
- [SPARK-50499] [ SC-184177][python] Uwidaczniaj metryki z modułu BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Dodawanie obsługi wypychania RPAD
- [SPARK-50682] [ SC-184579][sql] Alias wewnętrzny powinien być kanoniczny
- [SPARK-50699] [ SC-184695][python] Analizowanie i generowanie ciągu DDL z określoną sesją
- [SPARK-50573] [ SC-184568][ss] Dodawanie identyfikatora schematu stanu do wierszy stanu do ewolucji schematu
- [SPARK-50661] [ SC-184639][connect][SS][sasp-4936] Fix Spark Connect Scala foreachBatch impl. do obsługi zestawu danych[T].
- [SPARK-50689] [ SC-184591][sql] Wymuszanie określania kolejności na listach projektów LCA
- [SPARK-50696] [ SC-184667][python] Optymalizacja wywołania Py4J dla metody analizy DDL
- [SPARK-49670] [ SC-182902][sql] Włączanie sortowania przycinania dla wszystkich wyrażeń przekazywania
-
[SPARK-50673] [ SC-184565][ml] Unikaj przechodzenia współczynników modelu dwa razy w
Word2VecModelkonstruktorze - [SPARK-50687] [ SC-184588][python] Optymalizacja logiki w celu pobrania śladów stosu dla elementu DataFrameQueryContext
- [SPARK-50681] [ SC-184662][python][CONNECT] Buforowanie przeanalizowanego schematu mapInXXX i ApplyInXXX
- [SPARK-50674] [ SC-184589][python] Poprawka sprawdzania istnienia metody "terminate" w ocenie UDTF
- [SPARK-50684] [SC-184582][python] Zwiększanie wydajności Py4J w obiekcie DataFrameQueryContext
- [SPARK-50578] [DBR16.x][sc-184559][PYTHON][ss] Dodano obsługę nowej wersji metadanych stanu dla transformWithStateInPandas
- [SPARK-50602] [ SC-184439][sql] Poprawka transponowania w celu wyświetlenia prawidłowego komunikatu o błędzie, gdy określono nieprawidłowe kolumny indeksu
- [SPARK-50650] [ SC-184532][sql] Ulepszanie rejestrowania w analizatorze jednoprzepustowym
- [SPARK-50665] [SC-184533][sql] Zastąp element LocalRelation wartością ComparableLocalRelation in NormalizePlan
- [SPARK-50644] [ SC-184486][sql] Odczyt struktury wariantu w czytniku Parquet.
- [SPARK-49636] [ SC-184089][sql] Usuń sugestię konfiguracji ANSI w INVALID_ARRAY_INDEX i INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [ SC-184514][sql] Ponowne obliczanie danych wyjściowych unii w celu ponownego użycia w analizatorze jednoprzepustowym
- [SPARK-50659] [ SC-184512][sql] Przenoszenie błędów związanych z unią do błędu QueryCompilationErrors
- [SPARK-50530] [SC-183419][sql] Poprawiono nieprawidłowe obliczenie kontekstu typu ciągu niejawnego
- [SPARK-50546] [SC-183807][sql] Dodano obsługę rzutowania podzapytania do typu sortowania
- [SPARK-50405] [ SC-182889][sql] Obsługa typ sortowania dla typów złożonych danych prawidłowo
- [SPARK-50637] [ SC-184434][sql] Poprawiono styl kodu dla analizatora jednoprzepustowego
- [SPARK-50638] [ SC-184435][sql] Refaktoryzacja rozpoznawania widoku do oddzielnego pliku w celu ponownego użycia go w analizatorze z pojedynczym przekazywaniem
- [SPARK-50615] [ SC-184298][sql] Wypchnij wariant do skanowania.
- [SPARK-50619] [ SC-184210][sql] Refactor VariantGet.cast w celu spakowania argumentów rzutowania
- [SPARK-50599] [ SC-184058][sql] Tworzenie cechy dataEncoder, która umożliwia kodowanie Avro i UnsafeRow
- [SPARK-50076] [SC-183809] Naprawianie kluczy dziennika
- [SPARK-50597] [SC-183972][sql] Refaktoryzacja konstrukcji pakietów w Optimizer.scala i SparkOptimizer.scala
- [SPARK-50339] [SC-183063][spark-50360][SS] Włączanie dziennika zmian w celu przechowywania informacji o pochodzenia danych
- [SPARK-50526] [ SC-183811][ss] Dodawanie formatu kodowania magazynu conf into offset log and block non supported stateful operators from using avro
- [SPARK-50540] [SC-183810][python][SS] Fix string schema for StatefulProcessorHandle
- [SPARK-50157] [ SC-183789][sql] Używanie narzędzia SQLConf dostarczonego przez platformę SparkSession najpierw.
- [SPARK-48898] [ SC-183793][sql] Poprawnie ustaw wartość null w schemacie Wariant
- [SPARK-50559] [ SC-183814][sql] Store Except, Intersect and Union's outputs as lazy vals
- [SPARK-48416] [ SC-183643][sql] Obsługa zagnieżdżonych skorelowanych z wyrażeniem
- [SPARK-50428] [SC-183566][ss][PYTHON] Obsługa transformWithStateInPandas w zapytaniach wsadowych
- [SPARK-50063] [ SC-183350][sql][CONNECT] Dodawanie obsługi wariantu w kliencie Spark Connect Scala
-
[SPARK-50544] [SC-183569][python][CONNECT] Implementowanie
StructType.toDDL - [SPARK-50443] [ SC-182590][ss] Naprawianie błędów kompilacji maven wprowadzonych przez pamięć podręczną Guava w RocksDBStateStoreProvider
- [SPARK-50491] [ SC-183434][sql] Naprawiono usterkę polegającą na tym, że puste bloki BEGIN END zgłaszały błąd
-
[SPARK-50536] [SC-183443][core] Rozmiary pobranych plików archiwum i
SparkContextExecutor - [SPARK-45891] [ SC-183439][sql] Odbudować wariant binarny z rozdrobnionych danych.
- [SPARK-49565] [ SC-183465][sql] Dodawanie składni potoku SQL dla operatora FROM
- [SPARK-50497] [ SC-183338][sql] Niepowodzenie zapytań z prawidłowym komunikatem, jeśli funkcja MultiAlias zawiera funkcję niegeneracyjną
- [SPARK-50460] [ SC-183375][python][CONNECT] Uogólnianie i upraszczanie obsługi wyjątków connect
-
[SPARK-50537] [SC-183452][connect][PYTHON] Poprawka opcji kompresji zastępowanej w
df.write.parquet - [SPARK-50329] [SC-183358][sql] poprawić InSet$toString
-
[SPARK-50524] [ SC-183364][sql] Niższy
RowBasedKeyValueBatch.spillkomunikat ostrzegawczy do poziomu debugowania -
[SPARK-50528] [ SC-183385][connect] Move to common module (Przenoszenie
InvalidCommandInputdo wspólnego modułu) - [SPARK-50017] [SC-182438][ss] Obsługa kodowania Avro dla operatora TransformWithState
-
[SPARK-50463] [SC-182833][sql] Poprawka
ConstantColumnVectorz konwersją kolumn na wiersz - [SPARK-50235] [SC-180786][sql] Czyszczenie zasobu ColumnVector po przetworzeniu wszystkich wierszy w kolumnie ColumnarToRowExec
- [SPARK-50516] [ SC-183279][ss][MINOR] Naprawiono test związany ze stanem inicjowania, aby użyć usługi StreamManualClock
- [SPARK-50478] [SC-183188][sql] Naprawa dopasowania StringType
- [SPARK-50492] [SC-183177][ss] Fix java.util.NoSuchElementException when event time column is dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][sql] Dodawanie składni potoku SET SQL dla operatora
- [SPARK-50449] [SC-183178][sql] Poprawka gramatyki skryptów SQL, umożliwiając puste elementy pętli, IF i CASE
-
[SPARK-50251] [ SC-180970][python] Add
getSystemPropertyto PySparkSparkContext - [SPARK-50421] [ SC-183091][core] Poprawka konfiguracji pamięci powiązanej z funkcją wykonawcza niepoprawną, gdy wiele profilów zasobów działało
- [SPARK-49461] [ SC-179572][ss] Trwały identyfikator punktu kontrolnego w celu zatwierdzenia dzienników i odczytania go z powrotem
- [SPARK-50343] [SC-183119][spark-50344][SQL] Dodawanie składni potoku SQL dla operatorów DROP i AS
-
[SPARK-50481] [ SC-182880][core] Ulepszanie
SortShuffleManager.unregisterShuffle, aby pominąć logikę pliku sumy kontrolnej, jeśli suma kontrolna jest wyłączona -
[SPARK-50498] [ SC-183090][python] Unikaj niepotrzebnego wywołania py4j w
listFunctions -
[SPARK-50489] [SC-183053][sql][PYTHON] Napraw samosprzężenie po
applyInArrow - [SPARK-49695] [SC-182967][sc-176968][SQL] Postgres fix xor push-down
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Aktualizacje konserwacji
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 16.2.
Środowisko systemu
-
System operacyjny: Ubuntu 24.04.1 LTS
- Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery środowiska Databricks Runtime działają na maszynach wirtualnych dostawcy chmury, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Zainstalowane biblioteki języka Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| typy z adnotacjami | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autopolecenia | 2.2.2 | azure-core | 1.31.0 | Azure Storage Blob | 12.23.0 |
| Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) | 12.17.0 | backports.tarfile | 1.2.0 | czarny | 24.4.2 |
| kierunkowskaz | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools (narzędzia do zarządzania pamięcią podręczną) | 5.3.3 | certyfikat | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | normalizator zestawu znaków | 2.0.4 | kliknij | 8.1.7 |
| cloudpickle (biblioteka Python do serializacji obiektów) | 2.2.1 | Comm | 0.2.1 | konturowy | 1.2.0 |
| kryptografia | 42.0.5 | rowerzysta | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| dekorator | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| konwersja docstring na markdown | 0.11 | punkty wejścia | 0,4 | Wykonywanie | 0.8.3 |
| aspekty — omówienie | 1.1.1 | blokada plików | 3.15.4 | fonttools | 4.51.0 |
| gitdb (baza danych Git) | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth (autoryzacja Google) | 2.35.0 | google-cloud-core | 2.4.1 | Google Cloud Storage (usługa przechowywania danych w chmurze od Google) | 2.18.2 |
| google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) | 1.6.0 | Google Media z Możliwością Wznowienia | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | status grpcio | 1.60.0 | httplib2 | 0.20.4 |
| IDNA | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| odchylić | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | biblioteka matplotlib | 3.8.4 | biblioteka matplotlib-inline | 0.1.6 |
| Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | więcej itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
| opakowanie | 24.1 | Pandas | 1.5.3 | parso | 0.8.3 |
| specyfikacja ścieżki | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
| poduszka | 10.3.0 | pip (menedżer pakietów Pythona) | 24.2 | platformdirs | 3.10.0 |
| kreślenie | 5.22.0 | wtyczkowy | 1.0.0 | zestaw narzędzi prompt | 3.0.43 |
| proto-plus | 1.24.0 | Protobuf (w skrócie od Protocol Buffers) | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes (narzędzie do analizy statycznej kodu Python) | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.9 | pyright | 1.1.294 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
| pytz (biblioteka Pythona do obliczeń stref czasowych) | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| żądania | 2.32.2 | lina | 1.12.0 | RSA | 4.9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy (biblioteka naukowa dla Pythona) | 1.13.1 |
| urodzony na morzu | 0.13.2 | setuptools | 74.0.0 | Sześć | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5,11 |
| stos danych | 0.2.0 | statsmodels - biblioteka do modelowania statystycznego | 0.14.2 | Wytrzymałość | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlety | 5.14.3 | osłona typów | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | moduł typing_extensions | 4.11.0 |
| ujson (szybka biblioteka do obsługi formatu JSON) | 5.10.0 | nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | szerokość(wcwidth) | 0.2.5 |
| czymjestłatka | 1.0.2 | wheel | 0.43.0 | zawijanie | 1.14.1 |
| yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) | 0.33.0 | zamek błyskawiczny | 3.17.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN Menedżera pakietów Posit w wersji 2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| strzała | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports (backports) | 1.5.0 | baza | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | blob | 1.2.4 | bagażnik | 1.3-30 |
| warzyć | 1.0-10 | Brio | 1.1.5 | miotła | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | obiekt wywołujący | 3.7.6 |
| karetka | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| klasa | 7.3-22 | Cli | 3.6.3 | clipr | 0.8.0 |
| zegar | 0.7.1 | klaster | 2.1.6 | codetools | 0.2-20 |
| przestrzeń kolorów | 2.1-1 | commonmark | 1.9.1 | kompilator | 4.4.0 |
| config | 0.3.2 | Konflikt | 1.2.0 | cpp11 | 0.4.7 |
| kredka | 1.5.3 | dane logowania | 2.0.1 | lok | 5.2.1 |
| data.table | 1.15.4 | zbiory danych | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.36 |
| downlit (wyłączony) | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | wielokropek | 0.3.2 | oceniać | 0.24.0 |
| fani | 1.0.6 | farver | 2.1.2 | szybka mapa | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| zagraniczny | 0.8-86 | kuźnia | 0.2.0 | fs | 1.6.4 |
| przyszłość | 1.34.0 | future.apply | 1.11.2 | płukać gardło | 1.5.2 |
| typy ogólne | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
| Gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globalna | 0.16.3 | klej | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafika | 4.4.0 | grDevices | 4.4.0 | siatka | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | przystań | 2.5.4 |
| wysoki | 0.11 | Hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | Identyfikatory | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Iteratory | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | soicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | Etykietowania | 0.4.3 |
| później | 1.3.2 | krata | 0.22-5 | lawa | 1.8.0 |
| cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matryca | 1.6-5 | zapamiętywanie | 2.0.1 | Metody | 4.4.0 |
| mgcv | 1.9-1 | mim | 0,12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | Metryki modelu | 1.2.2.2 | modeler | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | równoległy | 4.4.0 |
| równolegle | 1.38.0 | filar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
| prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | postęp | 1.2.3 |
| progressr | 0.14.0 | Obietnice | 1.3.0 | Proto | 1.0.0 |
| serwer proxy | 0.4-27 | PS | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | z możliwością reagowania | 0.4.4 |
| ReactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| Przepisy | 1.1.0 | rewanż | 2.0.0 | rewanż2 | 2.1.2 |
| Piloty | 2.5.0 | reprex | 2.1.1 | zmień kształt2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions (rversions) | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| waga | 1.3.0 | selektor | 0.4-2 | sessioninfo | 1.2.2 |
| kształt | 1.4.6.1 | błyszczący | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.2 | przestrzenny | 7.3-17 |
| Splajnów | 4.4.0 | sqldf | 0.4-11 | KWADRAT | 2021.1 |
| Statystyki | 4.4.0 | stats4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | przetrwanie | 3.6-4 | Puszyć | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | textshaping | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyverse | 2.0.0 |
| zmiana czasu | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| Narzędzia | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | narzędzia | 4.4.0 |
| uuid | 1.2-1 | Wersja 8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | Vroom | 1.6.5 | Waldo | 0.5.2 |
| wąs | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | gorliwość | 0.1.0 | zamek | 2.3.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-klej | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-cieniowane | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | adnotacje jackson | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system java | 1.1 |
| com.github.fommil.netlib | native_system java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | guawa | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednowołciowości | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | serwlety metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | transport netto | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | Pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | format strzałki | 15.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | wektor strzałki | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | struktura kuratora | 2.13.0 |
| org.apache.curator | przepisy kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | podkładki orc-shim | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-cieniowane | 4.23 |
| org.apache.yetus | adnotacje odbiorców | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | jute dozorców | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | kolekcje eclipse | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 4.0.7 |
| org.json4s | json4s-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
| org.json4s | json4s-jackson_2.12 | 4.0.7 |
| org.json4s | json4s-scalap_2.12 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | Podkładki | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | trzydostępne dodatkowe | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |