Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 15.3 obsługiwanym przez platformę Apache Spark 3.5.0.
Usługa Databricks wydała tę wersję w czerwcu 2024 r.
Nowe funkcje i ulepszenia
Źródła danych PySpark obsługują teraz odczytywanie i zapisywanie strumienia
PySpark DataSources, które umożliwiają odczytywanie z niestandardowych źródeł danych i zapisywanie w niestandardowych ujściach danych, teraz obsługują odczytywanie i zapisywanie strumienia. Zobacz Niestandardowe źródła danych PySpark.
Wyłącz mapowanie kolumn za pomocą funkcji usuwania
Teraz możesz użyć DROP FEATURE, aby wyłączyć mapowanie kolumn w tabelach delty i obniżyć protokół tabeli. Zobacz Wyłącz mapowanie kolumn.
Składnia typów wariantów i funkcje w publicznej wersji zapoznawczej
Natywna obsługa platformy Apache Spark do pracy z danymi częściowo ustrukturyzowanymi, ponieważ VARIANT typ jest teraz dostępny w ramkach danych platformy Spark i w języku SQL. Zobacz Dane wariantu zapytania.
Obsługa typu zmiennego dla Delta Lake w publicznej wersji zapoznawczej
Teraz można użyć VARIANT do przechowywania częściowo ustrukturyzowanych danych w tabelach wspieranych przez usługę Delta Lake. Zapoznaj się z obsługą wariantów w systemie Delta Lake.
Obsługa różnych trybów ewolucji schematu w widokach
CREATE VIEW i ALTER VIEW teraz pozwalają ustawić tryb powiązania schematu, poprawiając sposób, w jaki widoki obsługują zmiany schematu w obiektach bazowych. Ta funkcja umożliwia widokom tolerowanie lub dostosowanie się do zmian w schemacie obiektów bazowych. Adresuje on zmiany w schemacie zapytania wynikające z modyfikacji definicji obiektów.
observe() Obsługa metod dodanych do klienta Spark Connect Scala
Klient Spark Connect Scala obsługuje Dataset.observe() teraz metody . Obsługa tych metod umożliwia zdefiniowanie metryk do obserwowania na Dataset obiekcie przy użyciu ds.observe("name", metrics...) metod lub ds.observe(observationObject, metrics...) .
Ulepszone opóźnienie ponownego uruchamiania strumienia dla modułu ładującego automatycznego
Ta wersja zawiera zmianę, która poprawia opóźnienie ponownego uruchamiania strumienia dla automatycznego modułu ładującego. To ulepszenie zostało wdrożone poprzez asynchroniczne ładowanie stanu w magazynie stanów baz danych RocksDB. Dzięki tej zmianie powinna zostać wyświetlona poprawa czasu rozpoczęcia strumieni z dużymi stanami, na przykład strumieni z dużą liczbą już pozyskanych plików.
Zwracanie ramki danych jako elementu pyarrow.Table
Aby obsługiwać pisanie ramki danych bezpośrednio do obiektu Apache Arrow pyarrow.Table , ta wersja zawiera DataFrame.toArrow() funkcję . Aby dowiedzieć się więcej o korzystaniu ze strzałki w PySpark, zobacz Apache Arrow in PySpark (Strzałka w PySpark).
Poprawa wydajności niektórych funkcji okna
Ta wersja zawiera zmianę, która poprawia wydajność niektórych funkcji okna platformy Spark, w szczególności funkcji, które nie zawierają klauzuli ORDER BY ani parametru window_frame. W takich przypadkach system może ponownie napisać zapytanie, aby uruchomić je przy użyciu funkcji agregującej. Ta zmiana umożliwia szybsze wykonanie zapytania dzięki użyciu częściowej agregacji i unikaniu narzutu związanego z uruchamianiem funkcji okienkowych. Parametr konfiguracji platformy Spark spark.databricks.optimizer.replaceWindowsWithAggregates.enabled kontroluje tę optymalizację i jest domyślnie ustawiony na true. Aby wyłączyć tę optymalizację, ustaw spark.databricks.optimizer.replaceWindowsWithAggregates.enabled na wartość false.
Dodano obsługę funkcji try_mod
W tej wersji dodano obsługę funkcji PySpark try_mod(). Ta funkcja obsługuje obliczanie zgodne z językiem SQL ANSI reszty całkowitej z dzielenia dwóch wartości liczbowych. Jeśli argument dzielnika wynosi 0, funkcja try_mod() zwraca wartość null zamiast zgłaszać wyjątek. Można użyć try_mod() funkcji zamiast mod lub %, która zgłasza wyjątek, jeśli argument dzielnika to 0, a usługa ANSI SQL jest włączona.
Obsługa opcjonalnego parametru zakresu w parametrze list_secrets()
Ta wersja umożliwia ograniczenie wyników funkcji tabeli list_secrets() do określonego zakresu.
Poprawki błędów
WriteIntoDeltaCommand metryki w interfejsie użytkownika platformy Spark są teraz wyświetlane poprawnie
Ta wersja zawiera poprawkę metryk wyświetlanych na karcie SQL interfejsu użytkownika platformy Spark dla węzła Execute WriteIntoDeltaCommand . Wcześniej metryki wyświetlane dla tego węzła były zerowe.
groupby() Funkcja w interfejsie API biblioteki Pandas zignorowała as_index=False argument
Ta wersja zawiera poprawkę problemu groupby() z funkcją w interfejsie API biblioteki Pandas na platformie Spark. Przed wykonaniem tej poprawki element groupby() z ponowną etykietacją kolumn agregujących i argumentem as_index=False nie zawierał kluczy grupy w wynikowym DataFrame.
Błąd parsowania związany z wieloma funkcjami okna odwołującymi się do danych wyjściowych z innych funkcji.
W tej wersji rozwiązano problem, który może wystąpić, gdy zapytanie platformy Spark ma wiele kolejnych funkcji okna, w których funkcje okna odwołują się do danych wyjściowych z innych funkcji okna. W rzadkich przypadkach system może porzucić jedno z odwołań, co prowadzi do błędów podczas oceniania zapytania. Spowoduje to naprawienie tych odwołań w celu zapewnienia oceny zapytań. Ta zmiana jest kontrolowana przez parametr spark.databricks.optimizer.collapseWindows.projectReferenceskonfiguracji platformy Spark , który jest domyślnie ustawiony na true wartość . Aby wyłączyć tę zmianę, ustaw spark.databricks.optimizer.collapseWindows.projectReferences na false.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- filelock z wersji 3.13.1 do 3.13.4
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- org.rocksdb.rocksdbjni z wersji 8.3.2 do 8.11.4
Apache Spark
Środowisko Databricks Runtime 15.3 obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 15.2 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-48211] [DBRRM-1041][15.x][15.3] Przywróć "[SC-165552][sql] DB2: Odczyt smallint jako Sho…
- [SPARK-47904] [DBRRM-1040][behave-33][SC-163409] Cofnij SPARK-47904: Zachowaj wielkość liter w schemacie Avro przy użyciu enableStableIdentifiersForUnionType
- [SPARK-48288] [SC-166141] Dodawanie typu danych źródłowych dla wyrażenia rzutowego łącznika
- [SPARK-48175] [ SC-166341][sql][PYTHON] Przechowywanie informacji sortowania w metadanych, a nie w typie SER/DE
- [SPARK-48172] [SC-166078][sql] Rozwiązywanie problemów z ucieczką w narzędziach JDBCDialects
- [SPARK-48186] [SC-165544][sql] Dodaj obsługę AbstractMapType
- [SPARK-48031] [ SC-166523] Starsze widoki SCHEMA na BINDING
-
[SPARK-48369] [SC-166566][sql][PYTHON][connect] Dodaj funkcję
timestamp_add - [SPARK-48330] [ SC-166458][ss][PYTHON] Naprawiono problem z przekroczeniem limitu czasu w źródle danych przesyłania strumieniowego dla języka Python w przypadku długiego interwału wyzwalacza.
-
[SPARK-48369] Przywróć "[SC-166494][sql][PYTHON][connect] Dodaj funkcję
timestamp_add" -
[SPARK-48336] [SC-166495][ps][CONNECT] Implement
ps.sqlin Spark Connect -
[SPARK-48369] [SC-166494][sql][PYTHON][connect] Dodaj funkcję
timestamp_add - [SPARK-47354] [ SC-165546][sql] Dodano obsługę sortowania dla wyrażeń wariantów
- [SPARK-48161] [ SC-165325][sql] Poprawka cofniętego pull requestu — dodanie obsługi sortowania dla wyrażeń JSON
- [SPARK-48031] [SC-166391] Przeanalizuj konfigurację viewSchemaMode, dodaj obsługę SHOW CREATE TABLE
- [SPARK-48268] [SC-166217][core] Dodaj konfigurację dla SparkContext.setCheckpointDir
- [SPARK-48312] [ES-1076198][sql] Poprawa wydajności funkcji Alias.removeNonInheritableMetadata
- [SPARK-48294] [SC-166205][sql] Obsłuż małe litery w nestedTypeMissingElementTypeError
- [SPARK-47254] [SC-158847][sql] Przypisywanie nazw do klas błędów _LEGACY_ERROR_TEMP_325[1–9]
- [SPARK-47255] [SC-158749][sql] Przypisz nazwy do klas błędów _LEGACY_ERROR_TEMP_323[6–7] i _LEGACY_ERROR_TEMP_324[7-9]
- [SPARK-48310] [SC-166239][python][CONNECT] Właściwości buforowane muszą zwracać kopie
- [SPARK-48308] [SC-166152][core] Ujednolicenie uzyskiwania schematu danych bez kolumn partycji w FileSourceStrategy
-
[SPARK-48301] [SC-166143][sql] Zmień nazwę
CREATE_FUNC_WITH_IF_NOT_EXISTS_AND_REPLACEnaCREATE_ROUTINE_WITH_IF_NOT_EXISTS_AND_REPLACE -
[SPARK-48287] [SC-166139][ps][CONNECT] Zastosuj metodę builtin
timestamp_diff - [SPARK-47607] [SC-166129] Dodawanie dokumentacji dotyczącej struktury rejestrowania strukturalnego
- [SPARK-48297] [SC-166136][sql] Poprawka klauzuli TRANSFORM regresji za pomocą znaku/varchar
-
[SPARK-47045] [SC-156808][sql] Zastąp
IllegalArgumentExceptionprzezSparkIllegalArgumentExceptionwsql/api -
[SPARK-46991] [SC-156399][sql] Zastąp
IllegalArgumentExceptionprzezSparkIllegalArgumentExceptionwcatalyst - [SPARK-48031] [SC-165805][sql] Ewolucja schematu widoku pomocy technicznej
-
[SPARK-48276] [SC-166116][python][CONNECT] Dodaj brakującą
__repr__metodę dlaSQLExpression -
[SPARK-48278] [SC-166071][python][CONNECT] Uściślij reprezentację ciągu
Cast -
[SPARK-48272] [SC-166069][sql][PYTHON][connect] Dodaj funkcję
timestamp_diff - [SPARK-47798] [SC-162492][sql] Wzbogacić komunikaty o błędach odczytu wartości dziesiętnych
-
[SPARK-47158] [SC-158078][sql] Przypisz odpowiednią nazwę i
sqlStatedo_LEGACY_ERROR_TEMP_(2134|2231) - [SPARK-48218] [SC-166082][core] TransportClientFactory.createClient może powodować wyjątek FetchFailedException
- [SPARK-48277] [SC-166066] Ulepszanie komunikatu o błędzie dla errorClassesJsonReader.getErrorMessage
-
[SPARK-47545] [SC-165444][connect] Obsługa zestawu danych
observedla klienta Scala -
[SPARK-48954] [SC-171672][sql] Dodaj
try_modfunkcję - [SPARK-43258] [SC-158151][sql] Nadaj nazwę błędu _LEGACY_ERROR_TEMP_202[3,5]
- [SPARK-48267] [ SC-165903][ss] Test regresji e2e z SPARK-47305
- [SPARK-48263] [SC-165925] Obsługa funkcji sortowania dla ciągów innych niż UTF8_BINARY
- [SPARK-48260] [ SC-165883][sql] Wyłącz koordynację zatwierdzania danych wyjściowych w jednym teście aplikacji ParquetIOSuite
-
[SPARK-47834] [ SC-165645][sql][CONNECT] Oznaczyć przestarzałe funkcje w
@deprecatedwSQLImplicits - [SPARK-48011] [ SC-164061][core] Przechowuj nazwę klucza logu jako wartość, aby uniknąć tworzenia nowych instancji ciągów znaków
- [SPARK-48074] [SC-164647][core] Poprawa czytelności dzienników JSON
- [SPARK-44953] [ SC-165866][core] Zaloguj ostrzeżenie, gdy śledzenie przebiegu mieszania jest włączone obok innego mechanizmu obsługiwanego przez DA
-
[SPARK-48266] [SC-165897][connect] Przenoszenie obiektu
org.apache.spark.sql.connect.dslpakietu do katalogu testowego -
[SPARK-47847] [SC-165651][core] Przestawione jako przestarzałe
spark.network.remoteReadNioBufferConversion -
[SPARK-48171] [ SC-165178][core] Czyszczenie użycia przestarzałych konstruktorów
o.rocksdb.Logger - [SPARK-48235] [SC-165669][sql] Bezpośrednie przekazywanie operacji sprzężenia zamiast wszystkich argumentów do funkcji getBroadcastBuildSide oraz getShuffleHashJoinBuildSide
- [SPARK-48224] [SC-165648][sql] Nie zezwalaj na klucze mapy przez używanie typu wariantu
- [SPARK-48248] [SC-165791][python] Poprawka zagnieżdżonej tablicy zgodnie z wcześniejszą konfiguracją inferArrayTypeFromFirstElement.
- [SPARK-47409] [SC-165568][sql] Dodano obsługę sortowania dla typu StringTrim funkcji/wyrażeń (dla UTF8_BINARY i LCASE)
- [SPARK-48143] [ES-1095638][sql] Użyj uproszczonych wyjątków dla przepływu sterowania między univocityParser i FailureSafeParser
- [SPARK-48146] [SC-165668][sql] Napraw funkcję agregującą w asercji dziecka wyrażenia "With".
- [SPARK-48161] Cofnij “[SC-165325][sql] Dodawanie obsługi sortowania dla wyrażeń JSON”
- [SPARK-47963] [CORE] Umożliwianie zewnętrznego ekosystemu platformy Spark korzystanie z mechanizmów rejestrowania strukturalnego
- [SPARK-48180] [SC-165632][sql] Udoskonalenie komunikatu błędu, gdy wywołanie UDTF z argumentem TABLE zapomina o nawiasach wokół wielu PARTITION/ORDER BY wyrażeń
- [SPARK-48002] [ SC-164132][python][SS] Dodawanie testu dla obserwowanych metryk w narzędziu PySpark StreamingQueryListener
- [SPARK-47421] [ SC-165548][sql] Dodano obsługę sortowania dla wyrażeń adresów URL
- [SPARK-48161] [SC-165325][sql] Dodano obsługę sortowania dla wyrażeń JSON
- [SPARK-47359] [SC-164328][sql] Obsługa funkcji TRANSLATE w celu pracy z ciągami kolacjonowanymi
- [SPARK-47365] [ SC-165643][python] Dodaj metodę toArrow() do DataFrame w PySpark
- [SPARK-48228] [SC-165649][python][CONNECT] Implementowanie brakującej walidacji funkcji w aplikacji ApplyInXXX
- [SPARK-47986] [ SC-165549][connect][PYTHON] Nie można utworzyć nowej sesji po zamknięciu sesji domyślnej przez serwer
- [SPARK-47963] Przywróć "[CORE] Czy zewnętrzny ekosystem platformy Spark może używać mechanizmów rejestrowania strukturalnego "
- [SPARK-47963] [CORE] Umożliwianie zewnętrznego ekosystemu platformy Spark korzystanie z mechanizmów rejestrowania strukturalnego
- [SPARK-48208] [SC-165547][ss] Pomiń dostarczanie metryk użycia pamięci z bazy danych RocksDB, jeśli jest włączone ograniczone użycie pamięci
- [SPARK-47566] [SC-164314][sql] Obsługa funkcji SubstringIndex do pracy z ciągami z uwzględnieniem sortowania
- [SPARK-47589] [SC-162127][sql]Hive-Thriftserver: Przenieść LogError z zmiennymi do strukturalnych ram logowania
- [SPARK-48205] [SC-165501][python] Usuń modyfikator private[sql] dla źródeł danych języka Python
- [SPARK-48173] [ SC-165181][sql] CheckAnalysis powinna zobaczyć cały plan zapytania
- [SPARK-48197] [SC-165520][sql] Unikaj błędu asercji dla nieprawidłowej funkcji lambda
- [SPARK-47318] [ SC-162573][core] Dodaje rundę HKDF do wyprowadzania kluczy AuthEngine w celu przestrzegania standardowych praktyk KEX
- [SPARK-48184] [SC-165335][python][CONNECT] Zawsze ustawiaj ziarno po stronie klienta
- [SPARK-48128] [SC-165004][sql] Dla wyrażenia BitwiseCount/bit_count napraw błąd składni przy generowaniu kodu dla danych wejściowych typu logicznego
- [SPARK-48147] [SC-165144][ss][CONNECT] Usuń odbiorniki po stronie klienta po usunięciu lokalnej sesji platformy Spark
- [SPARK-48045] [SC-165299][python] API Pandas groupby z multi-agg-relabel ignoruje as_index=False
- [SPARK-48191] [ SC-165323][sql] Obsługa kodowania i dekodowania ciągów UTF-32
- [SPARK-45352] [SC-137627][sql] Eliminowanie składanych partycji okien
- [SPARK-47297] [ SC-165179][sql] Dodano obsługę sortowania dla wyrażeń formatu
- [SPARK-47267] [SC-165170][sql] Dodano obsługę sortowania dla wyrażeń skrótów
- [SPARK-47965] [SC-163822][core] Unikaj orNull w TypedConfigBuilder i OptionalConfigEntry
- [SPARK-48166] [SQL] Unikaj używania błędu BadRecordException jako błędu dostępnego dla użytkownika w narzędziu VariantExpressionEvalUtils
- [SPARK-48105] [ SC-165132][ss] Naprawa warunku wyścigu między rozładowaniem magazynu stanów a tworzeniem migawki
- [SPARK-47922] [ SC-163997][sql] Implementowanie wyrażenia try_parse_json
- [SPARK-47719] [SC-161909][sql] Zmień spark.sql.legacy.timeParse...
- [SPARK-48035] [SC-165136][sql] Poprawka try_add/try_multiply polegająca na semantycznej równości do dodawania/mnożenia
- [SPARK-48107] [SC-164878][python] Wykluczanie testów z dystrybucji języka Python
- [SPARK-46894] [ SC-164447][python] Przenoszenie warunków błędu PySpark do autonomicznego pliku JSON
- [SPARK-47583] [ SC-163825][core] SQL Core: Migrowanie logError ze zmiennymi do strukturalnego frameworku logowania
- [SPARK-48064] Przywróć "[SC-164697][sql] Aktualizowanie komunikatów o błędach dla rutynowych powiązanych klas błędów"
- [SPARK-48048] [SC-164846][connect][SS] Dodano obsługę odbiornika po stronie klienta dla języka Scala
- [SPARK-48064] [SC-164697][sql] Aktualizowanie komunikatów o błędach dla rutynowych powiązanych klas błędów
- [SPARK-48056] [ SC-164715][connect][PYTHON] Ponownie wykonaj plan, jeśli zostanie zgłoszony błąd SESSION_NOT_FOUND i nie otrzymano częściowej odpowiedzi
- [SPARK-48124] [ SC-165009][core] Wyłącz rejestrowanie ustrukturyzowane dla Connect-Repl domyślnie
- [SPARK-47922] Cofnięcie "[SC-163997][sql] Implementacja wyrażenia try_parse_json"
- [SPARK-48065] [SC-164817][sql] SPJ: allowJoinKeysSubsetOfPartitionKeys jest zbyt rygorystyczny
- [SPARK-48114] [ SC-164956][core] Prekompiluj regex szablonu, aby uniknąć niepotrzebnej pracy
- [SPARK-48067] [SC-164773][sql] Poprawiono kolumny domyślne wariantu
- [SPARK-47922] [ SC-163997][sql] Implementowanie wyrażenia try_parse_json
- [SPARK-48075] [SC-164709] [SS] Dodawanie sprawdzania typów dla funkcji avro PySpark
- [SPARK-47793] [SC-164324][ss][PYTHON] Implementacja SimpleDataSourceStreamReader dla przesyłania strumieniowego źródła danych w języku Python
- [SPARK-48081] [SC-164719] Naprawiono wyjątek ClassCastException w NTile.checkInputDataTypes(), gdy argument jest nieskładalny lub nieprawidłowy typ
- [SPARK-48102] [SC-164853][ss] Śledzenie czasu pozyskiwania metryk źródła/wyjścia podczas raportowania postępu przesyłania strumieniowego zapytania
- [SPARK-47671] [SC-164854][core] Włącz rejestrowanie strukturalne w log4j2.properties.template i aktualizuj dokumenty
- [SPARK-47904] [SC-163409][sql] Zachowaj wielkość liter w schemacie Avro podczas korzystania z enableStableIdentifiersForUnionType
-
[SPARK-48058] [SC-164695][spark-43727][PYTHON][connect]
UserDefinedFunction.returnTypeanalizuje ciąg DDL - [SPARK-46922] [SC-156102][core][SQL] Nie zawijaj błędów środowiska uruchomieniowego widocznych dla użytkownika
- [SPARK-48047] [ SC-164576][sql] Zmniejszenie ciśnienia pamięci pustych tagów TreeNode
-
[SPARK-47934] [SC-164648] [CORE] Upewnij się, że końcowe ukośniki w
HistoryServerprzekierowaniach adresów URL - [SPARK-47921] [SC-163826][connect] Naprawa tworzenia elementu ExecuteJobTag w elemencie ExecuteHolder
- [SPARK-48014] [SC-164150][sql] Zmień błąd makeFromJava w EvaluatePython na błąd widoczny dla użytkownika
- [SPARK-47903] [ SC-163424][python] Dodawanie obsługi pozostałych typów skalarnych w bibliotece wariantów PySpark
-
[SPARK-48068] [ SC-164579][python]
mypypowinien mieć--python-executableparametr - [SPARK-47846] [ SC-163074][sql] Dodaj obsługę typu wariant w wyrażeniu from_json
- [SPARK-48050] [SC-164322][ss] Zaloguj plan logiczny na początku zapytania
- [SPARK-47810] [ SC-163076][sql] Zamień wyrażenie równoważne na <=> w warunku sprzężenia
- [SPARK-47741] [SC-164290] Dodano obsługę przepełnienia stosu w analizatorze
- [SPARK-48053] [ SC-164309][python][CONNECT] SparkSession.createDataFrame powinien wyświetlić ostrzeżenie dla nieobsługiwanych opcji
- [SPARK-47939] [SC-164171][sql] Zaimplementuj nową regułę Analyzera, aby przenieść parametryzowaną kwerendę wewnątrz polecenia ExplainCommand oraz DescribeQueryCommand
-
[SPARK-48063] [SC-164432][core] Włącz
spark.stage.ignoreDecommissionFetchFailuredomyślnie - [SPARK-48016] [ SC-164280][sql] Naprawiono usterkę w funkcji try_divide w przypadku liczby dziesiętnej
-
[SPARK-48033] [ SC-164291][sql] Poprawki
RuntimeReplaceablewyrażeń używanych w kolumnach domyślnych - [SPARK-48010] [SC-164051][sql][ES-1109148] Unikaj powtarzających się wywołań conf.resolver w resolveExpression
- [SPARK-48003] [ SC-164323][sql] Dodano obsługę sortowania dla agregacji szkicu hll
- [SPARK-47994] [ SC-164175][sql] Naprawiono usterkę z wypchnięciem filtru kolumny CASE WHEN na serwerze SQLServer
-
[SPARK-47984] [SC-163837][ml][SQL] Zmiana
MetricsAggregate/V2Aggregator#serialize/deserializena wywołanieSparkSerDeUtils#serialize/deserialize - [SPARK-48042] [ SC-164202][sql] Użyj formatatora znacznika czasu ze strefą czasową na poziomie klasy zamiast tworzenia kopii na poziomie metody
- [SPARK-47596] [SPARK-47600][spark-47604][SPARK-47804] Migracje dzienników strukturalnych
- [SPARK-47594] [SPARK-47590][SPARK-47588][SPARK-47584] Migracje dzienników strukturalnych
- [SPARK-47567] [SC-164172][sql] Obsługa funkcji LOCATE do pracy z ciągami sortowania
- [SPARK-47764] [SC-163820][core][SQL] Oczyszczanie zależności shuffle na podstawie ShuffleCleanupMode
-
[SPARK-48039] [ SC-164174][python][CONNECT] Zaktualizuj klasę błędów dla
group.apply - [SPARK-47414] [SC-163831][sql] Obsługa sortowania małych liter dla wyrażeń regexp
- [SPARK-47418] [SC-163818][sql] Dodaj ręcznie napisane implementacje dla funkcji zawierających, rozpoczynających się i kończących się małymi literami z obsługą unicode oraz optymalizuj UTF8_BINARY_LCASE.
- [SPARK-47580] [SC-163834][sql] katalizator SQL: eliminowanie nienazwanych zmiennych w dziennikach błędów
- [SPARK-47351] [ SC-164008][sql] Dodano obsługę sortowania dla wyrażeń ciągu StringToMap i Mask
- [SPARK-47292] [ SC-164151][ss] safeMapToJValue powinien rozważyć wartości typu null
- [SPARK-47476] [SC-164014][sql] Obsługa funkcji REPLACE do pracy z ciągami porządkowymi
- [SPARK-47408] [SC-164104][sql] Napraw wyrażenia matematyczne, które używają Typu String.
- [SPARK-47350] [ SC-164006][sql] Dodano obsługę sortowania dla wyrażenia ciągu SplitPart
- [SPARK-47692] [SC-163819][sql] Poprawiono znaczenie domyślnego typu StringType w kontekście niejawnego rzutowania
- [SPARK-47094] [SC-161957][sql] SPJ: Dynamiczne ponowne zrównoważenie liczby zasobników, gdy nie są równe
-
[SPARK-48001] [ SC-164000][core] Usuń nieużywane
private implicit def arrayToArrayWritablezSparkContext - [SPARK-47986] [ SC-163999][connect][PYTHON] Nie można utworzyć nowej sesji, gdy sesja domyślna jest zamknięta przez serwer
- [SPARK-48019] [SC-164121] Naprawianie nieprawidłowego zachowania w kolumnie ColumnVector/ColumnarArray przy użyciu słownika i wartości null
- [SPARK-47743] [SPARK-47592][spark-47589][SPARK-47581][spark-47586][SPARK-47593][spark-47595][SPARK-47587][spark-47603] Migracje dzienników strukturalnych
- [SPARK-47999] [SC-163998][ss] Ulepszenie rejestrowania przy tworzeniu migawek oraz dodawaniu/usuwaniu wpisów z mapy pamięci podręcznej stanu w dostawcy magazynu stanów obsługiwanym przez HDFS.
- [SPARK-47417] [SC-162872][sql] Wsparcie dla porządkowania: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
- [SPARK-47712] [ SC-161871][connect] Zezwalaj wtyczkom na łączenie w celu tworzenia i przetwarzania zestawów danych
- [SPARK-47411] [SC-163351][sql] Obsługa funkcji StringInstr i FindInSet do pracy z ciągami z uwzględnieniem sortowania
- [SPARK-47360] [SC-163014][sql] Obsługa sortowania: Overlay, FormatString, Length, BitLength, OctetLength, SoundEx, Luhncheck
- [SPARK-47413] [SC-163323][sql] — dodanie obsługi funkcji substr/left/right dla zestawów porządkowych
- [SPARK-47983] [SC-163835][sql] Zdegradować spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled do wewnętrznego kontekstu
- [SPARK-47964] [ SC-163816][python][CONNECT] Ukryj sqlContext i HiveContext w programie pyspark-connect
-
[SPARK-47985] [SC-163841][python] Upraszczanie funkcji za pomocą polecenia
lit -
[SPARK-47633] [ SC-163453][sql] Uwzględnij dane wyjściowe planu po prawej stronie,
LateralJoin#allAttributesaby uzyskać bardziej spójną kanonizację - [SPARK-47909] Przywróć klasę "[PYTHON][connect] Nadrzędna ramka danych f...
- [SPARK-47767] [SC-163096][sql] Pokaż wartość przesunięcia w TakeOrderedAndProjectExec
- [SPARK-47822] [SC-162968][sql] Zakaz wyrażeń hashujących od haszowania typu danych "Variant"
- [SPARK-47490] [SC-160494][ss] Napraw użycie konstruktora RocksDB Logger, aby uniknąć ostrzeżenia o wycofaniu
- [SPARK-47417] Przywróć obsługę sortowania "[SC-162872][sql] Obsługa sortowania: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences"
- [SPARK-47352] [SC-163460][sql] Naprawić zgodność porządku sortowania dla Upper, Lower, InitCap
- [SPARK-47909] [PYTHON][connect] Klasa nadrzędna DataFrame dla platformy Spark Connect i Spark Classic
- [SPARK-47417] [SC-162872][sql] Wsparcie dla porządkowania: Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 15.3.
Środowisko systemu
- System operacyjny: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Zainstalowane biblioteki języka Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
| Azure Storage Blob | 12.19.1 | Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) | 12.14.0 | Wezwanie zwrotne | 0.2.0 |
| czarny | 23.3.0 | kierunkowskaz | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | cachetools (narzędzia do zarządzania pamięcią podręczną) | 5.3.3 | certyfikat | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | normalizator zestawu znaków | 2.0.4 |
| kliknij | 8.0.4 | cloudpickle (biblioteka Python do serializacji obiektów) | 2.2.1 | komunikacja | 0.1.2 |
| ContourPy | 1.0.5 | kryptografia | 41.0.3 | rowerzysta | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | dekorator | 5.1.1 | distlib | 0.3.8 |
| punkty wejścia | 0,4 | wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 |
| blokada plików | 3.13.4 | fonttools | 4.25.0 | gitdb (baza danych Git) | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth (autoryzacja Google) | 2.29.0 |
| google-cloud-core | 2.4.1 | Google Cloud Storage (usługa przechowywania danych w chmurze od Google) | 2.16.0 | google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) | 1.5.0 |
| Google Media z Możliwością Wznowienia | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | IDNA | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | Jedi | 0.18.1 | autobus typowy dla Filipin znany jako jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | breloczek | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | opakowanie | 23.2 |
| Pandas | 1.5.3 | parso | 0.8.3 | specyfikacja ścieżki | 0.10.3 |
| ofiara | 0.5.3 | pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 |
| Poduszka | 9.4.0 | pip (menedżer pakietów Pythona) | 23.2.1 | platformdirs | 3.10.0 |
| kreślenie | 5.9.0 | zestaw narzędzi prompt | 3.0.36 | proto-plus | 1.23.0 |
| Protobuf (w skrócie od Protocol Buffers) | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
| pycparser | 2.21 | pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
| pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.9 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| pytz (biblioteka Pythona do obliczeń stref czasowych) | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
| żądania | 2.31.0 | RSA | 4.9 | s3transfer | 0.10.1 |
| scikit-learn | 1.3.0 | scipy (biblioteka naukowa dla Pythona) | 1.11.1 | urodzony na morzu | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 68.0.0 | sześć | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5.11 |
| stos danych | 0.2.0 | statsmodels - biblioteka do modelowania statystycznego | 0.14.0 | Wytrzymałość | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
| traitlets | 5.7.1 | moduł typing_extensions | 4.10.0 | tzdata | 2022.1 |
| ujson (szybka biblioteka do obsługi formatu JSON) | 5.4.0 | nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | szerokość(wcwidth) | 0.2.5 |
| wheel | 0.38.4 | zamek błyskawiczny | 3.11.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN Menedżera Pakietów Posit.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| strzałka | 14.0.0.2 | askpass | 1.2.0 | potwierdzić to | 0.2.1 |
| porty wsteczne | 1.4.1 | baza | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | odrobina | 4.0.5 | bit-64 | 4.0.5 |
| bitops | 1.0-7 | blob | 1.2.4 | rozruch systemu | 1.3-28 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-10 | Brio | 1.1.4 | miotła | 1.0.5 |
| bslib | 0.6.1 | kaszmir | 1.0.8 | dzwoniący | 3.7.3 |
| karetka | 6.0-94 | cellranger | 1.1.0 | Chroń | 2.3-61 |
| klasa | 7.3-22 | CLI | 3.6.2 | clipr | 0.8.0 |
| zegar | 0.7.0 | klaster | 2.1.4 | codetools | 0.2-19 |
| przestrzeń kolorów | 2.1-0 | commonmark | 1.9.1 | kompilator | 4.3.2 |
| konfig | 0.3.2 | zdezorientowany | 1.2.0 | cpp11 | 0.4.7 |
| kredka | 1.5.2 | dane logowania | 2.0.1 | skręt | 5.2.0 |
| tabela danych | 1.15.0 | zbiory danych | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | Opis | 1.4.3 | devtools | 2.4.5 |
| schemat | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.34 |
| przyciemnione oświetlenie | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | wielokropek | 0.3.2 | ocenić | 0.23 |
| fani | 1.0.6 | kolory | 2.1.1 | szybka mapa | 1.1.1 |
| Font Awesome | 0.5.2 | dla kotów | 1.0.0 | foreach | 1.5.2 |
| zagraniczny | 0.8-85 | kuźnia | 0.2.0 | fs | 1.6.3 |
| przyszłość | 1.33.1 | wprowadź przyszłość | 1.11.1 | płukać | 1.5.2 |
| typy ogólne | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
| Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globalne | 0.16.2 | klej | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
| grafika | 4.3.2 | grDevices | 4.3.2 | siatka | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0,7 | Gt | 0.10.1 |
| gtabela | 0.3.4 | hełm ochronny | 1.3.1 | przystań | 2.5.4 |
| wyżej | 0.10 | HMS | 1.1.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.7 |
| widżety HTML | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | soczysty sok | 0.1.0 |
| KernSmooth | 2.23-21 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1,45 | etykietowanie | 0.4.3 |
| później | 1.3.2 | siatka | 0.21-8 | lawa | 1.7.3 |
| cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | Markdown | 1.12 | MASA | 7.3-60 |
| Matryca | 1.5-4.1 | zapamiętywanie | 2.0.1 | metody | 4.3.2 |
| mgcv | 1.8-42 | pantomima | 0,12 | miniUI (interfejs użytkownika) | 0.1.1.1 |
| mlflow | 2.10.0 | Metryki modelowe | 1.2.2.2 | modeler | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | sieć neuronowa (nnet) | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.1.1 | równoległy | 4.3.2 |
| równolegle | 1.36.0 | kolumna | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Procesx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | postęp | 1.2.3 |
| progressr | 0.14.0 | Obietnice | 1.2.1 | Prototyp | 1.0.0 |
| serwer proxy | 0.4-27 | Postscriptum | 1.7.6 | mruczenie | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | "randomForest" | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reaktywny | 0.4.4 |
| ReactR | 0.5.0 | czytnik | 2.1.5 | readxl (biblioteka do odczytu plików Excel) | 1.4.3 |
| przepisy | 1.0.9 | rewanż | 2.0.0 | rewanż2 | 2.1.2 |
| Zdalne sterowanie | 2.4.2.1 | przykład powtarzalny | 2.1.0 | zmień kształt2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2,25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
| waga (urządzenie) | 1.3.0 | selektor | 0.4-2 | Informacje o sesji | 1.2.2 |
| kształt | 1.4.6 | błyszczący | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | przestrzenny | 7.3-15 | Splatiny | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | Statystyki | 4.3.2 |
| statystyki4 | 4.3.2 | łańcuchy | 1.8.3 | stringr | 1.5.1 |
| przetrwanie | 3.5-5 | pewność siebie | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| kształtowanie tekstu | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | zmiana czasu | 0.3.0 |
| czasData | 4032.109 | tinytex | 0,49 | narzędzia | 4.3.2 |
| Baza Danych Stref Czasowych (tzdb) | 0.4.0 | sprawdzacz URL | 1.0.1 | użyj tego | 2.2.2 |
| utf8 | 1.2.4 | oprogramowanie użytkowe | 4.3.2 | UUID (Uniwersalnie Unikalny Identyfikator) | 1.2-0 |
| V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| Vroom | 1.6.5 | Waldo | 0.5.2 | włosek czuciowy | 0.4.1 |
| Withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | Xtable | 1.8-4 | yaml | 2.3.8 |
| zapał | 0.1.0 | suwak | 2.3.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.610 |
| com.amazonaws | aws-java-sdk-directory | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.610 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.610 |
| com.amazonaws | aws-java-sdk-glue | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.610 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-logs | 1.12.610 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ses | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.610 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.610 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.17.1 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rodzimi |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rodzimi |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | Tink | 1.9.0 |
| com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 26.05.23 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 72.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blask | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.25 |
| io.delta | delta-sharing-client_2.12 | 1.0.5 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.19 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.2.19 |
| io.dropwizard.metrics | metryki-JVM | 4.2.19 |
| io.dropwizard.metrics | serwlety metryczne | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | Netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common (element wspólny) | 4.1.96.Final |
| io.netty | "netty-handler" | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | rozwiązywacz netty | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | Klasy netty-tcnative | 2.0.61.Final |
| io.netty | Netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | program uruchamiający Ant | 1.10.11 |
| org.apache.arrow | format strzałki | 15.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | wektor strzałki | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-pamięć | 2.0.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.6 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | szablon układu log4j w formacie JSON | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | podkładki ORC | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | adnotacje dla widowni | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.6.3 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | jute zookeeper | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | Eclipse Collections | 11.1.0 |
| org.eclipse.collections | API kolekcji Eclipse | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket —wspólne | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.40 |
| org.glassfish.jersey.core | serwer jersey | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | podkładki regulacyjne | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.11.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen Extra | 1.7.1 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |