Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Note
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 15.2 obsługiwanym przez platformę Apache Spark 3.5.0.
Usługa Databricks wydała tę wersję w maju 2024 r.
Zmiany zachowania
Odkurzacz czyści pliki metadanych COPY INTO
Uruchomienie VACUUM na tabeli utworzonej za pomocą COPY INTO teraz czyści nieużywane metadane powiązane ze śledzeniem zaimportowanych plików. Nie ma wpływu na semantykę operacyjną programu COPY INTO.
Federacja Lakehouse jest dostępna dla wszystkich (GA)
W środowisku Databricks Runtime 15.2 lub nowszym, łączniki Lakehouse Federation dla następujących typów baz danych są ogólnie dostępne (GA):
- MySQL
- PostgreSQL
- Amazon Redshift
- Snowflake
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
W tej wersji wprowadzono również następujące ulepszenia:
- Obsługa uwierzytelniania logowania jednokrotnego (SSO) w łącznikach snowflake i Microsoft SQL Server .
- Obsługa usługi Azure Private Link dla łącznika programu SQL Server z bezserwerowych środowisk obliczeniowych. Zobacz Krok 3: Tworzenie reguł prywatnego punktu końcowego.
- Obsługa dodatkowych operacji pushdown (funkcje tekstowe, matematyczne i inne).
- Ulepszony współczynnik powodzenia przetwarzania zapytań o różnorodnej strukturze.
- Dodatkowe możliwości debugowania operacji pushdown.
- Dane wyjściowe
EXPLAIN FORMATTEDwyświetla tekst zapytania podlegającego optymalizacji. - Interfejs użytkownika profilu zapytania wyświetla tekst zapytania przeniesionego na niższy poziom, identyfikatory węzłów federacyjnych i czas wykonywania zapytań JDBC (w trybie szczegółowym). Zobacz Wyświetlanie zapytań federacyjnych generowanych przez system.
- Dane wyjściowe
BY POSITION w przypadku mapowania kolumn przy użyciu plików COPY INTO CSV bez nagłówka
W środowisku Databricks Runtime 15.2 lub nowszym można użyć BY POSITION słów kluczowych (lub alternatywnej składni ( col_name [ , <col_name> ... ] )) z plikami COPY INTO CSV bez nagłówka, aby uprościć mapowanie kolumny źródłowej na docelową kolumnę tabeli. Zobacz Parametry.
Zmniejsz zużycie pamięci, gdy zadania platformy Spark kończą się niepowodzeniem z powodu błędu Resubmitted
W środowisku Databricks Runtime 15.2 lub nowszym zwracana wartość metody Spark TaskInfo.accumulables() jest pusta, gdy zadania kończą się niepowodzeniem Resubmitted z powodu błędu. Wcześniej metoda zwróciła wartości wcześniejszej pomyślnej próby wykonania zadania. Ta zmiana zachowania ma wpływ na następujących użytkowników:
- Zadania platformy Spark korzystające z
EventLoggingListenerklasy . - Niestandardowi odbiorcy Spark.
Aby przywrócić poprzednie zachowanie, ustaw spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled na wartość false.
Wyświetlanie wersji planu wykonywania zapytań adaptacyjnych jest wyłączone
Aby zmniejszyć zużycie pamięci, wersje planu adaptacyjnego wykonywania zapytań (AQE) są domyślnie wyłączone w interfejsie użytkownika platformy Spark. Aby włączyć wyświetlanie wersji planu AQE w interfejsie użytkownika platformy Spark, ustaw wartość spark.databricks.sql.aqe.showPlanChangesInUI.enabledtrue.
Ograniczenie liczby zachowanych zapytań zmniejsza się w celu zmniejszenia użycia pamięci interfejsu użytkownika platformy Spark
W środowisku Databricks Runtime 15.2 lub nowszym, aby zmniejszyć ilość pamięci zużywanej przez interfejs użytkownika platformy Spark w obliczeniach usługi Azure Databricks, limit liczby zapytań widocznych w interfejsie użytkownika jest niższy z zakresu od 1000 do 100. Aby zmienić limit, ustaw nową wartość przy użyciu konfiguracji platformy spark.sql.ui.retainedExecutions Spark.
DESCRIBE HISTORY teraz pokazuje kolumny klastrowania dla tabel korzystających z klastrowania płynnego
Po uruchomieniu zapytania DESCRIBE HISTORY kolumna operationParameters domyślnie wyświetla pole clusterBy dla operacji CREATE OR REPLACE i OPTIMIZE. W przypadku tabeli delty używającej płynnego klastrowania clusterBy pole jest wypełniane kolumnami klastrowania tabeli. Jeśli tabela nie używa klastrowania płynnego, pole jest puste.
Składnia widżetu notatnika jest przestarzała
Począwszy od środowiska Databricks Runtime 15.2, składnia ${param} uzyskiwania dostępu do wartości widżetów notatnika w komórkach SQL jest przestarzała. Zamiast tego użyj składni znacznika parametru (:param). Składnia znacznika parametrów zapewnia lepszą ochronę przed wstrzyknięciem kodu SQL i lepszą wydajność zapytań.
Aby uzyskać wskazówki dotyczące migracji i przykłady, zobacz Dziedziczone widżety notatnika. Aby uzyskać informacje o bieżącym zalecanym podejściu, zobacz Widżety usługi Databricks.
Nowe funkcje i ulepszenia
Obsługa kluczy podstawowych i obcych jest ogólnie dostępna
Obsługa kluczy podstawowych i obcych w środowisku Databricks Runtime jest ogólnie dostępna. Wersja ogólnie dostępna zawiera następujące zmiany uprawnień wymaganych do używania kluczy podstawowych i obcych:
- Aby zdefiniować klucz obcy, musisz mieć uprawnienia
SELECTw tabeli z kluczem podstawowym, do którego odwołuje się klucz obcy. Nie musisz posiadać tabeli z kluczem podstawowym, którego wymóg wcześniej obowiązywał. - Usunięcie klucza podstawowego przy użyciu klauzuli
CASCADEnie wymaga uprawnień w tabelach, które definiują klucze obce odwołujące się do klucza podstawowego. Wcześniej trzeba było posiadać tabele referencyjne. - Usunięcie tabeli zawierającej ograniczenia wymaga teraz tych samych uprawnień, co porzucanie tabel, które nie zawierają ograniczeń.
Aby dowiedzieć się, jak używać kluczy podstawowych i obcych z tabelami lub widokami, zobacz CONSTRAINT klauzulę, ADD CONSTRAINT klauzulęoraz DROP CONSTRAINT klauzulę.
Klastrowanie cieczy jest ogólnie dostępne
Obsługa klastrowania cieczy jest teraz ogólnie dostępna przy użyciu środowiska Databricks Runtime 15.2 lub nowszego. Zobacz Używaj płynnego grupowania dla tabel.
Rozszerzanie typu jest dostępne w publicznej wersji testowej
Teraz można włączyć rozszerzanie typów w tabelach wspieranych przez usługę Delta Lake. Tabele z włączonym rozszerzaniem typu umożliwiają zmianę typu kolumn na szerszy typ danych bez ponownego zapisywania bazowych plików danych. Sprawdź Rozszerzanie typu.
Klauzula ewolucji schematu dodana do składni scalania SQL
Teraz możesz dodać klauzulę WITH SCHEMA EVOLUTION do instrukcji scalania SQL, aby umożliwić ewolucję schematu dla operacji. Zobacz składnię ewolucji schematu do scalania .
Niestandardowe źródła danych PySpark są dostępne w publicznej wersji zapoznawczej
Źródło danych PySpark można utworzyć przy użyciu interfejsu API źródła danych języka Python (PySpark), który umożliwia odczytywanie z niestandardowych źródeł danych i zapisywanie w niestandardowych ujściach danych na platformie Apache Spark przy użyciu języka Python. Zobacz niestandardowe źródła danych PySpark
applyInPandas i mapInPandas są teraz dostępne w obliczeniach wykazu aparatu Unity z trybem dostępu współdzielonego
W ramach wydania konserwacyjnego Databricks Runtime 14.3 LTS, typy UDF są teraz obsługiwane w trybie dostępu współdzielonego na środowisku obliczeniowym z uruchomioną wersją Databricks Runtime 14.3 lub nowszą.
Użyj polecenia dbutils.widgets.getAll(), aby pobrać wszystkie widżety w notesie
Użyj polecenia dbutils.widgets.getAll() , aby pobrać wszystkie wartości widżetu w notesie. Jest to szczególnie przydatne podczas przekazywania wielu wartości widżetów do zapytania Spark SQL.
Obsługa inwentaryzacji próżniowej
Teraz można określić spis plików do rozważenia podczas uruchamiania polecenia VACUUM w tabeli delty. Zobacz dokumentację OSS Delta.
Obsługa funkcji kompresji Zstandard
Teraz możesz użyć funkcji zst_compress, zstd_decompressi try_zstd_decompress do kompresowania i dekompresowania danych BINARY.
Poprawki błędów
Plany zapytań w interfejsie użytkownika SQL są teraz poprawnie wyświetlane PhotonWriteStage
Gdy polecenia write były wyświetlane w interfejsie użytkownika SQL, w planach zapytań błędnie pokazywano PhotonWriteStage jako operator. W tej wersji interfejs użytkownika jest aktualizowany w celu wyświetlania PhotonWriteStage jako etapu. Jest to tylko zmiana interfejsu użytkownika i nie ma wpływu na sposób uruchamiania zapytań.
Ray został zaktualizowany w celu rozwiązania problemów z uruchamianiem klastrów Ray
Ta wersja zawiera poprawioną wersję Ray, która naprawia niezgodność uniemożliwiającą klastrom Ray uruchomienie się z Databricks Runtime dla Machine Learning. Ta zmiana gwarantuje, że funkcja Ray jest identyczna z wersjami środowiska Databricks Runtime wcześniejszych niż 15.2.
Poprawiono klasę błędów dla funkcji DataFrame.sort() i DataFrame.sortWithinPartitions()
Ta wersja zawiera aktualizację PySpark DataFrame.sort() i DataFrame.sortWithinPartitions() funkcje, aby upewnić się, że ZERO_INDEX klasa błędów jest zgłaszana podczas 0 przekazywania jako argument indeksu. Wcześniej został zgłoszony błąd klasy INDEX_NOT_POSITIVE.
Ipywidgets jest obniżany z wersji 8.0.4 do 7.7.2
Aby naprawić błędy wprowadzone przez uaktualnienie plików ipywidgets do wersji 8.0.4 w środowisku Databricks Runtime 15.0, funkcja ipywidgets została obniżona do wersji 7.7.2 w środowisku Databricks Runtime 15.2. Jest to ta sama wersja uwzględniona w poprzednich wersjach środowiska Databricks Runtime.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- GitPython z wersji 3.1.42 do 3.1.43
- google-api-core z wersji 2.17.1 do 2.18.0
- Aktualizacja google-auth z wersji 2.28.1 do 2.29.0
- google-cloud-storage z wersji 2.15.0 do 2.16.0
- googleapis-common-protos z 1.62.0 do 1.63.0
- ipywidgets z 8.0.4 do 7.7.2
- mlflow-skinny z 2.11.1 do 2.11.3
- s3transfer z 0.10.0 do 0.10.1
- sqlparse z 0.4.4 do 0.5.0
- typing_extensions z wersji 4.7.1 na wersję 4.10.0
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- com.amazonaws.aws-java-sdk-autoscaling z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics od wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-config z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-core z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-directconnect z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-directory z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb z 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ec2 z 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ecs z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-efs z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elasticache z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing z 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder z wersji 1.12.390 do wersji 1.12.610
- com.amazonaws.aws-java-sdk-emr z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-glacier od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-glue, aktualizacja z wersji 1.12.390 do wersji 1.12.610
- com.amazonaws.aws-java-sdk-iam od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-importexport z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-kinesis od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-kms od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-lambda z 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-logs z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning from 1.12.390 to 1.12.610 (com.amazonaws.aws-java-sdk-machinelearning from 1.12.390 to 1.12.610)
- com.amazonaws.aws-java-sdk-opsworks z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-rds z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-redshift z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-route53 z 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-s3 z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ses z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-simpledb z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-sns z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-sqs z 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-ssm z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway od 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-sts z wersji 1.12.390 do 1.12.610
- Aktualizacja com.amazonaws.aws-java-sdk-support z wersji 1.12.390 do 1.12.610
- com.amazonaws.aws-java-sdk-workspaces z wersji 1.12.390 do 1.12.610
- com.amazonaws.jmespath-java od 1.12.390 do 1.12.610
Apache Spark
Środowisko Databricks Runtime 15.2 obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 15.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-47941] [SC-163568] [SS] [Połącz] Propagacja błędów inicjowania procesu roboczego ForeachBatch dla użytkowników programu PySpark
- [SPARK-47412] [SC-163455][sql] Dodano obsługę sortowania dla LPad/RPad.
- [SPARK-47907] [ SC-163408][sql] Aktywuj w konfiguracji
-
[SPARK-46820] [ SC-157093][python] Poprawka regresji komunikatu o błędzie przez przywrócenie
new_msg - [SPARK-47602] [SPARK-47577][spark-47598][SPARK-47577]Core/MLLib/Resource managers: migracja do strukturalnego logowania
- [SPARK-47890] [SC-163324][connect][PYTHON] Dodaj funkcje wariantowe do języków Scala i Python.
-
[SPARK-47894] [SC-163086][core][WEBUI] Dodaj
Environmentstronę do interfejsu użytkownika głównego - [SPARK-47805] [SC-163459][ss] Implementowanie czasu wygaśnięcia dla mapState
- [SPARK-47900] [SC-163326] Naprawiono sprawdzenie niejawnego sortowania (UTF8_BINARY)
- [SPARK-47902] [SC-163316][sql]Umożliwienie składania wyrażeń obliczających bieżący czas*
- [SPARK-47845] [SC-163315][sql][PYTHON][connect] Obsługa typu Column w funkcji split dla języka Scala i Python
- [SPARK-47754] [SC-162144][sql] Postgres: obsługa odczytywania tablic wielowymiarowych
- [SPARK-47416] [SC-163001][sql] Dodaj nowe funkcje do CollationBenchmark #90339
- [SPARK-47839] [SC-163075][sql] Naprawiono usterkę agregacji w rewriteWithExpression
- [SPARK-47821] [SC-162967][sql] Implementowanie wyrażenia is_variant_null
-
[SPARK-47883] [SC-163184][sql] Utwórz
CollectTailExec.doExecuteleniwy przy użyciu kolejki wierszy - [SPARK-47390] [SC-163306][sql] Funkcja PostgresDialect odróżnia znacznik CZASU od TIMESTAMP_TZ
-
[SPARK-47924] [ SC-163282][core] Dodawanie dziennika DEBUG do
DiskStore.moveFileToBlock - [SPARK-47897] [ SC-163183][sql][3.5] Poprawka regresji wydajności zestawu wyrażeń w skali 2.12
- [SPARK-47565] [ SC-161786][python] Wytrzymałość puli roboczej PySpark
- [SPARK-47885] [SC-162989][python][CONNECT] Dostosuj pyspark.resource, aby był kompatybilny z pyspark-connect
-
[SPARK-47887] [SC-163122][connect] Usuń nieużywany import
spark/connect/common.protozspark/connect/relations.proto - [SPARK-47751] [SC-161991][python][CONNECT] Spraw, by pyspark.worker_utils był zgodny z pyspark-connect
- [SPARK-47691] [SC-161760][sql] Postgres: Obsługa tablicy wielowymiarowej po stronie zapisu
- [SPARK-47617] [SC-162513][sql] Dodawanie infrastruktury testowania TPC-DS do sortowania
- [SPARK-47356] [SC-162858][sql] Dodaj wsparcie dla ConcatWs & Elt (wszystkie porównania)
-
[SPARK-47543] [SC-161234][connect][PYTHON] Wnioskowanie
dictjakoMapTypez ramki danych Pandas w celu umożliwienia tworzenia ramki danych - [SPARK-47863] [SC-162974][sql] Naprawa implementacji uwzględniającej porządek kolacji dla startsWith i endsWith w ICU
- [SPARK-47867] [SC-162966][sql] Obsługa wariantu w skanowaniu JSON.
- [SPARK-47366] [SC-162475][sql][PYTHON] Dodaj VariantVal dla PySpark
- [SPARK-47803] [SC-162726][sql] Obsługa rzutowania na wariant.
- [SPARK-47769] [SC-162841][sql] Dodaj wyrażenie schema_of_variant_agg.
- [SPARK-47420] [ SC-162842][sql] Poprawiono dane wyjściowe testu
- [SPARK-47430] [SC-161178][sql] Obsługa GROUP BY dla MapType
- [SPARK-47357] [SC-162751][sql] Dodawanie obsługi górnej, dolnej, InitCap (wszystkie sortowania)
- [SPARK-47788] [SC-162729][ss] Zapewnienie jednolitego partycjonowania skrótów dla operacji stanowych w strumieniowaniu.
- [SPARK-47776] [ SC-162291][ss] Nie zezwalaj na sortowanie nierówności binarnych w kluczowym schemacie operatora stanowego
- [SPARK-47673] [SC-162824][ss] Implementacja czasu wygaśnięcia dla ListState
- [SPARK-47818] [SC-162845][connect] Wprowadzenie pamięci podręcznej planu w SparkConnectPlanner w celu zwiększenia wydajności żądań Analyze
- [SPARK-47694] [ SC-162783][connect] Ustaw maksymalny rozmiar komunikatu konfigurowalny po stronie klienta
- [SPARK-47274] Przywróć "[SC-162479][python][SQL] Podaj więcej funkcji użycia...
- [SPARK-47616] [ SC-161193][sql] Dodawanie dokumentu użytkownika do mapowania typów danych Spark SQL z programu MySQL
- [SPARK-47862] [SC-162837][python][CONNECT]Naprawiono generowanie plików proto
- [SPARK-47849] [SC-162724][python][CONNECT] Zmiana skryptu wydania w celu wydania oprogramowania pyspark-connect
- [SPARK-47410] [SC-162518][sql] Przebudowa UTF8String i CollationFactory
- [SPARK-47807] [SC-162505][python][ML] Uczynić pyspark.ml zgodnym z pyspark-connect
- [SPARK-47707] [SC-161768][sql] Specjalna obsługa typu JSON dla łącznika MySQL/J 5.x
- [SPARK-47765] Przywróć "[SC-162636][sql] Dodaj SET sortowanie do analizowania...
- [SPARK-47081] [SC-162151][connect][FOLLOW] Poprawa użyteczności modułu obsługi postępu
- [SPARK-47289] [SC-161877][sql] Zezwalaj rozszerzeń na rejestrowanie rozszerzonych informacji w planie wyjaśnienia
- [SPARK-47274] [ SC-162479][python][SQL] Zapewnianie bardziej przydatnego kontekstu dla błędów interfejsu API ramki danych PySpark
- [SPARK-47765] [SC-162636][sql] Dodawanie SET sortowania do reguł analizatora
-
[SPARK-47828] [SC-162722][connect][PYTHON]
DataFrameWriterV2.overwritekończy się niepowodzeniem z nieprawidłowym planem - [SPARK-47812] [SC-162696][connect] Obsługa serializacji SparkSession dla pracownika ForEachBatch
- [SPARK-47253] [SC-162698][core] Umożliwienie zatrzymania LiveEventBus bez całkowitego opróżniania kolejki zdarzeń
- [SPARK-47827] [SC-162625][python] Brakujące ostrzeżenia dotyczące przestarzałych funkcji
- [SPARK-47733] [SC-162628][ss] Dodaj metryki niestandardowe dla operatora transformWithState w części postępu zapytania
- [SPARK-47784] [SC-162623][ss] Połącz tryby TTLMode i TimeoutMode w jeden tryb TimeMode.
- [SPARK-47775] [ SC-162319][sql] Obsługa pozostałych typów skalarnych w specyfikacji wariantu.
- [SPARK-47736] [SC-162503][sql] Dodaj obsługę dla AbstractArrayType
- [SPARK-47081] [ SC-161758][connect] Obsługa postępu wykonywania zapytań
- [SPARK-47682] [SC-162138][sql] Obsługa konwersji z variant.
- [SPARK-47802] [SC-162478][sql] Przywrócenie z interpretacji struct() do interpretacji *
- [SPARK-47680] [SC-162318][sql] Dodaj wyrażenie variant_explode.
-
[SPARK-47809] [ SC-162511][sql]
checkExceptionInExpressionpowinien sprawdzić błąd dla każdego trybu generowania kodu -
[SPARK-41811] [ SC-162470][python][CONNECT] Implementowanie
SQLStringFormatterza pomocą poleceniaWithRelations - [SPARK-47693] [SC-162326][sql] Dodanie optymalizacji dla porównania małych liter w UTF8String używanego w sortowaniu UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006][sql] Sortowanie ciągów znaków w typach złożonych obsługujących operacje reverse, array_join, concat, map
- [SPARK-46812] [SC-161535][connect][PYTHON] Spraw, aby mapInPandas / mapInArrow obsługiwały ResourceProfile
- [SPARK-47727] [SC-161982][python] Ustawienie SparkConf na poziomie głównym zarówno dla SparkSession, jak i SparkContext
- [SPARK-47406] [SC-159376][sql] Obsługa typów danych TIMESTAMP i DATETIME w MYSQLDialect
- [SPARK-47081] Przywróć polecenie "[SC-161758][connect] Support Query Executi...
- [SPARK-47681] [ SC-162043][sql] Dodaj wyrażenie schema_of_variant.
- [SPARK-47783] [SC-162222] Dodaj brakujące kody SQLSTATEs i popraw użycie YY000, aby...
- [SPARK-47634] [ SC-161558][sql] Dodawanie starszej obsługi wyłączania normalizacji klucza mapy
- [SPARK-47746] [SC-162022] Wdrożenie kodowania zakresu opartego na porządkach w RocksDBStateEncoder
- [SPARK-47285] [SC-158340][sql] AdaptiveSparkPlanExec powinien zawsze używać context.session
- [SPARK-47643] [SC-161534][ss][PYTHON] Dodano test pyspark dla źródła przesyłania strumieniowego w Pythonie
- [SPARK-47582] [SC-161943][sql] Migrate Catalyst logInfo z zmiennymi do struktury rejestrowania strukturalnego
- [SPARK-47558] [SC-162007][ss] Obsługa TTL dla stanu ValueState
- [SPARK-47358] [SC-160912][sql][COLLATION] Ulepszanie obsługi wyrażeń powtórzeń w celu zwrócenia poprawnego typu danych
- [SPARK-47504] [SC-162044][sql] Rozwiązywanie simpleStrings AbstractDataType dla StringTypeCollated
- [SPARK-47719] Cofnij “[SC-161909][sql] Zmień spark.sql.legacy.t...”
- [SPARK-47657] [SC-162010][sql] Implementowanie obsługi wypychania filtru sortowania dla źródła plików
- [SPARK-47081] [ SC-161758][connect] Obsługa postępu wykonywania zapytań
- [SPARK-47744] [SC-161999] Dodano obsługę bajtów ujemnych w koderze zakresu
- [SPARK-47713] [SC-162009][sql][CONNECT] Naprawienie błędu samosprzężenia
- [SPARK-47310] [ SC-161930][ss] Dodawanie mikro-benchmarku do operacji scalania dla wielu wartości w części magazynu stanów
- [SPARK-47700] [SC-161774][sql] Naprawianie formatowania komunikatów o błędach za pomocą treeNode
- [SPARK-47752] [SC-161993][ps][CONNECT] Uczyń pyspark.pandas kompatybilnym z pyspark-connect
- [SPARK-47575] [SC-161402][spark-47576][SPARK-47654] Implementowanie interfejsu API logWarning/logInfo w strukturze rejestrowania strukturalnego
- [SPARK-47107] [SC-161201][ss][PYTHON] Zaimplementować czytnik partycji dla strumieniowego źródła danych w Pythonie
- [SPARK-47553] [SC-161772][ss] Dodawanie obsługi języka Java dla interfejsów API operatorów transformWithState
- [SPARK-47719] [SC-161909][sql] Zmień wartość domyślną spark.sql.legacy.timeParserPolicy na POPRAWIONE
- [SPARK-47655] [SC-161761][ss] Zintegrować czasomierz z obsługą stanu początkowego dla state-v2
- [SPARK-47665] [SC-161550][sql] Używanie narzędzia SMALLINT do zapisywania parametru ShortType w usłudze MYSQL
- [SPARK-47210] [SC-161777][sql] Dodanie niejawnego rzutowania bez obsługi form nieokreślonych
- [SPARK-47653] [SC-161767][ss] Dodano obsługę ujemnych typów liczbowych i kodera klucza skanowania zakresowego.
- [SPARK-46743] [SC-160777][sql] Błąd licznika po stałym składaniu
- [SPARK-47525] [ SC-154568][sql] Obsługa łączenia korelacji podzapytania w atrybutach mapy
- [SPARK-46366] [SC-151277][sql] Użyj wyrażenia WITH w funkcji BETWEEN, aby uniknąć zduplikowanych wyrażeń
- [SPARK-47563] [SC-161183][sql] Dodawanie normalizacji mapy podczas tworzenia
- [SPARK-42040] [ SC-161171][sql] SPJ: Wprowadzenie nowego interfejsu API dla partycji wejściowej w wersji 2 w celu raportowania statystyk partycji
-
[SPARK-47679] [SC-161549][sql] Użyj
HiveConf.getConfVarsbezpośrednio nazw konfekcyjnych programu Hive -
[SPARK-47685] [SC-161566][sql] Przywróć obsługę typu
StreaminDataset#groupBy - [SPARK-47646] [SC-161352][sql] Try_to_number zwraca wartość NULL dla nieprawidłowo sformułowanych danych wejściowych
- [SPARK-47366] [ SC-161324][python] Dodano aliasy pyspark i ramki danych parse_json
-
[SPARK-47491] [SC-161176][core] Dodaj
slf4j-apiplik jar do ścieżki klasy najpierw przed pozostałymi katalogamijars - [SPARK-47270] [SC-158741][sql] Dataset.isEmpty przetwarza wyniki poleceń lokalnie
- [SPARK-47364] [SC-158927][core] Ostrzega, gdy wtyczki odpowiadają na jednokierunkową wiadomość
- [SPARK-47280] [SC-158350][sql] Usuwanie ograniczenia strefy czasowej DLA SYGNATURY CZASOWEJ ORACLE WITH TIMEZONE
- [SPARK-47551] [ SC-161542][sql] Dodaj wyrażenie variant_get.
-
[SPARK-47559] [SC-161255][sql] Wsparcie generowania kodu dla wariantu
parse_json - [SPARK-47572] [SC-161351][sql] Zapewnienie, że 'partitionSpec' w oknach jest porządkowalne.
- [SPARK-47546] [SC-161241][sql] Ulepszanie walidacji podczas odczytywania wariantu z Parquet
-
[SPARK-47543] [SC-161234][connect][PYTHON] Wnioskowanie
dictjakoMapTypez ramki danych Pandas w celu umożliwienia tworzenia ramki danych - [SPARK-47485] [SC-161194][sql][PYTHON][connect] Tworzenie kolumny z sortowaniami w interfejsie API ramki danych
-
[SPARK-47641] [ SC-161376][sql] Zwiększanie wydajności dla
UnaryMinusiAbs -
[SPARK-47631] [SC-161325][sql] Usuń nieużywaną
SQLConf.parquetOutputCommitterClassmetodę -
[SPARK-47674] [SC-161504][core] Włącz
spark.metrics.appStatusSource.enableddomyślnie - [SPARK-47273] [SC-161162][ss][PYTHON] implementowanie interfejsu zapisywania strumienia danych języka Python.
- [SPARK-47637] [ SC-161408][sql] Użyj errorCapturingIdentifier w większej liczbie miejsc
- [SPARK-47497] Przywróć "Przywróć "[SC-160724][sql] Umożliwienie, aby to_csv obsługiwało dane wyjściowe tablicy/struktury/mapy/binarnych jako ładne ciągi""
- [SPARK-47492] [SC-161316][sql] Poszerzenie zasad dotyczących białych znaków w lexerze
- [SPARK-47664] [SC-161475][python][CONNECT] Zweryfikuj nazwę kolumny przy użyciu buforowanego schematu
- [SPARK-47638] [SC-161339][ps][CONNECT] Pomiń walidację nazwy kolumny w programie PS
- [SPARK-47363] [SC-161247][ss] Stan początkowy bez wdrożenia mechanizmu odczytu stanu dla interfejsu API stanu w wersji 2.
- [SPARK-47447] [SC-160448][sql] Umożliw odczyt Parquet TimestampLTZ jako TimestampNTZ
-
[SPARK-47497] Przywróć "[SC-160724][sql] Obsługa
to_csvdanych wyjściowycharray/struct/map/binaryjako ciągów ładnych" -
[SPARK-47434] [SC-160122][webui] Poprawka
statisticslinku wStreamingQueryPage - [SPARK-46761] [SC-159045][sql] Ciągi cytowane w ścieżce JSON powinny obsługiwać "?" characters
-
[SPARK-46915] [ SC-155729][sql] Uproszczenie i wyrównanie
UnaryMinusAbsklasy błędów - [SPARK-47431] [SC-160919][sql] Dodaj domyślne sortowanie na poziomie sesji
- [SPARK-47620] [ SC-161242][python][CONNECT] Dodawanie funkcji pomocniczej w celu sortowania kolumn
- [SPARK-47570] [SC-161165][ss] Integrowanie zmian kodera skanowania zakresu z implementacją czasomierza
-
[SPARK-47497] [SC-160724][sql] Umożliwienie
to_csvwspierania wyjściaarray/struct/map/binaryw formie ładnych ciągów -
[SPARK-47562] [SC-161166][connect] Wydzielenie obsługi literałów z
plan.py - [SPARK-47509] [SC-160902][sql] Blokuj wyrażenia podrzędne w funkcjach lambda i funkcjach wyższego rzędu
-
[SPARK-47539] [ SC-160750][sql] Ustaw wartość zwracaną metody
castToStringnaAny => UTF8String - [SPARK-47372] [SC-160905][ss] Dodano obsługę kodera stanu klucza opartego na skanowaniu zakresu do użycia z dostawcą magazynu stanowego
- [SPARK-47517] [SC-160642][core][SQL] Preferuj Utils.bytesToString dla wyświetlania rozmiaru
-
[SPARK-47243] [SC-158059][ss] Popraw nazwę pakietu
StateMetadataSource.scala - [SPARK-47367] [SC-160913][python][CONNECT] Obsługa źródeł danych języka Python za pomocą programu Spark Connect
-
[SPARK-47521] [ SC-160666][core] Użyj
Utils.tryWithResourcepodczas odczytywania danych przetasowywania z magazynu zewnętrznego - [SPARK-47474] [SC-160522][core] Przywróć spark-47461 i dodaj komentarze
- [SPARK-47560] [ SC-160914][python][CONNECT] Unikaj RPC do weryfikowania nazwy kolumny z buforowanym schematem
- [SPARK-47451] [ SC-160749][sql] Obsługa to_json(variant).
- [SPARK-47528] [ SC-160727][sql] Dodaj obsługę UserDefinedType do elementu DataTypeUtils.canWrite
- [SPARK-44708] Przywróć element "[SC-160734][python] Migrate test_reset_index assert_eq to use assertDataFrameEqual"
- [SPARK-47506] [ SC-160740][sql] Dodawanie obsługi wszystkich formatów źródeł plików dla sortowanych typów danych
- [SPARK-47256] [ SC-160784][sql] Przypisywanie nazw do klas błędów _LEGACY_ERROR_TEMP_102[4–7]
- [SPARK-47495] [SC-160720][core] Naprawiono plik JAR zasobu podstawowego dodany do spark.jars dwa razy w trybie klastra k8s
- [SPARK-47398] [SC-160572][sql] Wyodrębnianie cech dla elementu InMemoryTableScanExec, aby umożliwić rozszerzanie funkcjonalności
- [SPARK-47479] [ SC-160623][sql] Optymalizacja nie może zapisywać danych w relacjach z wieloma ścieżkami dziennika błędów
- [SPARK-47483] [SC-160629][sql] Dodanie obsługi operacji agregacji i sprzężenia na tablicach zestawionych ciągów
- [SPARK-47458] [ SC-160237][core] Rozwiązać problem z obliczaniem maksymalnych zadań współbieżnych dla etapu bariery
-
[SPARK-47534] [SC-160737][sql] Move
o.a.s.varianttoo.a.s.types.variant - [SPARK-47396] [SC-159312][sql] Dodaj ogólne mapowanie CZASU bez strefy czasowej na TimestampNTZType
- [SPARK-44708] [SC-160734][python] Zmiana testowego resetu indeksu z użyciem assert_eq na assertDataFrameEqual
- [SPARK-47309] [SC-157733][sc-160398][SQL] XML: Dodawanie testów wnioskowania schematu dla tagów wartości
-
[SPARK-47007] [SC-160630][sql] Dodaj
MapSortwyrażenie -
[SPARK-47523] [SC-160645][sql] Zamień przestarzałe
JsonParser#getCurrentNamenaJsonParser#currentName - [SPARK-47440] [ SC-160635][sql] Poprawka wypychania nieobsługiwanej składni do serwera MsSqlServer
- [SPARK-47512] [SC-160617][ss] Typ operacji oznaczającej tag używany przy połączeniu/rozłączeniu blokady instancji magazynu stanów RocksDB.
- [SPARK-47346] [SC-159425][python] Umożliwienie konfiguracji trybu demona podczas tworzenia pracowników planowania w języku Python
-
[SPARK-47446] [SC-160163][core] Ostrzeż przed
BlockManagerremoveBlockInternal - [SPARK-46526] [SC-156099][sql] Obsługa LIMIT skorelowanych podzapytania, gdzie predykaty odwołują się tylko do tabeli zewnętrznej
-
[SPARK-47461] [SC-160297][core] Usuń funkcję
totalRunningTasksPerResourceProfileprywatną zExecutorAllocationManager - [SPARK-47422] [SC-160219][sql] Obsługa ciągów z koalescją w operacjach tablicowych
-
[SPARK-47500] [SC-160627][python][CONNECT] Wyłączyć obsługę nazw kolumn z
plan.py -
[SPARK-47383] [SC-160144][core] Obsługa konfiguracji
spark.shutdown.timeout - [SPARK-47342] [SC-159049]Przywracanie parametru "[SQL] Support TimestampNTZ for DB2 TIMESTAMP WITH TIME ZONE"
-
[SPARK-47486] [SC-160491][connect] Usuń prywatną, nieużywaną metodę
ArrowDeserializers.getString - [SPARK-47233] [SC-154486][connect][SS][2/2] Logika klienta i serwera dla odbiornika zapytań przesyłania strumieniowego po stronie klienta
- [SPARK-47487] [SC-160534][sql] Upraszczanie kodu w ansiTypeCoercion
- [SPARK-47443] [SC-160459][sql] Obsługa agregacji okien dla sortowania
- [SPARK-47296] [SC-160457][sql][COLLATION] Niepowodzenie nieobsługiwanych funkcji dla sortowania niebinarnego
- [SPARK-47380] [SC-160164][connect] Upewnij się, że SparkSession jest taka sama po stronie serwera
- [SPARK-47327] [SC-160069][sql] Przenieś test jednoczesności sortowania kluczy do CollationFactorySuite
- [SPARK-47494] [SC-160495][doc] Dodaj dokumentację migracji dla zmiany zachowania wnioskowania znaczników czasowych Parquet od Spark 3.3
- [SPARK-47449] [ SC-160372][ss] Refaktoryzacja i podział listy/testów jednostkowych czasomierza
-
[SPARK-46473] [SC-155663][sql] Ponowne użycie
getPartitionedFilemetody - [SPARK-47423] [SC-160068][sql] Obsługa operacji zbioru dla ciągów tekstowych z sortowaniami
- [SPARK-47439] [SC-160115][python] Udokumentuj Interfejs API źródła danych języka Python na stronie referencyjnej interfejsu API
-
[SPARK-47457] [SC-160234][sql] Poprawka
IsolatedClientLoader.supportsHadoopShadedClientdo obsługi platformy Hadoop 3.4+ - [SPARK-47366] [ SC-159348][sql] Implementowanie parse_json.
- [SPARK-46331] [SC-152982][sql] Usuwanie elementu CodegenFallback z podzestawu wyrażeń DateTime i wyrażenia version()
- [SPARK-47395] [SC-159404] Dodaj zestawienie oraz porządkowanie do innych interfejsów API
-
[SPARK-47437] [SC-160117][python][CONNECT] Popraw klasę błędów dla
DataFrame.sort* - [SPARK-47174] [SC-154483][connect][SS][1/2] SparkConnectListenerBusListener po stronie serwera dla nasłuchiwacza zapytań strumieniowych po stronie klienta
- [SPARK-47324] [SC-158720][sql] Dodaj brakującą konwersję znacznika czasu dla zagnieżdżonych typów JDBC.
- [SPARK-46962] [ SC-158834][ss][PYTHON] Dodanie interfejsu dla API strumieniowego źródła danych w Pythonie i zaimplementowanie środowiska wykonawczego w Pythonie do obsługi strumieniowego źródła danych
- [SPARK-45827] [ SC-158498][sql] Przenoszenie kontroli typów danych do CreatableRelationProvider
- [SPARK-47342] [SC-158874][sql] Obsługa TimestampNTZ dla DB2 TIMESTAMP Z CZASEM STREFY
- [SPARK-47399] [SC-159378][sql] Wyłącz wygenerowane kolumny na wyrażeniach z sortowaniami
- [SPARK-47146] [SC-158247][core] Możliwy wyciek wątku podczas sprzężenia scalania z sortowaniem
- [SPARK-46913] [ SC-159149][ss] Dodanie obsługi czasomierzy opartych na czasie przetwarzania/zdarzeń z operatorem transformWithState
-
[SPARK-47375] [ SC-159063][sql] Dodanie wytycznych dotyczących mapowania znacznika czasu w
JdbcDialect#getCatalystType - [SPARK-47394] [SC-159282][sql] Obsługa ZNACZNIKA CZASU ZE STREFĄ CZASOWĄ dla H2Dialect
- [SPARK-45827] Cofnij zmianę “[SC-158498][sql] Przenieś kontrole typów danych do ...
- [SPARK-47208] [SC-159279][core] Umożliwienie zastępowania podstawowych pamięci narzutowych
- [SPARK-42627] [SC-158021][spark-26494][SQL] Obsługa Oracle TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-47055] [ SC-156916][python] Upgrade MyPy 1.8.0
- [SPARK-46906] [SC-157205][ss] Dodać sprawdzenie zmiany operatora stanowego dla przesyłania strumieniowego
- [SPARK-47391] [SC-159283][sql] Usuwanie obejścia przypadku testowego dla zestawu JDK 8
- [SPARK-47272] [SC-158960][ss] Dodanie implementacji MapState dla interfejsu API stanu w wersji 2.
- [SPARK-47375] [ SC-159278][doc][FollowUp] Poprawa błędu w dokumentacji dotyczącej opcji JDBC preferTimestampNTZ
- [SPARK-42328] [SC-157363][sql] Usuwanie _LEGACY_ERROR_TEMP_1175 z klas błędów
- [SPARK-47375] [ SC-159261][doc][FollowUp] Popraw opis opcji preferTimestampNTZ w kodzie JDBC
- [SPARK-47344] [ SC-159146] Rozszerzenie progu błędu INVALID_IDENTIFIER poza przechwytywanie identyfikatora '-', aby obejmować również inne przypadki, oraz poprawa problemu z 'IS !'. NULL" i in.
- [SPARK-47340] [SC-159039][sql] Zmień wartość "collate" w polu StringType typename na małe litery
- [SPARK-47087] [SC-157077][sql] Zgłoś wyjątek platformy Spark z klasą błędów w sprawdzaniu wartości konfiguracji
- [SPARK-47327] [ SC-158824][sql] Rozwiązano problem z bezpieczeństwem wątków w kolatorze ICU
- [SPARK-47082] [SC-157058][sql] Naprawa błędu wynikającego z wyjścia poza granice
- [SPARK-47331] [SC-158719][ss] Serializacja przy użyciu klas przypadków/pierwotnych/POJO opartych na koderze SQL dla interfejsu API dowolnego stanu w wersji 2.
- [SPARK-47250] [ SC-158840][ss] Dodawanie dodatkowych weryfikacji i zmian NERF dla dostawcy stanu bazy danych RocksDB i korzystania z rodzin kolumn
- [SPARK-47328] [SC-158745][sql] Zmień nazwę sortowania UCS_BASIC na UTF8_BINARY
-
[SPARK-47207] [SC-157845][core] Obsługa
spark.driver.timeoutiDriverTimeoutPlugin - [SPARK-47370] [ SC-158956][doc] Dodawanie dokumentu migracji: wnioskowanie typu TimestampNTZ w plikach Parquet
- [SPARK-47309] [SC-158827][sql][XML] Dodawanie testów jednostkowych wnioskowania schematu
-
[SPARK-47295] [SC-158850][sql] Dodano ICU StringSearch dla funkcji
startsWithiendsWith -
[SPARK-47343] [SC-158851][sql] Naprawa NPE, gdy wartość zmiennej
sqlStringjest ciągiem null w poleceniu execute immediate -
[SPARK-46293] [SC-150117][connect][PYTHON] Użyj
protobufzależności przechodniej -
[SPARK-46795] [SC-154143][sql] Zastąp
UnsupportedOperationExceptionprzezSparkUnsupportedOperationExceptionwsql/core - [SPARK-46087] [ SC-149023][python] Synchronizacja zależności PySpark w dokumentach i wymaganiach deweloperskich
- [SPARK-47169] [ SC-158848][sql] Wyłączanie zasobnika dla kolumn sortowania
- [SPARK-42332] [ SC-153996][sql] Zmienianie wymagania dla elementu SparkException w parametrze ComplexTypeMergingExpression
- [SPARK-45827] [ SC-158498][sql] Przenoszenie kontroli typów danych do CreatableRelationProvider
- [SPARK-47341] [ SC-158825][connect] Zastąp polecenia relacjami w kilku testach w usłudze SparkConnectClientSuite
- [SPARK-43255] [ SC-158026][sql] Zamień klasę błędów _LEGACY_ERROR_TEMP_2020 przez błąd wewnętrzny
- [SPARK-47248] [SC-158494][sql][COLLATION] Ulepszona obsługa funkcji ciągów: zawiera
-
[SPARK-47334] [SC-158716][sql] Spraw, aby
withColumnRenamedponownie użył implementacjiwithColumnsRenamed - [SPARK-46442] [SC-153168][sql] DS V2 obsługuje wypychanie PERCENTILE_CONT i PERCENTILE_DISC
- [SPARK-47313] [SC-158747][sql] Dodano obsługę scala.MatchError wewnątrz elementu QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][sql] Dodawanie typu singleton wariantu dla języka Java
- [SPARK-47337] [SC-158743][sql][DOCKER] Uaktualnianie wersji obrazu platformy Docker DB2 do 11.5.8.0
- [SPARK-47302] [SC-158609][sql] Sortuj słowo kluczowe jako identyfikator
-
[SPARK-46817] [SC-154196][core] Poprawiono
spark-daemon.shużycie, dodającdecommissionpolecenie -
[SPARK-46739] [SC-153553][sql] Dodaj klasę błędów
UNSUPPORTED_CALL -
[SPARK-47102] [ SC-158253][sql] Dodaj flagę konfiguracji
COLLATION_ENABLED - [SPARK-46774] [SC-153925][sql][AVRO] Użyj pliku mapreduce.output.fileoutputformat.compress zamiast przestarzałego pliku mapred.output.compress w zadaniach zapisu Avro
- [SPARK-45245] [SC-146961][python][CONNECT] PythonWorkerFactory: Przekroczenie czasu, jeśli pracownik nie połączy się z powrotem.
- [SPARK-46835] [SC-158355][sql][Porównania] Wsparcie dla połączeń z porównaniami nie-binarnymi
- [SPARK-47131] [SC-158154][sql][COLLATION] Obsługa funkcji ciągów: contains, startswith, endswith
- [SPARK-46077] [SC-157839][sql] Należy rozważyć typ generowany przez TimestampNTZConverter w JdbcDialect.compileValue.
- [SPARK-47311] [ SC-158465][sql][PYTHON] Pomijanie wyjątków języka Python, w których PySpark nie znajduje się w ścieżce języka Python
- [SPARK-47319] [SC-158599][sql] Ulepszanie obliczania brakującego wejścia
- [SPARK-47316] [SC-158606][sql] Fix TimestampNTZ in Postgres Array
- [SPARK-47268] [SC-158158][sql][Collations] Obsługa ponownego partycjonowania z sortowaniami
- [SPARK-47191] [ SC-157831][sql] Unikaj niepotrzebnego wyszukiwania relacji podczas odsuania tabeli/widoku
- [SPARK-47168] [ SC-158257][sql] Wyłącz wypychanie filtra Parquet podczas pracy z ciągami znaków o nie domyślnym porządku sortowania
-
[SPARK-47236] [ SC-158015][core] Poprawiono
deleteRecursivelyUsingJavaIO, aby pominąć nieistniejące wejście pliku - [SPARK-47238] [ SC-158466][sql] Zmniejszenie użycia pamięci wykonawczej przez utworzenie wygenerowanego kodu w WSCG jako zmiennej emisji
- [SPARK-47249] [SC-158133][connect] Naprawiono usterkę polegającą na tym, że wszystkie wykonania połączenia są uznawane za porzucone niezależnie od ich rzeczywistego stanu
- [SPARK-47202] [SC-157828][python] Naprawienie literówki powodującej błąd w datach z tzinfo
- [SPARK-46834] [SC-158139][sql][Sortowanie] Obsługa agregacji
- [SPARK-47277] [SC-158351][3.5] Funkcja narzędziowa PySpark assertDataFrameEqual nie powinna obsługiwać strumieniowych ramek danych (DF)
- [SPARK-47155] [SC-158473][python] Naprawa problemu z klasą błędów
- [SPARK-47245] [SC-158163][sql] Poprawienie kodu błędu dla INVALID_PARTITION_COLUMN_DATA_TYPE
-
[SPARK-39771] [ SC-158425][core] Dodaj ostrzeżenie z wiadomością w
Dependencyjeśli ma zostać utworzona zbyt duża liczba bloków mieszania. - [SPARK-47277] [SC-158329] Funkcja pomocnicza PySpark assertDataFrameEqual nie powinna obsługiwać strumieniowych ramek danych (DF)
- [SPARK-47293] [ SC-158356][core] Budowanie batchSchema za pomocą sparkSchema zamiast dodawania jeden po drugim
- [SPARK-46732] [SC-153517][connect] Spraw, aby wątek Podzapytanie/Transmitowanie działał z zarządzaniem artefaktami Connect.
- [SPARK-44746] [SC-158332][python] Dodaj więcej dokumentacji udTF języka Python dla funkcji, które akceptują tabele wejściowe
- [SPARK-47120] [SC-157517][sql] Przenoszenie porównań z podzapytania do filtru danych powoduje wystąpienie NPE w filtrze Parquet
-
[SPARK-47251] [SC-158291][python] Blokuj nieprawidłowe typy z argumentu
argspoleceniasql -
[SPARK-47251] Przywróć "[SC-158121][python] Blokuj nieprawidłowe typy z argumentu
argspoleceniasql" - [SPARK-47015] [ SC-157900][sql] Wyłączanie partycjonowania w kolumnach sortowania
-
[SPARK-46846] [SC-154308][core] Spraw, aby
WorkerResourceInfojawnie rozszerzałSerializable - [SPARK-46641] [SC-156314][ss] Dodaj próg maxBytesPerTrigger
-
[SPARK-47244] [SC-158122][connect]
SparkConnectPlannerustaw funkcje wewnętrzne jako prywatne -
[SPARK-47266] [SC-158146][connect] Zwróć
ProtoUtils.abbreviateten sam typ co wejście - [SPARK-46961] [SC-158183][ss] Używanie ProcessorContext do przechowywania i pobierania uchwytu
- [SPARK-46862] [ SC-154548][sql] Wyłączanie przycinania kolumn CSV w trybie wielowierszowym
-
[SPARK-46950] [SC-155803][core][SQL] Wyrównaj
not available codecklasę błędów -
[SPARK-46368] [SC-153236][core] Obsługa
readyzinterfejsu API przesyłania REST - [SPARK-46806] [ SC-154108][python] Ulepszanie komunikatu o błędzie dla tabeli spark.table, gdy typ argumentu jest nieprawidłowy
- [SPARK-47211] [SC-158008][connect][PYTHON] Naprawa ignorowania sortowania ciągów w PySpark Connect
-
[SPARK-46552] [SC-151366][sql] Zastąp
UnsupportedOperationExceptionprzezSparkUnsupportedOperationExceptionwcatalyst - [SPARK-47147] [SC-157842][python][SQL] Naprawiono błąd konwersji ciągów sortowania PySpark
- [SPARK-47144] [SC-157826][connect][SQL][python] Naprawiono błąd sortowania programu Spark Connect, dodając pole collateId protobuf
- [SPARK-46575] [SC-153200][sql][HIVE] Umożliwić powtarzalność HiveThriftServer2.startWithContext w DevelopApi i naprawić niestabilność ThriftServerWithSparkContextInHttpSuite
- [SPARK-46696] [ SC-153832][core] W usłudze ResourceProfileManager wywołania funkcji powinny występować po deklaracjach zmiennych
- [SPARK-47214] [SC-157862][python] Tworzenie interfejsu API UDTF dla metody "analyze" w celu odróżnienia stałych argumentów NULL i innych typów argumentów
- [SPARK-46766] [SC-153909][sql][AVRO] Obsługa puli buforów ZSTD dla źródła danych AVRO
- [SPARK-47192] [SC-157819] Konwertowanie niektórych błędów _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341][ss] Dodano obsługę ListState w API dowolnych stanów wersji 2.
-
[SPARK-46881] [SC-154612][core] Obsługa
spark.deploy.workerSelectionPolicy -
[SPARK-46800] [SC-154107][core] Obsługa
spark.deploy.spreadOutDrivers - [SPARK-45484] [SC-146014][sql] Naprawa usterki polegającej na używaniu niepoprawnego kodeka kompresji parquet lz4raw
- [SPARK-46791] [SC-154018][sql] Obsługa zbiorów Java w JavaTypeInference
-
[SPARK-46332] [ SC-150224][sql] Migrowanie
CatalogNotFoundExceptiondo klasy błędówCATALOG_NOT_FOUND - [SPARK-47164] [ SC-157616][sql] Ustaw wartość domyślną z szerszego typu Wąski literał v2 zachowuje się tak samo jak wersja 1
-
[SPARK-46664] [SC-153181][core] Ulepsz
Masteraby szybko odzyskać przy zerowej liczbie pracowników i aplikacji - [SPARK-46759] [SC-153839][sql][AVRO] Codec xz i zstandard obsługują poziom kompresji dla plików avro
Obsługa sterowników ODBC/JDBC usługi Databricks
Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Zobacz Aktualizacje konserwacyjne środowiska Databricks Runtime 15.2.
Środowisko systemu
- System operacyjny: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Zainstalowane biblioteki języka Python
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
| azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
| black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
| botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
| cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
| click | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
| contourpy | 1.0.5 | kryptografia | 41.0.3 | cycler | 0.11.0 |
| Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | dekorator | 5.1.1 | distlib | 0.3.8 |
| entrypoints | 0.4 | executing | 0.8.3 | facets-overview | 1.1.1 |
| filelock | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
| google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
| google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
| grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
| ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | packaging | 23.2 |
| pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
| Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
| plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
| protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
| pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
| pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
| pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
| requests | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.1 |
| scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
| traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
| ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| wheel | 0.38.4 | zipp | 3.11.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN Menedżera Pakietów Posit.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| arrow | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.4.1 | baza | 4.3.2 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
| brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
| bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
| karetka | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| klasa | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
| clock | 0.7.0 | klaster | 2.1.4 | codetools | 0.2-19 |
| colorspace | 2.1-0 | commonmark | 1.9.1 | kompilator | 4.3.2 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.2 | dane logowania | 2.0.1 | curl | 5.2.0 |
| data.table | 1.15.0 | datasets | 4.3.2 | DBI | 1.2.1 |
| dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.34 |
| downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | wielokropek | 0.3.2 | evaluate | 0.23 |
| fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
| future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
| typy ogólne | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
| gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| graphics | 4.3.2 | grDevices | 4.3.2 | siatka | 4.3.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
| gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
| highr | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
| httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-21 | knitr | 1.45 | labeling | 0.4.3 |
| later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
| cykl życia | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
| Matrix | 1.5-4.1 | memoise | 2.0.1 | methods | 4.3.2 |
| mgcv | 1.8-42 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
| parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.3 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
| plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
| prodlim | 2023.08.28 | profvis | 0.3.8 | progress | 1.2.3 |
| progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
| serwer proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
| reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recipes | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
| remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
| rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
| roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
| rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
| scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| kształt | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.4 | przestrzenny | 7.3-15 | splines | 4.3.2 |
| sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
| stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
| survival | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
| systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
| textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
| tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
| timeDate | 4032.109 | tinytex | 0.49 | tools | 4.3.2 |
| tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
| utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
| V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
| vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
| withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
| xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
| zeallot | 0.1.0 | zip | 2.3.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
| com.amazonaws | aws-java-sdk-config | 1.12.610 |
| com.amazonaws | aws-java-sdk-core | 1.12.610 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
| com.amazonaws | aws-java-sdk-directory | 1.12.610 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
| com.amazonaws | aws-java-sdk-efs | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
| com.amazonaws | aws-java-sdk-emr | 1.12.610 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
| com.amazonaws | aws-java-sdk-glue | 1.12.610 |
| com.amazonaws | aws-java-sdk-iam | 1.12.610 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
| com.amazonaws | aws-java-sdk-kms | 1.12.610 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
| com.amazonaws | aws-java-sdk-logs | 1.12.610 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
| com.amazonaws | aws-java-sdk-rds | 1.12.610 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
| com.amazonaws | aws-java-sdk-ses | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
| com.amazonaws | aws-java-sdk-sns | 1.12.610 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
| com.amazonaws | aws-java-sdk-sts | 1.12.610 |
| com.amazonaws | aws-java-sdk-support | 1.12.610 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
| com.amazonaws | jmespath-java | 1.12.610 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.17.1 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caffeine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 72.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.25 |
| io.delta | delta-sharing-client_2.12 | 1.0.5 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | netty-buffer | 4.1.96.Final |
| io.netty | netty-codec | 4.1.96.Final |
| io.netty | netty-codec-http | 4.1.96.Final |
| io.netty | netty-codec-http2 | 4.1.96.Final |
| io.netty | netty-codec-socks | 4.1.96.Final |
| io.netty | netty-common | 4.1.96.Final |
| io.netty | netty-handler | 4.1.96.Final |
| io.netty | netty-handler-proxy | 4.1.96.Final |
| io.netty | netty-resolver | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.96.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute | 3.6.3 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |