Udostępnij przez


Databricks Runtime 17.3 LTS

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 17.3 LTS obsługiwanym przez platformę Apache Spark 4.0.0.

Usługa Azure Databricks wydała tę wersję LTS w październiku 2025 r.

Nowe funkcje i ulepszenia

EXECUTE IMMEDIATE używanie wyrażeń stałych

Teraz można przekazywać wyrażenia stałe jako ciągi SQL i jako argumenty do oznaczeń parametrów w EXECUTE IMMEDIATE komendach.

LIMIT ALL obsługa cyklicznych CT

Teraz możesz użyć LIMIT ALL do usunięcia ograniczenia całkowitego rozmiaru dla rekursywnych typowych wyrażeń tabeli (CTE).

JDK 21 dla klasycznych obliczeń (publiczna wersja zapoznawcza)

Zestaw Java Development Kit (JDK) 21 jest dostępny w publicznej wersji zapoznawczej dla klasycznych obliczeń. Aby ją włączyć, zobacz Tworzenie klastra z określoną wersją zestawu JDK.

Dołączanie do plików w woluminach Unity Catalog zwraca prawidłowy błąd

Każdy kod, który próbuje dołączyć zawartość do pliku wolumenu Unity Catalog, kończy się teraz niepowodzeniem z komunikatem o błędzie "Nieprawidłowe przesunięcie". Wcześniej wystąpił nieprawidłowy błąd "operacja nieobsługiwana".

TABLE obsługa argumentów dla katalogu Unity funkcji tabeli definiowanej przez użytkownika (UDTF) w Pythonie

Funkcje UDTF w języku Python w katalogu Unity teraz obsługują argumenty TABLE, umożliwiając przyjmowanie całych tabel jako parametrów wejściowych, co pozwala na bardziej złożone przekształcenia i agregacje w ustrukturyzowanych zestawach danych. Zobacz Funkcje tabeli definiowane przez użytkownika (UDTF) w języku Python w katalogu Unity. Obsługa argumentów tabeli została przywrócona do środowiska Databricks Runtime 17.2.

st_dump obsługa funkcji

Teraz możesz użyć st_dump funkcji , aby uzyskać tablicę zawierającą pojedyncze geometrie geometrii danych wejściowych. Zobacz st_dump funkcję.

Funkcje pierścienia wewnętrznego wielokątnego są teraz obsługiwane

Teraz możesz użyć następujących funkcji do pracy z wielokątnymi pierścieniami wewnętrznymi:

remote_query funkcja wartości tabeli (publiczna wersja zapoznawcza)

Możesz teraz użyć funkcji tabelarycznej remote_query, aby wykonywać zapytania w zdalnych silnikach baz danych i zwracać wyniki tabelaryczne. Ta funkcja pobiera dane z systemów zdalnych przy użyciu poświadczeń z połączeń Unity Catalog i obsługuje różne opcje konektora dla baz danych SQL i NoSQL. Zobacz remote_query funkcji wartości tabeli.

Zmiany zachowania

input_file_name funkcja nie jest już obsługiwana i podlega przyszłemu usunięciu

Funkcja input_file_name jest oznaczona jako przestarzała w środowisku Databricks Runtime 13.3 LTS, ponieważ jest zawodna. Funkcja nie jest już obsługiwana w środowisku Databricks Runtime 17.3 LTS i nowszym, ponieważ jest zawodna. Zamiast tego użyj nazwy _metadata.file_name .

Zmieniono domyślne listowanie przyrostowe w Auto Loader.

Wartość domyślna dla przestarzałej cloudFiles.useIncrementalListing opcji została zmieniona z auto na false. Usługa Azure Databricks wykonuje teraz pełne listy katalogów zamiast list przyrostowych, aby zapobiec pomijaniu plików z powodu porządkowania nieskalistycznego. Na przykład 10-01-2025.csv pojawia się przed 8-01-2025.csv leksykograficznie.

Databricks zaleca migrację na zdarzenia plików dla szybszego i bardziej niezawodnego odnajdywania plików.

Aby zachować poprzednie zachowanie, jawnie ustaw cloudFiles.useIncrementalListing na auto.

Obsługa informacji o odświeżaniu MV/ST w programie DESCRIBE EXTENDED AS JSON

Azure Databricks generuje teraz sekcję dotyczącą informacji o odświeżaniu widoków zmaterializowanych i tabel przesyłania strumieniowego w danych wyjściowych DESCRIBE EXTENDED AS JSON, obejmującą czas ostatniego odświeżenia, typ odświeżania, status oraz harmonogram.

Dodawanie kolumny metadanych do DESCRIBE QUERY i DESCRIBE TABLE

Usługa Azure Databricks zawiera teraz kolumnę metadanych w danych wyjściowych DESCRIBE QUERY i DESCRIBE TABLE dla metadanych semantycznych.

W przypadku DESCRIBE QUERY, podczas opisywania zapytania z widokami metryk, semantyczne metadane są propagowane za pośrednictwem zapytania, jeśli wymiary są bezpośrednio przywoływane, a miary używają funkcji MEASURE().

W przypadku DESCRIBE TABLEelementu kolumna metadanych jest wyświetlana tylko dla widoków metryk, a nie innych typów tabel.

Naprawianie konwersji wartości tymczasowej w literałach struktury podczas korzystania z trybu Connect

Tryb Spark Connect obsługuje teraz poprawnie literały struktury w TypedLit, które przetwarzają wartości czasowe zamiast zgłaszać wyjątki. Wcześniej próba użycia wartości czasowych (takich jak daty lub znaczniki czasu) w literałach struktury spowodowałoby wyjątek.

Zmień dokładność dziesiętną i skaluj na SYSTEM_DEFAULT w trybie nawiązywania połączenia

W przypadku korzystania z trybu Spark Connect w języku Scala precyzja dziesiętna i skala w literałach tablic i map są teraz zmieniane na SYSTEM_DEFAULT (38, 18). Ta zmiana wpływa tylko na plan logiczny (na przykład dane wyjściowe explain() polecenia) i nie ma wpływu na wyniki zapytania.

Obsługa złożonych typów obserwacji w kliencie Spark Connect Scala

Klient Spark Connect Scala obsługuje teraz typy tablic, map i struktur w obserwacjach, co zapewnia zachowanie zgodne z dedykowanymi klastrami. Wcześniej próba użycia tych złożonych typów w obserwacjach powodowała wyjątek.

Zachowaj wartości null w literałach tablic, map i struktur

W trybie Spark Connect wartości null wewnątrz tablicy, mapy i literałów struktury są teraz zachowywane zamiast zastępować wartościami domyślnymi protobuf. Wcześniej wartości null były niepoprawnie zastępowane wartościami domyślnymi, takimi jak 0 dla liczb całkowitych, puste ciągi znaków dla typów string oraz false dla typów boolean.

Zachowywanie wartości null dla literałów wpisanych

Klient Spark Connect Scala poprawnie zachowuje nullowalność typów tablic i map dla literałów typowanych. Wcześniej elementy tablicy i wartości mapy były zawsze traktowane jako możliwe do przyjęcia jako null, niezależnie od rzeczywistej definicji typu.

Naprawianie konwersji klas przypadków w literałach tablic i map

W trybie Spark Connect literały tablic i map poprawnie obsługują wartości case class zamiast zgłaszać wyjątki. Wcześniej próba użycia wartości klas przypadków w literałach tablic lub map powodowała wyjątek.

Prawidłowa obsługa struktur o wartości null podczas usuwania NullType kolumn

Podczas zapisywania w tabelach Delta usługa Azure Databricks teraz prawidłowo zachowuje wartości struktury null podczas usuwania NullType kolumn ze schematu. Wcześniej struktury null zostały niepoprawnie zastąpione wartościami struktur innych niż null, w których wszystkie pola zostały ustawione na null. Na przykład wstawienie wartości struktury null będzie później odczytywane jako struktura z polami null zamiast struktury null.

Ulepszona obsługa struktur null w Parquet

Usługa Azure Databricks teraz prawidłowo wykrywa struktury null, gdy brakuje wszystkich żądanych pól struktury w pliku Parquet, co sprawia, że zachowanie jest spójne między czytnikami Photon i innych niż Photon. Wcześniej czytniki inne niż Photon zwracały NULL dla całej struktury zamiast struktury z polami null podczas odczytywania plików Parquet, gdzie brakowało wszystkich żądanych pól, ale były obecne inne pola.

Uaktualnianie aws-msk-iam-auth biblioteki dla platformy Kafka

Biblioteka aws-msk-iam-auth została uaktualniona do wersji 2.0.1 w celu obsługi ustawiania regionalnego punktu końcowego usługi tokenu zabezpieczającego (STS) dla zarządzanego przesyłania strumieniowego na potrzeby uwierzytelniania IAM platformy Apache Kafka (MSK). Nowa awsStsRegion opcja jest dostępna tylko po włączeniu odpowiedniej konfiguracji platformy Spark. To uaktualnienie nie wprowadza żadnych zmian behawioralnych dla istniejących obciążeń.

Uaktualnienia biblioteki

Uaktualnione biblioteki języka Python:

W tej wersji nie uaktualniono żadnych bibliotek języka Python.

Uaktualnione biblioteki języka R:

W tej wersji nie uaktualniono żadnych bibliotek języka R.

Uaktualnione biblioteki Java:

W tej wersji nie uaktualniono żadnych bibliotek Języka Java.

Apache Spark

Środowisko Databricks Runtime 17.3 LTS obejmuje platformę Apache Spark 4.0.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w wersji 17.2, a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • SPARK-44856 Przywróć "[SC-195808][python] Poprawianie wydajności serializatora strzałek UTF języka Python"
  • SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Naprawa obsługi wartości null w LiteralValueProtoConverter
  • SPARK-53507 Dodawanie informacji o zmianach powodujących niezgodność do błędów
  • SPARK-53574 Naprawa usuwania AnalysisContext podczas rozwiązywania zagnieżdżonych planów
  • SPARK-53444 Przebudowa natychmiastowego wykonania
  • SPARK-53560 Ciągłe awarie podczas ponownej próby niezatwierdzonej partii w źródle platformy Kafka i wyzwalaczu AvailableNow
  • SPARK-53127 Włącz opcję LIMIT ALL, aby zastąpić limit wierszy rekursji
  • SPARK-53574 Przywróć "[SC-206548] Poprawka AnalysisContext jest usuwana...
  • SPARK-53674 Obsługa zapytań LCA analizatora jednoprzepustowego podczas przypisywania aliasów
  • SPARK-53492 Odrzuć drugi plan wykonania z identyfikatorem operacji, który został już ukończony
  • SPARK-53677 Zwiększanie możliwości debugowania źródła danych JDBC, gdy zapytanie zawiera błąd składni
  • SPARK-53490 Naprawa konwersji Protobuf w obserwowanych metrykach
  • SPARK-53671 Wyklucz 0-args z @udf wnioskowania typu owalnego
  • SPARK-53592 Przebudowa "Umożliwienie wektoryzowanego wsparcia dla UDF"
  • SPARK-53654 Przebudowa "Wsparcie dla parametru 'seed' w funkcji uuid"
  • SPARK-53429 Obsługa partycjonowania z bezpośrednim przekazywaniem w interfejsie API PySpark DataFrame
  • SPARK-53372 Pakiet wspólnego środowiska testowego dla protokołu LDP
  • SPARK-53574 Naprawa usuwania AnalysisContext podczas rozwiązywania zagnieżdżonych planów
  • SPARK-53654 Przywróć "[SC-207022][sql][PYTHON] Wsparcie seed w funkcji uuid"
  • SPARK-53574 Przywróć "[SC-206548] Odwróć zmianę dotyczącą usunięcia AnalysisContext podczas rozpoznawania zagnieżdżonego planu"
  • SPARK-53559 Napraw aktualizacje szkiców HLL, aby używać surowych bajtów klucza sortującego
  • SPARK-53654 Obsługa seed w funkcji uuid
  • SPARK-52449 Wprowadź typy danych dla opcjonalnego elementu Expression.Literal.Map/Array
  • SPARK-53574 Naprawa usuwania AnalysisContext podczas rozwiązywania zagnieżdżonych planów
  • SPARK-53625 Propagacja kolumn metadanych za pomocą projekcji w celu adresowania niezgodności ApplyCharTypePadding
  • SPARK-53558 Przywróć "[SC-206544][sql] Pokaż w pełni kwalifikowaną nazwę tabeli, w tym nazwę katalogu, w komunikacie o wyjątku, gdy tabela nie zostanie znaleziona"
  • SPARK-53558 Pokaż w pełni kwalifikowaną nazwę tabeli, w tym nazwę wykazu w komunikacie o wyjątku, gdy tabela nie zostanie znaleziona
  • SPARK-53357 Aktualizacja pandas do wersji 2.3.2
  • SPARK-52659Mylący komunikat o błędzie modulo w trybie ANSI
  • SPARK-53592 Przywróć "[SC-206971][python] Utwórz @udf obsługę wektoryzowanej funkcji zdefiniowanej przez użytkownika"
  • SPARK-53592 Obsługa wektoryzowanej funkcji zdefiniowanej przez użytkownika
  • SPARK-52601 Obsługa typów pierwotnych w transformingEncoder
  • SPARK-53355 naprawa reprezentacji numpy 1.x w testach typów
  • SPARK-53387 Dodano obsługę funkcji UDTFs Arrow za pomocą PARTITION funkcji BY
  • SPARK-52991 Implementowanie MERGE INTO za pomocą SCHEMA technologii EVOLUTION dla źródła danych w wersji 2
  • SPARK-53568 Naprawianie kilku małych usterek w logice obsługi błędów klienta platformy Spark Connect w języku Python
  • Optim SPARK-43579: Buforuj konwerter między Arrow i pandas do ponownego użycia
  • SPARK-53524 Naprawa konwersji wartości czasowej w LiteralValueProtoConverter
  • SPARK-53600 Zaktualizowanie SessionHolder komunikatu dziennika czasu ostatniego dostępu
  • SPARK-53529 Poprawka pyspark połączenia klienta z obsługą protokołu IPv6
  • SPARK-53537 Dodawanie obsługi analizowania CONTINUE HANDLER
  • SPARK-53623 poprawia wydajność odczytu dużych właściwości tabeli
  • SPARK-53523 Nazwane parametry są zgodne spark.sql.caseSensitive
  • SPARK-53449 Proste opcje dla wbudowanych klas związanych ze skanowaniem źródła danych
  • SPARK-53620 Usługa SparkSubmit powinna drukować stostrace po wywołaniu exitFn
  • SPARK-53518 Brak obcinania dla catalogString w typie zdefiniowanym przez użytkownika
  • SPARK-53568 Przywróć "[SC-206538][connect][PYTHON] Naprawienie kilku drobnych błędów w logice obsługi błędów klienta Spark Connect w języku Python"
  • SPARK-53602 Ulepszenie zrzutu profilu i poprawka dokumentu profilera
  • SPARK-53402 Obsługa API zbioru danych do partycjonowania bezpośredniego przepuszczania w Spark Connect w języku Scala
  • SPARK-53491 Naprawiono formatowanie wykładnicze wejścioweRowsPerSecond i przetworzoneRowsPerSecond w metrykach JSON dotyczących postępu.
  • SPARK-53413 Czyszczenie "shuffle" w komendach
  • SPARK-53518 Przywróć "[SC-205989][sql] Brak obcinania dla catalogString typu zdefiniowanego przez użytkownika"
  • SPARK-53568 Naprawianie kilku małych usterek w logice obsługi błędów klienta platformy Spark Connect w języku Python
  • SPARK-53552 Optymalizacja funkcji SQL substr
  • SPARK-53527 Ulepszanie rezerwowego elementu analyzeExistenceDefaultValue
  • SPARK-53584 Poprawa walidacji process_column_param i dokumentacji parametrów kolumn
  • SPARK-53498 Poprawne odniesienie pyspark/pipelines/cli.py z spark-pipelines binariów
  • SPARK-53518 Brak obcinania dla catalogString w typie zdefiniowanym przez użytkownika
  • SPARK-53233 Spraw, aby kod związany z streaming używa poprawnej nazwy pakietu
  • SPARK-53598 Sprawdź istnienie numParts przed odczytaniem właściwości dużej tabeli
  • SPARK-53372 Zestaw kompleksowego testowania SDP
  • SPARK-53563 Optymalizować: sql_processor, unikając nieefektywnej konkatenacji tekstu
  • SPARK-53323 Włącz testy Spark Connect dla df.asTable() w Arrow UDTF
  • SPARK-53157 Separacja interwałów sondowania sterownika i wykonawcy
  • SPARK-53555 Poprawka: Program SparkML-connect nie może załadować zapisanego modelu SparkML (w starszym trybie)
  • SPARK-53361 Optymalizowanie komunikacji JVM–Python w technologii TWS przez grupowanie wielu kluczy w jedną partię formatu Arrow
  • SPARK-53233 Cofnij "[SC-203716][sql][SS][mllib][CONNECT] Spraw, aby kod związany z streaming używał poprawnej nazwy pakietu"
  • SPARK-53233 Spraw, aby kod związany z streaming używa poprawnej nazwy pakietu
  • SPARK-53525 Fragmentowanie wyników Spark Connect ArrowBatch
  • SPARK-53444 Cofnij zmianę "[SC-206536][sql] Zmiana procesu natychmiastowego wykonania"
  • SPARK-53594 Spraw, aby UDF dla Arrow respektował typ ewaluacji określony przez użytkownika
  • SPARK-53444 Przebudowa natychmiastowego wykonania
  • SPARK-53582 Rozszerz isExtractable, aby można było go zastosować UnresolvedExtractValue
  • SPARK-53572 Unikaj zgłaszania z elementu ExtractValue.isExtractable
  • SPARK-52346 Naprawa inicjowania licznika i logiki przyrostu dla ponownych prób procesu
  • SPARK-53561 Przechwyć wyjątek InterruptedException w transformWithStateInPySparkStateServer podczas wykonywania outputStream.flush, aby uniknąć awarii procesu worker.
  • SPARK-53512 Lepsza integracja DSv2 PushDownUtils
  • SPARK-53459 Zastosuj ReadOnlySparkConf w większej liczbie miejsc
  • SPARK-53549 Zawsze zamykaj alokator strzałek po zakończeniu procesu żądania stanu listy
  • SPARK-53332 Włącz zródło danych StateDataSource z punktem kontrolnym stanu w wersji 2 (jedynie z opcją snapshotStartBatchId)
  • SPARK-53550 Partycjonowanie wyjścia operacji union powinno porównywać atrybuty kanoniczne
  • SPARK-53506 Nie zezwalać na % między wartościami typu Decimal i float zgodnie z ANSI
  • SPARK-52238 Zmień nazwę pola „definitions” w specyfikacji potoku na „libraries”
  • SPARK-53538ExpandExec powinny inicjować niebezpieczne projekcje
  • SPARK-53521 Refaktoryzacja wyrażenia gwiazdkowego
  • SPARK-53358 Ulepszanie strzałki w języku Python UDTF komunikat o błędzie niezgodności typu danych wyjściowych
  • SPARK-53531 Lepszy komunikat o błędzie dla elementu HadoopRDD.getInputFormat
  • SPARK-53434 Metoda get obiektu ColumnarRow powinna również sprawdzać isNullAt
  • SPARK-53008 Sprawdzanie poprawności procedury dostępu do danych UDF SQL OSS
  • SPARK-44856 Zwiększanie wydajności serializatora strzałek UDTF języka Python
  • SPARK-53488 Aktualizacja funkcji CollationTypeCoercion w celu zgodności z logiką analizatora jednoprzepustowego
  • SPARK-53029 Obsługa konwersji typu zwracanego dla funkcji UDTF Python w Arrow
  • SPARK-53479 Dostosowanie działania do pandas podczas porównywania z wartością skalarną zgodnie z ANSI
  • SPARK-53497 Nie zezwalaj /|//|* między liczbami dziesiętnymi a zmiennoprzecinkowymi zgodnie z ANSI
  • SPARK-53441 Bools |/&/^ None powinien zakończyć się niepowodzeniem zgodnie ze standardami ANSI
  • SPARK-53474 Dodawanie DATA_SOURCE_V2_EXPR_FOLDING conf
  • SPARK-53333 Włącz StateDataSource z punktem kontrolnym stanu v2 (tylko readChangeFeed)
  • SPARK-53502 Ulepszanie nazewnictwa metod w literalValueProtoConverter
  • SPARK-52694 Dodawanie o.a.s.sql.Encoders#udtinterfejsu API
  • SPARK-53499 from_arrow_type powinien uwzględniać wartość containsNull w ArrayType
  • SPARK-53515 Usuń nieużywane private lazy val z SchemaOfCsv/Xml
  • SPARK-53480 Refaktoryzacja kodu uruchamiającego Arrow dla Pythona
  • SPARK-53481 Stwórz klasę kolejki hybrydowej
  • SPARK-53401 Włącz bezpośrednie przekazywanie partycji w interfejsie API DataFrame
  • SPARK-52930 Używanie elementu DataType.Array/Map dla literałów tablicy/mapy
  • SPARK-52346 Propagacja kolumn partycji z miejsca docelowego dla elementu BatchTableWrite
  • SPARK-53342 Poprawka konwertera Arrowa do obsługi wielu partii rekordów w jednym strumieniu IPC
  • SPARK-53421 Propagacja identyfikatora planu logicznego w analizie SDP
  • SPARK-53408 Usuń nieużywane funkcje z QueryCompilationErrors
  • SPARK-53044 Zmień konwencję aliasu deklaratywnych rurociągów z "sdp" na "dp"
  • SPARK-53450 Wartości null są wypełniane nieoczekiwanie po przekonwertowaniu skanowania tabeli hive na relację logiczną
  • SPARK-53290 Naprawa naruszenia zgodności wstecznej metadanych
  • SPARK-52982 Uniemożliwienie korzystania z operatora LATERAL JOIN z Arrow Python UDTFs
  • SPARK-52851 Usuń publiczne interfejsy API dla przepływów jednokrotnego dołączania
  • SPARK-52511 Obsługa trybu suchego uruchamiania w poleceniu spark-pipelines
  • SPARK-53290 Cofnij "[SC-204277][sql][CONNECT] Napraw problem z naruszeniem zgodności wstecznej metadanych"
  • SPARK-53290 Naprawa naruszenia zgodności wstecznej metadanych
  • SPARK-52577 Dodaj testy dla deklaratywnych potoków danych DatasetManager z katalogiem Hive
  • SPARK-53012 Obsługa funkcji UDTF języka Python w programie Spark Connect
  • SPARK-53251 Włącz testowanie API DataFrame za pomocą asTable() dla UDTF Python w Arrow
  • SPARK-52432 Zakres przepływu danychGraphRegistry do sesji
  • SPARK-52853 Zapobieganie imperatywnym metodom PySpark w potokach deklaratywnych
  • SPARK-52745 Upewnij się, że jedna z opcji schema i columns w interfejsu tabeli jest zaimplementowana i columns powinien być preferowany.
  • SPARK-52991 Cofnij zmiany "[SC-204944][sql] Wdrożenie MERGE INTO z SCHEMA EWOLUCJĄ dla źródła danych V2"
  • SPARK-52981 Dodanie obsługi argumentów tabeli dla funkcji UDTFs języka Python w ramach Arrow
  • SPARK-53487 Popraw komentarze w NormalizePlan.scala
  • SPARK-52991 Implementowanie MERGE INTO za pomocą SCHEMA technologii EVOLUTION dla źródła danych w wersji 2
  • SPARK-52281 Zmiana ALTER TABLE ALTER COLUMN TYPE STRING , aby nie stosować sortowania domyślnego, jeśli oryginalny typ danych był wystąpieniem StringType
  • SPARK-52759 Rzuć wyjątek, jeśli potok nie ma tabel ani widoków trwałych
  • SPARK-51575 Połączenie optymalizacji zapytań źródła danych języka Python i planowania procesów roboczych odczytu
  • SPARK-53359 Naprawiono Arrow UDTF, aby obsługiwać wyniki jako iterator
  • SPARK-52757 Zmień nazwę pola "plan" w polu DefineFlow na "relation"
  • SPARK-52431 Kończenie obsługi modułu uruchamiającego potoki deklaratywne
  • SPARK-52591 Zweryfikuj strumieniowość DFs zwracanych przez tabelę SDP i autonomiczne definicje przepływów
  • SPARK-53030 Obsługa zapisywania strzałek na potrzeby przesyłania strumieniowego źródeł danych języka Python
  • SPARK-52980 Obsługa funkcji tabelarycznych UDTF języka Python przy użyciu Arrow
  • SPARK-42841Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_2005
  • SPARK-52423 Dodawanie brakującej nazwy pakietu golang do pliku pipelines.proto
  • SPARK-52409 W testach należy używać tylko elementu PipelineRunEventBuffer
  • SPARK-52533 Obsługa włączania tylko profilera sterowników
  • SPARK-52716 Usuwanie komentarza z cech i odwołań usługi Flow
  • SPARK-52348 Dodano obsługę obsługiwaczy Spark Connect dla poleceń potoku
  • SPARK-52281 Przywróć "[SC-198058][sql] Zmień ALTER TABLE ALTER COLUMN TYPE STRING , aby nie stosować sortowania domyślnego, jeśli oryginalny typ danych był wystąpieniem StringType"
  • SPARK-49386 Dodano progi pamięciowe w celu rozlania mapowania
  • SPARK-52281 Zmiana ALTER TABLE ALTER COLUMN TYPE STRING , aby nie stosować sortowania domyślnego, jeśli oryginalny typ danych był wystąpieniem StringType
  • SPARK-53329 Ulepszanie obsługi wyjątków podczas dodawania artefaktów
  • SPARK-52772 Przywróć "[SC-202707][engrm-327][SQL] Niespójna obsługa atrybutów tabeli podczas aktualizacji"
  • SPARK-52772 Niespójna obsługa atrybutów tabeli podczas aktualizacji
  • SPARK-51739 Weryfikacja schematu Arrow z mapInArrow, mapInPandas i DataSource
  • Spark-53355 testowe zachowanie typu udf języka Python
  • SPARK-53443 Aktualizowanie języka Python do SPDX-license
  • SPARK-49968 Funkcja split generuje nieprawidłowe wyniki z pustym wyrażeniem regularnym i limitem
  • SPARK-52582 Zwiększanie użycia pamięci analizatora XML
  • SPARK-53452from_arrow_type powinien przestrzegać valueContainsNull
  • SPARK-53103 Cofnij "[SC-204946][ss] Zgłaszaj błąd, jeśli katalog stanu nie jest pusty podczas uruchamiania zapytania"
  • SPARK-53103 Zgłaszanie błędu, jeśli katalog stanu nie jest pusty podczas uruchamiania zapytania
  • SPARK-51575 Cofnij "[SC-192406][python] Połączenie wypychania źródła danych Python i zaplanowania pracowników do odczytu"
  • SPARK-51575 Połączenie optymalizacji zapytań źródła danych języka Python i planowania procesów roboczych odczytu
  • SPARK-53095 Obsługa HMS w wersji 4.1
  • SPARK-53126 Refaktoryzacja SparkErrorUtils#stackTraceToString do obsługi null danych wejściowych i używania jej do zastępowania ExceptionUtils#getStackTrace
  • SPARK-49489 Klient HMS przestrzega hive.thrift.client.maxmessage.size
  • SPARK-53108 Implementowanie funkcji time_diff w języku Scala
  • SPARK-45265 Obsługa magazynu metadanych Hive 4.0
  • SPARK-53255 Blokada org.apache.parquet.Preconditions
  • SPARK-52142 Wyświetlanie ograniczeń tabeli w poleceniu SHOW CREATE TABLE COMMAND
  • SPARK-52875 Uproszczenie tłumaczenia wyrażeń V2, jeśli dane wejściowe są niezależne od kontekstu i składane
  • SPARK-53240 Ban com.google.common.collect.(ArrayList)?Multimap
  • SPARK-52875 Cofnij "[SC-201880][sql] Uproszczenie tłumaczenia wyrażeń V2, jeśli dane wejściowe są kontekstowo niezależnie składane"
  • SPARK-52141 Wyświetlanie ograniczeń w poleceniach DESC
  • SPARK-53386 Obsługa parametru zapytania kończącego się średnikiem w łącznikach JDBC
  • SPARK-52875 Uproszczenie tłumaczenia wyrażeń V2, jeśli dane wejściowe są niezależne od kontekstu i składane
  • SPARK-53437 InterpretedUnsafeProjection powinien ustawić wartość null4Bytes dla pola typu YearMonthIntervalType
  • SPARK-53341 Rozszerzanie złotego pokrycia testowego dla wielowarianowalnej deklaracji
  • SPARK-53156 Śledzenie metryk pamięci sterownika po zakończeniu aplikacji
  • SPARK-52689 Wysyłanie metryk DML do V2Write
  • SPARK-52641 Kolumny klucza podstawowego nie powinny mieć wartości null
  • SPARK-48547 Dodaj opcję zgody, aby usługa SparkSubmit automatycznie wywołała System.exit po zakończeniu głównej metody kodu użytkownika
  • SPARK-52575 Wprowadzenie atrybutu contextIndependentFoldable dla wyrażeń
  • SPARK-52860 Obsługa ewolucji schematu zapisu w wersji 2 w tabeli InMemoryTable
  • SPARK-53435 Naprawiono warunek wyścigu w CachedRDDBuilder
  • SPARK-51987 Wyrażenia DSv2 w kolumnach domyślnych podczas zapisu
  • SPARK-52235 Dodaj niejawne rzutowanie do wyrażeń domyślnej wartości V2 przekazanych do DSV2
  • SPARK-52236 Standaryzacja wyjątków analizy dla wartości domyślnej
  • SPARK-53294 Włącz element StateDataSource z punktem kontrolnym stanu w wersji 2 (tylko opcja batchId)
  • SPARK-52095 Zmień tabelę, zmień kolumnę, aby przekazać V2Expression do DSV2
  • SPARK-53415 Proste opcje wbudowanego formatu plików
  • SPARK-53318 Obsługa typu czasu przez make_timestamp_ltz()
  • SPARK-53143 Naprawianie samosprzężenia w interfejsie API ramki danych — sprzężanie nie jest jedynym oczekiwanym wyjściem z analizatora
  • SPARK-53423 Przenieś wszystkie tagi powiązane z jednoprzepustowym resolverem do ResolverTag
  • SPARK-52116 Ulepszanie wyjątku dla wartości domyślnych niedeterministycznych
  • SPARK-51906 Wyrażenia dsv2 w tabeli alter table dodaj kolumny
  • SPARK-53403 Ulepsz testy dodawania/odejmowania zgodnie ze standardem ANSI
  • SPARK-53418 Obsługa TimeType w kontekście ColumnAccessor
  • SPARK-52777 Włączanie konfiguracji trybu oczyszczania mieszania w usłudze Spark SQL
  • SPARK-52485 Uprzątnięcie kodu potoków deklaratywnych
  • SPARK-53236 Używanie konstruktorów Java ArrayList zamiast Lists.newArrayList w kodzie Java
  • SPARK-53392 Przenieść obsługę SpecializedArray do connect-common
  • SPARK-53176 Program uruchamiający Spark powinien respektować --load-spark-defaults
  • SPARK-53237 Używanie języka Java Base64 zamiast org.apache.commons.codec.binary.Base64 wystąpienia
  • SPARK-53390 Zgłoś błąd, gdy wartości logiczne z wartością None są konwertowane na typy całkowite zgodnie ze standardem ANSI.
  • SPARK-53109 Obsługa czasu w funkcjach make_timestamp_ntz i try_make_timestamp_ntz w języku Scala
  • SPARK-53393 Wyłączyć profiler pamięci dla funkcji zdefiniowanych przez użytkownika Arrow Iterator
  • SPARK-53367 dodaj konwersję int na typ dziesiętny dla funkcji UDF Arrow
  • SPARK-53365 Ujednolicenie kodu do zapisywania konfiguracji w widokach i funkcjach UDF
  • SPARK-53228 Używanie konstruktorów Języka Java Map zamiast Maps.new*HashMap()
  • SPARK-53197 Użyj java.util.Objects#requireNonNull zamiast com.google.common.base.Preconditions#checkNotNull
  • SPARK-53216 Przenieś is*(Blank|Empty) z object SparkStringUtils do trait SparkStringUtils
  • SPARK-53385 Ocena identyfikatora refaktoryzacji
  • SPARK-53384 Refaktoryzacja procesu rozpoznawania zmiennych na zewnątrz
  • SPARK-53195 Używanie języka Java InputStream.readNBytes zamiast ByteStreams.read
  • SPARK-53205 Obsługa createParentDirs w programie SparkFileUtils
  • SPARK-53196 Używanie języka Java OutputStream.nullOutputStream zamiast ByteStreams.nullOutputStream
  • SPARK-53381 Unikaj tworzenia kolekcji tymczasowych w programie toCatalystStruct
  • SPARK-53275 Obsługa wyrażeń stanowych podczas sortowania w trybie interpretowanym
  • SPARK-51585 Dialekt Oracle obsługuje funkcje daty/godziny wypychania
  • SPARK-53200 Używanie języka Java Files.newInputStream zamiast Files.asByteSource().openStream()
  • SPARK-53190 Używanie języka Java InputStream.transferTo zamiast ByteStreams.copy
  • SPARK-53188 Obsługa readFully w usługach SparkStreamUtils i JavaUtils
  • SPARK-53354 Uproszczenie właściwości LiteralValueProtoConverter.toCatalystStruct
  • SPARK-52873 Dalsze ograniczenie warunków, w których półłączenie/antyłączenie SHJ może ignorować zduplikowane klucze po stronie budowy
  • SPARK-53180 Używanie języka Java InputStream.skipNBytes zamiast ByteStreams.skipFully
  • SPARK-53369 Naprawiono komunikat o błędzie dla funkcji zdefiniowanych przez użytkownika z typem zwrotnym CHAR/VARCHAR
  • SPARK-53330 Naprawiono funkcję UDF strzałki z parametrem DayTimeIntervalType (granice != start/end)
  • SPARK-53366 Zastosowanie zasad formatowania do ścieżki sql/connect/shims
  • SPARK-53348 Zawsze utrwalaj wartość ANSI podczas tworzenia widoku lub przyjmij ją podczas wykonywania zapytań, jeśli nie są przechowywane
  • SPARK-53119 Obsługa touch w SparkFileUtils
  • SPARK-52592 Obsługa tworzenia ps. Seria z ps. Seria
  • SPARK-53360 Nie należy przerywać strategii z idempotencją ConstantFolding
  • SPARK-53135 Obsługa copyURLToFile w SparkFileUtils i JavaUtils
  • SPARK-53150 Ulepsz list(File|Path)s obsługę nieistniejących, niebędących katalogiem lub symlinkiem danych wejściowych
  • SPARK-53135 Przywróć "[SC-203164][core][SQL] Support copyURLToFile in SparkFileUtils and JavaUtils"
  • SPARK-53137 Obsługa forceDeleteOnExit w SparkFileUtils i JavaUtils
  • SPARK-53352 Uściślij komunikat o błędzie dla nieobsługiwanego typu zwracanego
  • SPARK-53353 Niepowodzenie funkcji UDF strzałki iteratora skalarnego z wartością 0-arg
  • SPARK-53135 Obsługa copyURLToFile w SparkFileUtils i JavaUtils
  • SPARK-53101 Obsługa (left|right)Pad w SparkStringUtils
  • SPARK-53117 Obsługa moveDirectory w SparkFileUtils i JavaUtils
  • SPARK-53121 Użyj deleteRecursively zamiast FileUtils.forceDelete
  • SPARK-53100 Używanie języka Java String.substring zamiast StringUtils.substring
  • SPARK-53092 Zablokować org.apache.commons.lang3.SystemUtils
  • SPARK-53328 Zwiększanie możliwości debugowania dla połączenia SparkML
  • SPARK-52065 Stworzenie innego drzewa planu z kolumnami wyjściowymi (nazwa, typ danych, możliwość wartości null) w rejestrowaniu zmian planu
  • SPARK-51182 Element DataFrameWriter powinien zgłaszać błąd dataPathNotSpecifiedError, gdy nie określono ścieżki
  • SPARK-52410 Wycofaj PipelineConf i użyj SqlConf bezpośrednio
  • SPARK-52852 Usuń nieużywane spark_conf w create_streaming_table
  • SPARK-52714 Usuń nieużywany argument komentarza w dekoratorze append_flow
  • SPARK-52663 Wprowadzenie pola 'nazwa' do specyfikacji pipeline’u
  • SPARK-53091 Zbanowanie org.apache.commons.lang3.Strings
  • SPARK-52393 Rejestracja elementu rurki graficznej SQL
  • SPARK-52912 Ulepsz SparkStringUtils w celu obsługi is(Not)?(Blank|Empty)
  • SPARK-53307 Usuwanie błędu RetriesExceeded z klientów Spark Connect Python i Scala
  • SPARK-52346 Deklaratywne wykonanie potoku DataflowGraph i rejestrowanie zdarzeń
  • SPARK-52877 Zwiększanie wydajności serializatora strzałki UDF języka Python
  • SPARK-51920 Naprawianie typu złożonego/zagnieżdżonego w stanie wartości dla środowiska TWS języka Python
  • SPARK-52741 Tryb RemoveFiles ShuffleCleanup nie działa z wykonywaniem nie adaptacyjnym
  • SPARK-52238 Klient języka Python dla potoków deklaratywnych
  • SPARK-51926 Dodaj klasę błędów INVALID_CONF_VALUE.subXXX do błędów konfiguracyjnych
  • SPARK-53155 Nie należy zastępować globalnej niższej agregacji projektem
  • SPARK-52911 Usuń StringUtils.(split|chop) użycie
  • SPARK-51926 Przywróć "[SC-195096][core][SQL] Przywróć klasę błędów INVALID_CONF_VALUE.subXXX dla błędów konfiguracyjnych"
  • SPARK-53346 Unikaj tworzenia kolekcji tymczasowych w pliku toCatalystArray/toCatalystMap
  • SPARK-51926 Dodaj klasę błędów INVALID_CONF_VALUE.subXXX do błędów konfiguracyjnych
  • SPARK-53136 tryWithResource i tryInitializeResource zamkną zasób cicho
  • SPARK-53132 Obsługa list(File|Path)s w SparkFileUtils i JavaUtils
  • SPARK-51896 Dodaj obsługę wyliczeń Java dla typedConfigBuilder
  • SPARK-53311 Spraw, aby PullOutNonDeterministic używało wyrażeń kanonicznych
  • SPARK-51527 Konfigurowanie poziomu dziennika codegen za pomocą narzędzia SQLConf
  • SPARK-52223 Dodawanie proto programu SDP Spark Connect
  • SPARK-52283 Tworzenie i rozwiązywanie deklaratywnych potoków danych DataflowGraph
  • SPARK-52880 Ulepszanie toString przez JEP-280 zamiast ToStringBuilder
  • SPARK-53284 Dostosowywanie importu konfiguracji platformy Spark w testach
  • SPARK-53050 Włącz MultiIndex.to_series(), aby zwracać strukturę dla każdego wpisu
  • SPARK-52988 Naprawiono warunki wyścigu w CREATE TABLE i FUNKCJI przy użyciu IF NOT EXISTS.
  • SPARK-52874 Obsługa o.a.s.util.Pair rekordu języka Java
  • SPARK-52710DESCRIBE SCHEMA powinien wyświetlać sortowanie
  • SPARK-49984 Poprawka ograniczająca się do aktualizacji supplementJava(Module|IPv6)Options

Obsługa sterowników ODBC/JDBC w usłudze Azure Databricks

Usługa Azure Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).

Aktualizacje konserwacji

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime.

Środowisko systemu

  • System operacyjny: Ubuntu 24.04.3 LTS
  • Java: Zulu17.58+21-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Zainstalowane biblioteki języka Python

Biblioteka wersja Biblioteka wersja Biblioteka wersja
typy z adnotacjami 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 strzałka 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attrs 24.3.0
autokomenda 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core (rdzeń zarządzania Azure) 1.5.0 azure-mgmt-web 8.0.0
Azure Storage Blob 12.23.0 Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) 12.17.0 Babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 czarny 24.10.0
wybielacz 6.2.0 kierunkowskaz 1.7.0 boto3 1.36.2
botocore 1.36.3 cachetools (narzędzia do zarządzania pamięcią podręczną) 5.5.1 certyfikat 2025.1.31
cffi 1.17.1 chardet 4.0.0 normalizator zestawu znaków 3.3.2
kliknij 8.1.7 cloudpickle (biblioteka Python do serializacji obiektów) 3.0.0 komunikacja 0.2.1
ContourPy 1.3.1 kryptografia 43.0.3 rowerzysta 0.11.0
Cython 3.0.12 databricks-sdk 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 dekorator 5.1.1 defusedxml (biblioteka zabezpieczająca przetwarzanie XML) 0.7.1
Deprecated 1.2.13 distlib 0.3.9 Konwertowanie docstringów na markdown 0,11
wykonywanie 0.8.3 aspekty — omówienie 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 blokada plików 3.18.0 fonttools 4.55.3
Fqdn 1.5.1 fsspec 2023.5.0 gitdb (baza danych Git) 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth (autoryzacja Google) 2.40.0
google-cloud-core 2.4.3 Google Cloud Storage (usługa przechowywania danych w chmurze od Google) 3.1.0 google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) 1.7.1
Google Media z Możliwością Wznowienia 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 IDNA 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 odchylić 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 izoduracja 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 JsonPointer 3.0.0 jsonschema 4.23.0
Specyfikacje schematu JSON 2023.7.1 If the term needs to stay in English, it should remain "jupyter-events". If a translation is needed, it could potentially be "wydarzenia jupyter", depending on the context and recognition among the target audience. 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
jupyter_server_terminals (terminale serwera Jupyter) 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
Widżety JupyterLab 1.0.0 jupyterlab_server 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown —it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
Mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 NBClient 0.8.0 nbconvert - narzędzie do konwersji plików Jupyter Notebook 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
notes 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions (standardowe konwencje semantyczne w OpenTelemetry) 0.53b1 Zastępuje 7.4.0 opakowanie 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
specyfikacja ścieżki 0.10.3 ofiara 1.0.1 pexpect 4.8.0
poduszka 11.1.0 pip (menedżer pakietów Pythona) 25.0.1 platformdirs 3.10.0
kreślenie 5.24.1 wtyczkowy 1.5.0 prometheus_client 0.21.0
zestaw narzędzi prompt 3.0.43 proto-plus 1.26.1 Protobuf (w skrócie od Protocol Buffers) 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) 2.10.6 pydantic_core 2.27.2 pyflakes (narzędzie do analizy statycznej kodu Python) 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing – biblioteka do przetwarzania tekstu w Pythonie 3.2.0
pyright 1.1.394 pytest 8.3.5 python-dateutil (biblioteka Pythona do zarządzania datami) 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-server 1.12.0
pytoolconfig 1.2.6 pytz (biblioteka Pythona do obliczeń stref czasowych) 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 odwoływanie się 0.30.2 żądania 2.32.3
rfc3339-validator 0.1.4 rfc3986-validator 0.1.1 bogaty 13.9.4
lina 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy (biblioteka naukowa dla Pythona) 1.15.1
urodzony na morzu 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
sześć 1.16.0 smmap 5.0.0 Sniffio 1.3.0
posortowane kontenery 2.4.0 sitko do zupy 2.5 sqlparse 0.5.3
ssh-import-id (narzędzie do importowania kluczy SSH) 5.11 stos danych 0.2.0 gwiazdka 0.46.2
statsmodels - biblioteka do modelowania statystycznego 0.14.4 strictyaml 1.7.3 Wytrzymałość 9.0.0
zakończony 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornado 6.4.2
traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
moduł typing_extensions 4.12.2 tzdata 2024.1 ujson (szybka biblioteka do obsługi formatu JSON) 5.10.0
nienadzorowane uaktualnienia 0.1 Szablon adresu URI 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
szerokość(wcwidth) 0.2.5 kolory sieci Web 24.11.1 kodowania webowe 0.5.1
websocket-klient 1.8.0 czymjestłatka 1.0.2 wheel 0.45.1
widgetsnbextension 3.6.6 zawinięty 1.17.0 yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) 0.40.2
zamek błyskawiczny 3.21.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki CRAN Menedżera pakietów Posit z dnia 2025-03-20.

Biblioteka wersja Biblioteka wersja Biblioteka wersja
strzałka 19.0.1 askpass 1.2.1 potwierdzić to 0.2.1
porty wsteczne 1.5.0 baza 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit-64 4.6.0-1
bitops 1.0-9 blob 1.2.4 rozruch systemu 1.3-30
warzyć (piwo) / parzyć (kawę, herbatę) 1.0-10 Brio 1.1.5 miotła 1.0.7
bslib 0.9.0 kaszmir 1.1.0 dzwoniący 3.7.6
karetka 7.0-1 cellranger 1.1.0 Chroń 2.3-62
klasa 7.3-22 CLI 3.6.5 clipr 0.8.0
zegar 0.7.2 klaster 2.1.6 codetools 0.2-20
przestrzeń kolorów 2.1-1 commonmark 1.9.5 kompilator 4.4.2
konfig 0.3.2 zdezorientowany 1.2.0 cpp11 0.5.2
crayon 1.5.3 dane logowania 2.0.2 skręt 6.4.0
tabela danych 1.17.0 zbiory danych 4.4.2 DBI 1.2.3
dbplyr 2.5.0 Opis 1.4.3 devtools 2.4.5
schemat 1.6.5 diffobj 0.3.5 skrót 0.6.37
przyciemnione oświetlenie 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 wielokropek 0.3.2 ocenić 1.0.3
fani 1.0.6 kolory 2.1.2 szybka mapa 1.2.0
Font Awesome 0.5.3 dla kotów 1.0.0 foreach 1.5.2
zagraniczny 0.8-86 kuźnia 0.2.0 fs 1.6.5
przyszłość 1.34.0 wprowadź przyszłość 1.11.3 płukać 1.5.2
typy ogólne 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globalne 0.18.0 klej 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.2
grafika 4.4.2 grDevices 4.4.2 siatka 4.4.2
gridExtra 2.3 gsubfn 0.7 gt 0.11.1
gtabela 0.3.6 hełm ochronny 1.4.1 przystań 2.5.4
wyżej 0,11 HMS 1.1.3 htmltools – narzędzie do tworzenia stron internetowych 0.5.8.1
widżety HTML 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 Numery identyfikacyjne 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Obiekty iterujące 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 soczysty sok 0.1.0
KernSmooth 2.23–2.22 knitr (narzędzie do generowania dynamicznych raportów w R) 1.50 etykietowanie 0.4.3
później 1.4.1 siatka 0.22-5 lawa 1.8.1
cykl życia 1.0.4 nasłuchiwanie 0.9.1 lubridate 1.9.4
magrittr 2.0.3 Markdown 1.13 MASA 7.3-60.0.1
Matrix 1.6-5 zapamiętywanie 2.0.1 metody 4.4.2
mgcv 1.9-1 pantomima 0,13 miniUI (interfejs użytkownika) 0.1.1.1
mlflow 2.20.4 Metryki modelowe 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-164 sieć neuronowa (nnet) 7.3-19
numDeriv 2016.8-1.1 openssl 2.3.3 równoległy 4.4.2
równolegle 1.42.0 kolumna 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 pochwała 1.0.0
prettyunits 1.2.0 pROC 1.18.5 Procesx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 postęp 1.2.3
progressr 0.15.1 Obietnice 1.3.2 Prototyp 1.0.0
serwer proxy 0.4-27 Postscriptum 1.9.0 mruczenie 1.0.4
R6 2.6.1 ragg 1.3.3 "randomForest" 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 reaktywny 0.4.4
reactR 0.6.1 czytnik 2.1.5 readxl (biblioteka do odczytu plików Excel) 1.4.5
przepisy 1.2.0 rewanż 2.0.0 rematch2 2.1.2
Zdalne sterowanie 2.5.0 przykład powtarzalny 2.1.1 zmień kształt2 1.4.4
rlang 1.1.6 rmarkdown (narzędzie do tworzenia dokumentów w R) 2.29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 Sass 0.4.9
waga (urządzenie) 1.3.0 selektor 0.4-2 Informacje o sesji 1.2.3
kształt 1.4.6.1 błyszczący 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 rzadkie wektory 0.3.1
przestrzenny 7.3-17 Splatiny 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Statystyki 4.4.2 statystyki4 4.4.2
łańcuchy 1.8.7 stringr 1.5.1 przetrwanie 3.5-8
pewność siebie 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 kształtowanie tekstu 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 zmiana czasu 0.3.0 czasData 4041.110
tinytex 0.56 narzędzia 4.4.2 Baza Danych Stref Czasowych (tzdb) 0.5.0
sprawdzacz URL 1.0.1 użyj tego 3.1.0 utf8 1.2.6
oprogramowanie użytkowe 4.4.2 UUID (Uniwersalnie Unikalny Identyfikator) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 Vroom 1.6.5
Waldo 0.6.1 włosek czuciowy 0.4.1 Withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
Xtable 1.8-4 yaml 2.3.10 zapał 0.1.0
zip 2.3.2

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.13)

Identyfikator grupy Identyfikator artefaktu wersja
antlr antlr 2.7.7
com.amazonaws Klient Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-automatyczne-skalowanie 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (konfiguracja aws-java-sdk) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) 1.12.638
com.amazonaws AWS Java SDK dla Glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws AWS-Java-SDK-ImportExport 1.12.638
com.amazonaws AWS SDK dla Javy - Kinesis 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs 1.12.638
com.amazonaws aws-java-sdk-uczenie-maszynowe 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway 1.12.638
com.amazonaws aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) 1.12.638
com.amazonaws wsparcie dla aws-java-sdk 1.12.638
com.amazonaws aws-java-sdk-swf-biblioteki 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics odtwarzać strumieniowo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kriogenicznie cieniowany 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.5.1
com.fasterxml.jackson.core Jackson - adnotacje 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat Jackson-format-danych-CBOR 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.kofeina kofeina 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1-rodzimi
com.github.fommil.netlib natywny_system java 1.1
com.github.fommil.netlib natywny_system java 1.1-rodzimi
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-rodzimi
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-rodzimi
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone adnotacje podatne na błędy 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava błąd dostępu 1.0.2
com.google.guava owoc guawy 33.4.0-jre
com.google.guava słuchalna przyszłość 9999.0-pusty, aby uniknąć konfliktu z guavą
com.google.j2objc Adnotacje j2objc 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 11.2.3.jre8
com.ning compress-lzf (biblioteka do kompresji danych) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses soczewki_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe konfig 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity parsery jednoznaczności 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
Zbiory Commons Zbiory Commons 3.2.2
commons-dbcp commons-dbcp 1.4
wspólne przesyłanie plików wspólne przesyłanie plików 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blask 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor powietrza 2.0.2
io.delta delta-sharing-client_2.13 1.3.5
io.dropwizard.metrics adnotacja metryk 4.2.30
io.dropwizard.metrics metryki —rdzeń 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics wskaźniki-kontrole zdrowia 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics metryki w formacie JSON 4.2.30
io.dropwizard.metrics metryki-JVM 4.2.30
io.dropwizard.metrics serwlety metryczne 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty Netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common (element wspólny) 4.1.118.Final
io.netty "netty-handler" 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty rozwiązywacz netty 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty Klasy netty-tcnative 2.0.70.Final
io.netty Netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx moduł zbierający 0.18.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
\ jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction interfejs programistyczny transakcji 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine kiszonka 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake SDK do pobierania danych Snowflake 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea (pakiet oprogramowania) remotetea-oncrpc (niedostępne w lokalnym języku) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr Szablon łańcucha 3.2.1
org.apache.ant mrówka 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant program uruchamiający Ant 1.10.11
org.apache.arrow format strzałki 18.2.0
org.apache.arrow strzałka-pamięć-rdzeń 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow strzałka-pamięć-netty-bufor-łatka 18.2.0
org.apache.arrow wektor strzałki 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons tekst wspólny 1.13.0
org.apache.curator kurator-klient 5.7.1
org.apache.curator Framework kuratora 5.7.1
org.apache.curator przepisy wyselekcjonowane przez kuratora 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-pamięć 3.0.2
org.apache.derby mecz derbowy 10.14.2.0
org.apache.hadoop środowisko uruchomieniowe klienta Hadoop 3.4.1
org.apache.hive hive-beeline (narzędzie do interakcji z bazą danych Hive) 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive Klient hive-llap 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive podkładki hive 2.3.10
org.apache.hive hive-storage-api (interfejs do przechowywania danych hive) 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims harmonogram osłon/imitacji ula 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy bluszcz 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j szablon układu log4j w formacie JSON 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc format ORC 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc podkładki ORC 2.1.1
org.apache.poi Um 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus adnotacje dla widowni 0.13.0
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. opiekun zoo 3.9.3
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino commons-kompilator 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty jetty-kontynuacja 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty Jetty-plus 9.4.53.v20231009
org.eclipse.jetty serwer pośredniczący Jetty 9.4.53.v20231009
org.eclipse.jetty moduł bezpieczeństwa Jetty 9.4.53.v20231009
org.eclipse.jetty serwer aplikacji Jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Jetty-aplikacja internetowa 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket API 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-klient 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket serwer WebSocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-lokalizator-zasobów 1.0.3
org.glassfish.hk2.external aopalliance-zapakowane ponownie 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers serwlet kontenerowy Jersey 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core dzianina-zwykła 2.41
org.glassfish.jersey.core serwer jersey 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest zgodny ze standardem scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten ThreeTen Extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1

Wskazówka

Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.