Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 17.3 LTS obsługiwanym przez platformę Apache Spark 4.0.0.
Usługa Azure Databricks wydała tę wersję LTS w październiku 2025 r.
Nowe funkcje i ulepszenia
-
EXECUTE IMMEDIATEużywanie wyrażeń stałych -
LIMIT ALLobsługa cyklicznych CT - JDK 21 dla klasycznych obliczeń (publiczna wersja zapoznawcza)
- Dołączanie do plików w woluminach katalogu Unity zwraca prawidłowy błąd
- TABLE obsługa argumentów dla Python UDTF w Unity Catalog
-
st_dumpobsługa funkcji - Funkcje pierścienia wewnętrznego wielokątnego są teraz obsługiwane
-
remote_queryfunkcja wartości tabeli (publiczna wersja zapoznawcza)
EXECUTE IMMEDIATE używanie wyrażeń stałych
Teraz można przekazywać wyrażenia stałe jako ciągi SQL i jako argumenty do oznaczeń parametrów w EXECUTE IMMEDIATE komendach.
LIMIT ALL obsługa cyklicznych CT
Teraz możesz użyć LIMIT ALL do usunięcia ograniczenia całkowitego rozmiaru dla rekursywnych typowych wyrażeń tabeli (CTE).
JDK 21 dla klasycznych obliczeń (publiczna wersja zapoznawcza)
Zestaw Java Development Kit (JDK) 21 jest dostępny w publicznej wersji zapoznawczej dla klasycznych obliczeń. Aby ją włączyć, zobacz Tworzenie klastra z określoną wersją zestawu JDK.
Dołączanie do plików w woluminach Unity Catalog zwraca prawidłowy błąd
Każdy kod, który próbuje dołączyć zawartość do pliku wolumenu Unity Catalog, kończy się teraz niepowodzeniem z komunikatem o błędzie "Nieprawidłowe przesunięcie". Wcześniej wystąpił nieprawidłowy błąd "operacja nieobsługiwana".
TABLE obsługa argumentów dla katalogu Unity funkcji tabeli definiowanej przez użytkownika (UDTF) w Pythonie
Funkcje UDTF w języku Python w katalogu Unity teraz obsługują argumenty TABLE, umożliwiając przyjmowanie całych tabel jako parametrów wejściowych, co pozwala na bardziej złożone przekształcenia i agregacje w ustrukturyzowanych zestawach danych. Zobacz Funkcje tabeli definiowane przez użytkownika (UDTF) w języku Python w katalogu Unity. Obsługa argumentów tabeli została przywrócona do środowiska Databricks Runtime 17.2.
st_dump obsługa funkcji
Teraz możesz użyć st_dump funkcji , aby uzyskać tablicę zawierającą pojedyncze geometrie geometrii danych wejściowych. Zobacz st_dump funkcję.
Funkcje pierścienia wewnętrznego wielokątnego są teraz obsługiwane
Teraz możesz użyć następujących funkcji do pracy z wielokątnymi pierścieniami wewnętrznymi:
-
st_numinteriorrings: Pobierz liczbę granic wewnętrznych (pierścieni) wielokąta. Zobaczst_numinteriorringsfunkcję. -
st_interiorringn: Wyodrębnij n-tą wewnętrzną granicę wielokąta i zwróć ją jako linię. Zobaczst_interiorringnfunkcję.
remote_query funkcja wartości tabeli (publiczna wersja zapoznawcza)
Możesz teraz użyć funkcji tabelarycznej remote_query, aby wykonywać zapytania w zdalnych silnikach baz danych i zwracać wyniki tabelaryczne. Ta funkcja pobiera dane z systemów zdalnych przy użyciu poświadczeń z połączeń Unity Catalog i obsługuje różne opcje konektora dla baz danych SQL i NoSQL. Zobacz remote_query funkcji wartości tabeli.
Zmiany zachowania
-
input_file_namefunkcja nie jest już obsługiwana i podlega przyszłemu usunięciu - Zmieniono domyślną listę przyrostową w funkcji Auto Loader
-
Obsługa informacji o odświeżaniu MV/ST w systemie
DESCRIBE EXTENDED AS JSON -
Dodawanie kolumny metadanych do
DESCRIBE QUERYiDESCRIBE TABLE - Napraw konwersję wartości czasowej w literałach struktury podczas korzystania z trybu Connect
-
Zmień dokładność dziesiętną i skaluj na
SYSTEM_DEFAULTw trybie nawiązywania połączenia - Obsługa złożonych typów obserwacji w kliencie Spark Connect Scala
- Zachowywanie wartości null w literałach tablicy, mapy i struktury
- Zachowywanie wartości null dla literałów wpisanych
- Naprawa konwersji klas case w literałach tablicy i mapy
-
Prawidłowa obsługa struktur o wartości null podczas usuwania
NullTypekolumn - Ulepszona obsługa struktur null w Parquet
-
Uaktualnianie
aws-msk-iam-authbiblioteki dla platformy Kafka
input_file_name funkcja nie jest już obsługiwana i podlega przyszłemu usunięciu
Funkcja input_file_name jest oznaczona jako przestarzała w środowisku Databricks Runtime 13.3 LTS, ponieważ jest zawodna.
Funkcja nie jest już obsługiwana w środowisku Databricks Runtime 17.3 LTS i nowszym, ponieważ jest zawodna.
Zamiast tego użyj nazwy _metadata.file_name .
Zmieniono domyślne listowanie przyrostowe w Auto Loader.
Wartość domyślna dla przestarzałej cloudFiles.useIncrementalListing opcji została zmieniona z auto na false. Usługa Azure Databricks wykonuje teraz pełne listy katalogów zamiast list przyrostowych, aby zapobiec pomijaniu plików z powodu porządkowania nieskalistycznego. Na przykład 10-01-2025.csv pojawia się przed 8-01-2025.csv leksykograficznie.
Databricks zaleca migrację na zdarzenia plików dla szybszego i bardziej niezawodnego odnajdywania plików.
Aby zachować poprzednie zachowanie, jawnie ustaw cloudFiles.useIncrementalListing na auto.
Obsługa informacji o odświeżaniu MV/ST w programie DESCRIBE EXTENDED AS JSON
Azure Databricks generuje teraz sekcję dotyczącą informacji o odświeżaniu widoków zmaterializowanych i tabel przesyłania strumieniowego w danych wyjściowych DESCRIBE EXTENDED AS JSON, obejmującą czas ostatniego odświeżenia, typ odświeżania, status oraz harmonogram.
Dodawanie kolumny metadanych do DESCRIBE QUERY i DESCRIBE TABLE
Usługa Azure Databricks zawiera teraz kolumnę metadanych w danych wyjściowych DESCRIBE QUERY i DESCRIBE TABLE dla metadanych semantycznych.
W przypadku DESCRIBE QUERY, podczas opisywania zapytania z widokami metryk, semantyczne metadane są propagowane za pośrednictwem zapytania, jeśli wymiary są bezpośrednio przywoływane, a miary używają funkcji MEASURE().
W przypadku DESCRIBE TABLEelementu kolumna metadanych jest wyświetlana tylko dla widoków metryk, a nie innych typów tabel.
Naprawianie konwersji wartości tymczasowej w literałach struktury podczas korzystania z trybu Connect
Tryb Spark Connect obsługuje teraz poprawnie literały struktury w TypedLit, które przetwarzają wartości czasowe zamiast zgłaszać wyjątki. Wcześniej próba użycia wartości czasowych (takich jak daty lub znaczniki czasu) w literałach struktury spowodowałoby wyjątek.
Zmień dokładność dziesiętną i skaluj na SYSTEM_DEFAULT w trybie nawiązywania połączenia
W przypadku korzystania z trybu Spark Connect w języku Scala precyzja dziesiętna i skala w literałach tablic i map są teraz zmieniane na SYSTEM_DEFAULT (38, 18). Ta zmiana wpływa tylko na plan logiczny (na przykład dane wyjściowe explain() polecenia) i nie ma wpływu na wyniki zapytania.
Obsługa złożonych typów obserwacji w kliencie Spark Connect Scala
Klient Spark Connect Scala obsługuje teraz typy tablic, map i struktur w obserwacjach, co zapewnia zachowanie zgodne z dedykowanymi klastrami. Wcześniej próba użycia tych złożonych typów w obserwacjach powodowała wyjątek.
Zachowaj wartości null w literałach tablic, map i struktur
W trybie Spark Connect wartości null wewnątrz tablicy, mapy i literałów struktury są teraz zachowywane zamiast zastępować wartościami domyślnymi protobuf. Wcześniej wartości null były niepoprawnie zastępowane wartościami domyślnymi, takimi jak 0 dla liczb całkowitych, puste ciągi znaków dla typów string oraz false dla typów boolean.
Zachowywanie wartości null dla literałów wpisanych
Klient Spark Connect Scala poprawnie zachowuje nullowalność typów tablic i map dla literałów typowanych. Wcześniej elementy tablicy i wartości mapy były zawsze traktowane jako możliwe do przyjęcia jako null, niezależnie od rzeczywistej definicji typu.
Naprawianie konwersji klas przypadków w literałach tablic i map
W trybie Spark Connect literały tablic i map poprawnie obsługują wartości case class zamiast zgłaszać wyjątki. Wcześniej próba użycia wartości klas przypadków w literałach tablic lub map powodowała wyjątek.
Prawidłowa obsługa struktur o wartości null podczas usuwania NullType kolumn
Podczas zapisywania w tabelach Delta usługa Azure Databricks teraz prawidłowo zachowuje wartości struktury null podczas usuwania NullType kolumn ze schematu. Wcześniej struktury null zostały niepoprawnie zastąpione wartościami struktur innych niż null, w których wszystkie pola zostały ustawione na null. Na przykład wstawienie wartości struktury null będzie później odczytywane jako struktura z polami null zamiast struktury null.
Ulepszona obsługa struktur null w Parquet
Usługa Azure Databricks teraz prawidłowo wykrywa struktury null, gdy brakuje wszystkich żądanych pól struktury w pliku Parquet, co sprawia, że zachowanie jest spójne między czytnikami Photon i innych niż Photon. Wcześniej czytniki inne niż Photon zwracały NULL dla całej struktury zamiast struktury z polami null podczas odczytywania plików Parquet, gdzie brakowało wszystkich żądanych pól, ale były obecne inne pola.
Uaktualnianie aws-msk-iam-auth biblioteki dla platformy Kafka
Biblioteka aws-msk-iam-auth została uaktualniona do wersji 2.0.1 w celu obsługi ustawiania regionalnego punktu końcowego usługi tokenu zabezpieczającego (STS) dla zarządzanego przesyłania strumieniowego na potrzeby uwierzytelniania IAM platformy Apache Kafka (MSK). Nowa awsStsRegion opcja jest dostępna tylko po włączeniu odpowiedniej konfiguracji platformy Spark. To uaktualnienie nie wprowadza żadnych zmian behawioralnych dla istniejących obciążeń.
Uaktualnienia biblioteki
Uaktualnione biblioteki języka Python:
W tej wersji nie uaktualniono żadnych bibliotek języka Python.
Uaktualnione biblioteki języka R:
W tej wersji nie uaktualniono żadnych bibliotek języka R.
Uaktualnione biblioteki Java:
W tej wersji nie uaktualniono żadnych bibliotek Języka Java.
Apache Spark
Środowisko Databricks Runtime 17.3 LTS obejmuje platformę Apache Spark 4.0.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w wersji 17.2, a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- SPARK-44856 Przywróć "[SC-195808][python] Poprawianie wydajności serializatora strzałek UTF języka Python"
- SPARK-53553 [DBRRM-2007][engrm-341][SC-206543][17.3][CONNECT] Naprawa obsługi wartości null w LiteralValueProtoConverter
- SPARK-53507 Dodawanie informacji o zmianach powodujących niezgodność do błędów
- SPARK-53574 Naprawa usuwania AnalysisContext podczas rozwiązywania zagnieżdżonych planów
- SPARK-53444 Przebudowa natychmiastowego wykonania
- SPARK-53560 Ciągłe awarie podczas ponownej próby niezatwierdzonej partii w źródle platformy Kafka i wyzwalaczu AvailableNow
- SPARK-53127 Włącz opcję LIMIT ALL, aby zastąpić limit wierszy rekursji
- SPARK-53574 Przywróć "[SC-206548] Poprawka AnalysisContext jest usuwana...
- SPARK-53674 Obsługa zapytań LCA analizatora jednoprzepustowego podczas przypisywania aliasów
- SPARK-53492 Odrzuć drugi plan wykonania z identyfikatorem operacji, który został już ukończony
- SPARK-53677 Zwiększanie możliwości debugowania źródła danych JDBC, gdy zapytanie zawiera błąd składni
- SPARK-53490 Naprawa konwersji Protobuf w obserwowanych metrykach
-
SPARK-53671 Wyklucz 0-args z
@udfwnioskowania typu owalnego - SPARK-53592 Przebudowa "Umożliwienie wektoryzowanego wsparcia dla UDF"
- SPARK-53654 Przebudowa "Wsparcie dla parametru 'seed' w funkcji uuid"
- SPARK-53429 Obsługa partycjonowania z bezpośrednim przekazywaniem w interfejsie API PySpark DataFrame
- SPARK-53372 Pakiet wspólnego środowiska testowego dla protokołu LDP
- SPARK-53574 Naprawa usuwania AnalysisContext podczas rozwiązywania zagnieżdżonych planów
-
SPARK-53654 Przywróć "[SC-207022][sql][PYTHON] Wsparcie
seedw funkcjiuuid" - SPARK-53574 Przywróć "[SC-206548] Odwróć zmianę dotyczącą usunięcia AnalysisContext podczas rozpoznawania zagnieżdżonego planu"
- SPARK-53559 Napraw aktualizacje szkiców HLL, aby używać surowych bajtów klucza sortującego
-
SPARK-53654 Obsługa
seedw funkcjiuuid - SPARK-52449 Wprowadź typy danych dla opcjonalnego elementu Expression.Literal.Map/Array
- SPARK-53574 Naprawa usuwania AnalysisContext podczas rozwiązywania zagnieżdżonych planów
- SPARK-53625 Propagacja kolumn metadanych za pomocą projekcji w celu adresowania niezgodności ApplyCharTypePadding
- SPARK-53558 Przywróć "[SC-206544][sql] Pokaż w pełni kwalifikowaną nazwę tabeli, w tym nazwę katalogu, w komunikacie o wyjątku, gdy tabela nie zostanie znaleziona"
- SPARK-53558 Pokaż w pełni kwalifikowaną nazwę tabeli, w tym nazwę wykazu w komunikacie o wyjątku, gdy tabela nie zostanie znaleziona
-
SPARK-53357 Aktualizacja
pandasdo wersji 2.3.2 - SPARK-52659Mylący komunikat o błędzie modulo w trybie ANSI
-
SPARK-53592 Przywróć "[SC-206971][python] Utwórz
@udfobsługę wektoryzowanej funkcji zdefiniowanej przez użytkownika" - SPARK-53592 Obsługa wektoryzowanej funkcji zdefiniowanej przez użytkownika
- SPARK-52601 Obsługa typów pierwotnych w transformingEncoder
- SPARK-53355 naprawa reprezentacji numpy 1.x w testach typów
- SPARK-53387 Dodano obsługę funkcji UDTFs Arrow za pomocą PARTITION funkcji BY
- SPARK-52991 Implementowanie MERGE INTO za pomocą SCHEMA technologii EVOLUTION dla źródła danych w wersji 2
- SPARK-53568 Naprawianie kilku małych usterek w logice obsługi błędów klienta platformy Spark Connect w języku Python
- Optim SPARK-43579: Buforuj konwerter między Arrow i pandas do ponownego użycia
- SPARK-53524 Naprawa konwersji wartości czasowej w LiteralValueProtoConverter
-
SPARK-53600 Zaktualizowanie
SessionHolderkomunikatu dziennika czasu ostatniego dostępu -
SPARK-53529 Poprawka
pysparkpołączenia klienta z obsługą protokołu IPv6 - SPARK-53537 Dodawanie obsługi analizowania CONTINUE HANDLER
- SPARK-53623 poprawia wydajność odczytu dużych właściwości tabeli
-
SPARK-53523 Nazwane parametry są zgodne
spark.sql.caseSensitive - SPARK-53449 Proste opcje dla wbudowanych klas związanych ze skanowaniem źródła danych
- SPARK-53620 Usługa SparkSubmit powinna drukować stostrace po wywołaniu exitFn
- SPARK-53518 Brak obcinania dla catalogString w typie zdefiniowanym przez użytkownika
- SPARK-53568 Przywróć "[SC-206538][connect][PYTHON] Naprawienie kilku drobnych błędów w logice obsługi błędów klienta Spark Connect w języku Python"
- SPARK-53602 Ulepszenie zrzutu profilu i poprawka dokumentu profilera
- SPARK-53402 Obsługa API zbioru danych do partycjonowania bezpośredniego przepuszczania w Spark Connect w języku Scala
- SPARK-53491 Naprawiono formatowanie wykładnicze wejścioweRowsPerSecond i przetworzoneRowsPerSecond w metrykach JSON dotyczących postępu.
- SPARK-53413 Czyszczenie "shuffle" w komendach
- SPARK-53518 Przywróć "[SC-205989][sql] Brak obcinania dla catalogString typu zdefiniowanego przez użytkownika"
- SPARK-53568 Naprawianie kilku małych usterek w logice obsługi błędów klienta platformy Spark Connect w języku Python
- SPARK-53552 Optymalizacja funkcji SQL substr
- SPARK-53527 Ulepszanie rezerwowego elementu analyzeExistenceDefaultValue
- SPARK-53584 Poprawa walidacji process_column_param i dokumentacji parametrów kolumn
-
SPARK-53498 Poprawne odniesienie
pyspark/pipelines/cli.pyzspark-pipelinesbinariów - SPARK-53518 Brak obcinania dla catalogString w typie zdefiniowanym przez użytkownika
-
SPARK-53233 Spraw, aby kod związany z
streamingużywa poprawnej nazwy pakietu - SPARK-53598 Sprawdź istnienie numParts przed odczytaniem właściwości dużej tabeli
- SPARK-53372 Zestaw kompleksowego testowania SDP
- SPARK-53563 Optymalizować: sql_processor, unikając nieefektywnej konkatenacji tekstu
- SPARK-53323 Włącz testy Spark Connect dla df.asTable() w Arrow UDTF
- SPARK-53157 Separacja interwałów sondowania sterownika i wykonawcy
- SPARK-53555 Poprawka: Program SparkML-connect nie może załadować zapisanego modelu SparkML (w starszym trybie)
- SPARK-53361 Optymalizowanie komunikacji JVM–Python w technologii TWS przez grupowanie wielu kluczy w jedną partię formatu Arrow
-
SPARK-53233 Cofnij "[SC-203716][sql][SS][mllib][CONNECT] Spraw, aby kod związany z
streamingużywał poprawnej nazwy pakietu" -
SPARK-53233 Spraw, aby kod związany z
streamingużywa poprawnej nazwy pakietu - SPARK-53525 Fragmentowanie wyników Spark Connect ArrowBatch
- SPARK-53444 Cofnij zmianę "[SC-206536][sql] Zmiana procesu natychmiastowego wykonania"
- SPARK-53594 Spraw, aby UDF dla Arrow respektował typ ewaluacji określony przez użytkownika
- SPARK-53444 Przebudowa natychmiastowego wykonania
-
SPARK-53582 Rozszerz
isExtractable, aby można było go zastosowaćUnresolvedExtractValue - SPARK-53572 Unikaj zgłaszania z elementu ExtractValue.isExtractable
- SPARK-52346 Naprawa inicjowania licznika i logiki przyrostu dla ponownych prób procesu
- SPARK-53561 Przechwyć wyjątek InterruptedException w transformWithStateInPySparkStateServer podczas wykonywania outputStream.flush, aby uniknąć awarii procesu worker.
- SPARK-53512 Lepsza integracja DSv2 PushDownUtils
- SPARK-53459 Zastosuj ReadOnlySparkConf w większej liczbie miejsc
- SPARK-53549 Zawsze zamykaj alokator strzałek po zakończeniu procesu żądania stanu listy
- SPARK-53332 Włącz zródło danych StateDataSource z punktem kontrolnym stanu w wersji 2 (jedynie z opcją snapshotStartBatchId)
- SPARK-53550 Partycjonowanie wyjścia operacji union powinno porównywać atrybuty kanoniczne
-
SPARK-53506 Nie zezwalać na
%między wartościami typu Decimal i float zgodnie z ANSI - SPARK-52238 Zmień nazwę pola „definitions” w specyfikacji potoku na „libraries”
-
SPARK-53538
ExpandExecpowinny inicjować niebezpieczne projekcje - SPARK-53521 Refaktoryzacja wyrażenia gwiazdkowego
- SPARK-53358 Ulepszanie strzałki w języku Python UDTF komunikat o błędzie niezgodności typu danych wyjściowych
- SPARK-53531 Lepszy komunikat o błędzie dla elementu HadoopRDD.getInputFormat
- SPARK-53434 Metoda get obiektu ColumnarRow powinna również sprawdzać isNullAt
- SPARK-53008 Sprawdzanie poprawności procedury dostępu do danych UDF SQL OSS
- SPARK-44856 Zwiększanie wydajności serializatora strzałek UDTF języka Python
- SPARK-53488 Aktualizacja funkcji CollationTypeCoercion w celu zgodności z logiką analizatora jednoprzepustowego
- SPARK-53029 Obsługa konwersji typu zwracanego dla funkcji UDTF Python w Arrow
- SPARK-53479 Dostosowanie działania do pandas podczas porównywania z wartością skalarną zgodnie z ANSI
-
SPARK-53497 Nie zezwalaj
/|//|*między liczbami dziesiętnymi a zmiennoprzecinkowymi zgodnie z ANSI -
SPARK-53441 Bools
|/&/^None powinien zakończyć się niepowodzeniem zgodnie ze standardami ANSI - SPARK-53474 Dodawanie DATA_SOURCE_V2_EXPR_FOLDING conf
- SPARK-53333 Włącz StateDataSource z punktem kontrolnym stanu v2 (tylko readChangeFeed)
- SPARK-53502 Ulepszanie nazewnictwa metod w literalValueProtoConverter
-
SPARK-52694 Dodawanie
o.a.s.sql.Encoders#udtinterfejsu API - SPARK-53499 from_arrow_type powinien uwzględniać wartość containsNull w ArrayType
-
SPARK-53515 Usuń nieużywane
private lazy valzSchemaOfCsv/Xml - SPARK-53480 Refaktoryzacja kodu uruchamiającego Arrow dla Pythona
- SPARK-53481 Stwórz klasę kolejki hybrydowej
- SPARK-53401 Włącz bezpośrednie przekazywanie partycji w interfejsie API DataFrame
- SPARK-52930 Używanie elementu DataType.Array/Map dla literałów tablicy/mapy
- SPARK-52346 Propagacja kolumn partycji z miejsca docelowego dla elementu BatchTableWrite
- SPARK-53342 Poprawka konwertera Arrowa do obsługi wielu partii rekordów w jednym strumieniu IPC
- SPARK-53421 Propagacja identyfikatora planu logicznego w analizie SDP
-
SPARK-53408 Usuń nieużywane funkcje z
QueryCompilationErrors - SPARK-53044 Zmień konwencję aliasu deklaratywnych rurociągów z "sdp" na "dp"
- SPARK-53450 Wartości null są wypełniane nieoczekiwanie po przekonwertowaniu skanowania tabeli hive na relację logiczną
- SPARK-53290 Naprawa naruszenia zgodności wstecznej metadanych
- SPARK-52982 Uniemożliwienie korzystania z operatora LATERAL JOIN z Arrow Python UDTFs
- SPARK-52851 Usuń publiczne interfejsy API dla przepływów jednokrotnego dołączania
- SPARK-52511 Obsługa trybu suchego uruchamiania w poleceniu spark-pipelines
- SPARK-53290 Cofnij "[SC-204277][sql][CONNECT] Napraw problem z naruszeniem zgodności wstecznej metadanych"
- SPARK-53290 Naprawa naruszenia zgodności wstecznej metadanych
- SPARK-52577 Dodaj testy dla deklaratywnych potoków danych DatasetManager z katalogiem Hive
- SPARK-53012 Obsługa funkcji UDTF języka Python w programie Spark Connect
- SPARK-53251 Włącz testowanie API DataFrame za pomocą asTable() dla UDTF Python w Arrow
- SPARK-52432 Zakres przepływu danychGraphRegistry do sesji
- SPARK-52853 Zapobieganie imperatywnym metodom PySpark w potokach deklaratywnych
-
SPARK-52745 Upewnij się, że jedna z opcji
schemaicolumnsw interfejsu tabeli jest zaimplementowana icolumnspowinien być preferowany. - SPARK-52991 Cofnij zmiany "[SC-204944][sql] Wdrożenie MERGE INTO z SCHEMA EWOLUCJĄ dla źródła danych V2"
- SPARK-52981 Dodanie obsługi argumentów tabeli dla funkcji UDTFs języka Python w ramach Arrow
-
SPARK-53487 Popraw komentarze w
NormalizePlan.scala - SPARK-52991 Implementowanie MERGE INTO za pomocą SCHEMA technologii EVOLUTION dla źródła danych w wersji 2
-
SPARK-52281 Zmiana
ALTER TABLE ALTER COLUMN TYPE STRING, aby nie stosować sortowania domyślnego, jeśli oryginalny typ danych był wystąpieniemStringType - SPARK-52759 Rzuć wyjątek, jeśli potok nie ma tabel ani widoków trwałych
- SPARK-51575 Połączenie optymalizacji zapytań źródła danych języka Python i planowania procesów roboczych odczytu
- SPARK-53359 Naprawiono Arrow UDTF, aby obsługiwać wyniki jako iterator
- SPARK-52757 Zmień nazwę pola "plan" w polu DefineFlow na "relation"
- SPARK-52431 Kończenie obsługi modułu uruchamiającego potoki deklaratywne
- SPARK-52591 Zweryfikuj strumieniowość DFs zwracanych przez tabelę SDP i autonomiczne definicje przepływów
- SPARK-53030 Obsługa zapisywania strzałek na potrzeby przesyłania strumieniowego źródeł danych języka Python
- SPARK-52980 Obsługa funkcji tabelarycznych UDTF języka Python przy użyciu Arrow
- SPARK-42841Przypisywanie nazwy do klasy błędów _LEGACY_ERROR_TEMP_2005
- SPARK-52423 Dodawanie brakującej nazwy pakietu golang do pliku pipelines.proto
- SPARK-52409 W testach należy używać tylko elementu PipelineRunEventBuffer
- SPARK-52533 Obsługa włączania tylko profilera sterowników
- SPARK-52716 Usuwanie komentarza z cech i odwołań usługi Flow
- SPARK-52348 Dodano obsługę obsługiwaczy Spark Connect dla poleceń potoku
-
SPARK-52281 Przywróć "[SC-198058][sql] Zmień
ALTER TABLE ALTER COLUMN TYPE STRING, aby nie stosować sortowania domyślnego, jeśli oryginalny typ danych był wystąpieniemStringType" - SPARK-49386 Dodano progi pamięciowe w celu rozlania mapowania
-
SPARK-52281 Zmiana
ALTER TABLE ALTER COLUMN TYPE STRING, aby nie stosować sortowania domyślnego, jeśli oryginalny typ danych był wystąpieniemStringType - SPARK-53329 Ulepszanie obsługi wyjątków podczas dodawania artefaktów
- SPARK-52772 Przywróć "[SC-202707][engrm-327][SQL] Niespójna obsługa atrybutów tabeli podczas aktualizacji"
- SPARK-52772 Niespójna obsługa atrybutów tabeli podczas aktualizacji
- SPARK-51739 Weryfikacja schematu Arrow z mapInArrow, mapInPandas i DataSource
- Spark-53355 testowe zachowanie typu udf języka Python
-
SPARK-53443 Aktualizowanie języka Python do
SPDX-license - SPARK-49968 Funkcja split generuje nieprawidłowe wyniki z pustym wyrażeniem regularnym i limitem
- SPARK-52582 Zwiększanie użycia pamięci analizatora XML
-
SPARK-53452
from_arrow_typepowinien przestrzegaćvalueContainsNull - SPARK-53103 Cofnij "[SC-204946][ss] Zgłaszaj błąd, jeśli katalog stanu nie jest pusty podczas uruchamiania zapytania"
- SPARK-53103 Zgłaszanie błędu, jeśli katalog stanu nie jest pusty podczas uruchamiania zapytania
- SPARK-51575 Cofnij "[SC-192406][python] Połączenie wypychania źródła danych Python i zaplanowania pracowników do odczytu"
- SPARK-51575 Połączenie optymalizacji zapytań źródła danych języka Python i planowania procesów roboczych odczytu
- SPARK-53095 Obsługa HMS w wersji 4.1
-
SPARK-53126 Refaktoryzacja
SparkErrorUtils#stackTraceToStringdo obsługinulldanych wejściowych i używania jej do zastępowaniaExceptionUtils#getStackTrace -
SPARK-49489 Klient HMS przestrzega
hive.thrift.client.maxmessage.size - SPARK-53108 Implementowanie funkcji time_diff w języku Scala
- SPARK-45265 Obsługa magazynu metadanych Hive 4.0
-
SPARK-53255 Blokada
org.apache.parquet.Preconditions - SPARK-52142 Wyświetlanie ograniczeń tabeli w poleceniu SHOW CREATE TABLE COMMAND
- SPARK-52875 Uproszczenie tłumaczenia wyrażeń V2, jeśli dane wejściowe są niezależne od kontekstu i składane
-
SPARK-53240 Ban
com.google.common.collect.(ArrayList)?Multimap - SPARK-52875 Cofnij "[SC-201880][sql] Uproszczenie tłumaczenia wyrażeń V2, jeśli dane wejściowe są kontekstowo niezależnie składane"
- SPARK-52141 Wyświetlanie ograniczeń w poleceniach DESC
- SPARK-53386 Obsługa parametru zapytania kończącego się średnikiem w łącznikach JDBC
- SPARK-52875 Uproszczenie tłumaczenia wyrażeń V2, jeśli dane wejściowe są niezależne od kontekstu i składane
- SPARK-53437 InterpretedUnsafeProjection powinien ustawić wartość null4Bytes dla pola typu YearMonthIntervalType
- SPARK-53341 Rozszerzanie złotego pokrycia testowego dla wielowarianowalnej deklaracji
- SPARK-53156 Śledzenie metryk pamięci sterownika po zakończeniu aplikacji
- SPARK-52689 Wysyłanie metryk DML do V2Write
- SPARK-52641 Kolumny klucza podstawowego nie powinny mieć wartości null
- SPARK-48547 Dodaj opcję zgody, aby usługa SparkSubmit automatycznie wywołała System.exit po zakończeniu głównej metody kodu użytkownika
- SPARK-52575 Wprowadzenie atrybutu contextIndependentFoldable dla wyrażeń
- SPARK-52860 Obsługa ewolucji schematu zapisu w wersji 2 w tabeli InMemoryTable
- SPARK-53435 Naprawiono warunek wyścigu w CachedRDDBuilder
- SPARK-51987 Wyrażenia DSv2 w kolumnach domyślnych podczas zapisu
- SPARK-52235 Dodaj niejawne rzutowanie do wyrażeń domyślnej wartości V2 przekazanych do DSV2
- SPARK-52236 Standaryzacja wyjątków analizy dla wartości domyślnej
- SPARK-53294 Włącz element StateDataSource z punktem kontrolnym stanu w wersji 2 (tylko opcja batchId)
- SPARK-52095 Zmień tabelę, zmień kolumnę, aby przekazać V2Expression do DSV2
- SPARK-53415 Proste opcje wbudowanego formatu plików
- SPARK-53318 Obsługa typu czasu przez make_timestamp_ltz()
- SPARK-53143 Naprawianie samosprzężenia w interfejsie API ramki danych — sprzężanie nie jest jedynym oczekiwanym wyjściem z analizatora
-
SPARK-53423 Przenieś wszystkie tagi powiązane z jednoprzepustowym resolverem do
ResolverTag - SPARK-52116 Ulepszanie wyjątku dla wartości domyślnych niedeterministycznych
- SPARK-51906 Wyrażenia dsv2 w tabeli alter table dodaj kolumny
- SPARK-53403 Ulepsz testy dodawania/odejmowania zgodnie ze standardem ANSI
-
SPARK-53418 Obsługa
TimeTypew kontekścieColumnAccessor - SPARK-52777 Włączanie konfiguracji trybu oczyszczania mieszania w usłudze Spark SQL
- SPARK-52485 Uprzątnięcie kodu potoków deklaratywnych
-
SPARK-53236 Używanie konstruktorów Java
ArrayListzamiastLists.newArrayListw kodzie Java - SPARK-53392 Przenieść obsługę SpecializedArray do connect-common
-
SPARK-53176 Program uruchamiający Spark powinien respektować
--load-spark-defaults -
SPARK-53237 Używanie języka Java
Base64zamiastorg.apache.commons.codec.binary.Base64wystąpienia - SPARK-53390 Zgłoś błąd, gdy wartości logiczne z wartością None są konwertowane na typy całkowite zgodnie ze standardem ANSI.
- SPARK-53109 Obsługa czasu w funkcjach make_timestamp_ntz i try_make_timestamp_ntz w języku Scala
- SPARK-53393 Wyłączyć profiler pamięci dla funkcji zdefiniowanych przez użytkownika Arrow Iterator
- SPARK-53367 dodaj konwersję int na typ dziesiętny dla funkcji UDF Arrow
- SPARK-53365 Ujednolicenie kodu do zapisywania konfiguracji w widokach i funkcjach UDF
-
SPARK-53228 Używanie konstruktorów Języka Java
MapzamiastMaps.new*HashMap() -
SPARK-53197 Użyj
java.util.Objects#requireNonNullzamiastcom.google.common.base.Preconditions#checkNotNull -
SPARK-53216 Przenieś
is*(Blank|Empty)zobject SparkStringUtilsdotrait SparkStringUtils - SPARK-53385 Ocena identyfikatora refaktoryzacji
- SPARK-53384 Refaktoryzacja procesu rozpoznawania zmiennych na zewnątrz
-
SPARK-53195 Używanie języka Java
InputStream.readNByteszamiastByteStreams.read -
SPARK-53205 Obsługa
createParentDirsw programieSparkFileUtils -
SPARK-53196 Używanie języka Java
OutputStream.nullOutputStreamzamiastByteStreams.nullOutputStream -
SPARK-53381 Unikaj tworzenia kolekcji tymczasowych w programie
toCatalystStruct - SPARK-53275 Obsługa wyrażeń stanowych podczas sortowania w trybie interpretowanym
- SPARK-51585 Dialekt Oracle obsługuje funkcje daty/godziny wypychania
-
SPARK-53200 Używanie języka Java
Files.newInputStreamzamiastFiles.asByteSource().openStream() -
SPARK-53190 Używanie języka Java
InputStream.transferTozamiastByteStreams.copy -
SPARK-53188 Obsługa
readFullyw usługachSparkStreamUtilsiJavaUtils - SPARK-53354 Uproszczenie właściwości LiteralValueProtoConverter.toCatalystStruct
- SPARK-52873 Dalsze ograniczenie warunków, w których półłączenie/antyłączenie SHJ może ignorować zduplikowane klucze po stronie budowy
-
SPARK-53180 Używanie języka Java
InputStream.skipNByteszamiastByteStreams.skipFully -
SPARK-53369 Naprawiono komunikat o błędzie dla funkcji zdefiniowanych przez użytkownika z typem zwrotnym
CHAR/VARCHAR - SPARK-53330 Naprawiono funkcję UDF strzałki z parametrem DayTimeIntervalType (granice != start/end)
- SPARK-53366 Zastosowanie zasad formatowania do ścieżki sql/connect/shims
- SPARK-53348 Zawsze utrwalaj wartość ANSI podczas tworzenia widoku lub przyjmij ją podczas wykonywania zapytań, jeśli nie są przechowywane
-
SPARK-53119 Obsługa
touchwSparkFileUtils - SPARK-52592 Obsługa tworzenia ps. Seria z ps. Seria
- SPARK-53360 Nie należy przerywać strategii z idempotencją ConstantFolding
-
SPARK-53135 Obsługa
copyURLToFilewSparkFileUtilsiJavaUtils -
SPARK-53150 Ulepsz
list(File|Path)sobsługę nieistniejących, niebędących katalogiem lub symlinkiem danych wejściowych -
SPARK-53135 Przywróć "[SC-203164][core][SQL] Support
copyURLToFileinSparkFileUtilsandJavaUtils" -
SPARK-53137 Obsługa
forceDeleteOnExitwSparkFileUtilsiJavaUtils - SPARK-53352 Uściślij komunikat o błędzie dla nieobsługiwanego typu zwracanego
- SPARK-53353 Niepowodzenie funkcji UDF strzałki iteratora skalarnego z wartością 0-arg
-
SPARK-53135 Obsługa
copyURLToFilewSparkFileUtilsiJavaUtils -
SPARK-53101 Obsługa
(left|right)PadwSparkStringUtils -
SPARK-53117 Obsługa
moveDirectorywSparkFileUtilsiJavaUtils -
SPARK-53121 Użyj
deleteRecursivelyzamiastFileUtils.forceDelete -
SPARK-53100 Używanie języka Java
String.substringzamiastStringUtils.substring -
SPARK-53092 Zablokować
org.apache.commons.lang3.SystemUtils - SPARK-53328 Zwiększanie możliwości debugowania dla połączenia SparkML
- SPARK-52065 Stworzenie innego drzewa planu z kolumnami wyjściowymi (nazwa, typ danych, możliwość wartości null) w rejestrowaniu zmian planu
- SPARK-51182 Element DataFrameWriter powinien zgłaszać błąd dataPathNotSpecifiedError, gdy nie określono ścieżki
-
SPARK-52410 Wycofaj
PipelineConfi użyjSqlConfbezpośrednio - SPARK-52852 Usuń nieużywane spark_conf w create_streaming_table
- SPARK-52714 Usuń nieużywany argument komentarza w dekoratorze append_flow
- SPARK-52663 Wprowadzenie pola 'nazwa' do specyfikacji pipeline’u
-
SPARK-53091 Zbanowanie
org.apache.commons.lang3.Strings - SPARK-52393 Rejestracja elementu rurki graficznej SQL
-
SPARK-52912 Ulepsz
SparkStringUtilsw celu obsługiis(Not)?(Blank|Empty) - SPARK-53307 Usuwanie błędu RetriesExceeded z klientów Spark Connect Python i Scala
-
SPARK-52346 Deklaratywne wykonanie potoku
DataflowGraphi rejestrowanie zdarzeń - SPARK-52877 Zwiększanie wydajności serializatora strzałki UDF języka Python
- SPARK-51920 Naprawianie typu złożonego/zagnieżdżonego w stanie wartości dla środowiska TWS języka Python
- SPARK-52741 Tryb RemoveFiles ShuffleCleanup nie działa z wykonywaniem nie adaptacyjnym
- SPARK-52238 Klient języka Python dla potoków deklaratywnych
- SPARK-51926 Dodaj klasę błędów INVALID_CONF_VALUE.subXXX do błędów konfiguracyjnych
- SPARK-53155 Nie należy zastępować globalnej niższej agregacji projektem
-
SPARK-52911 Usuń
StringUtils.(split|chop)użycie - SPARK-51926 Przywróć "[SC-195096][core][SQL] Przywróć klasę błędów INVALID_CONF_VALUE.subXXX dla błędów konfiguracyjnych"
- SPARK-53346 Unikaj tworzenia kolekcji tymczasowych w pliku toCatalystArray/toCatalystMap
- SPARK-51926 Dodaj klasę błędów INVALID_CONF_VALUE.subXXX do błędów konfiguracyjnych
- SPARK-53136 tryWithResource i tryInitializeResource zamkną zasób cicho
-
SPARK-53132 Obsługa
list(File|Path)swSparkFileUtilsiJavaUtils - SPARK-51896 Dodaj obsługę wyliczeń Java dla typedConfigBuilder
- SPARK-53311 Spraw, aby PullOutNonDeterministic używało wyrażeń kanonicznych
- SPARK-51527 Konfigurowanie poziomu dziennika codegen za pomocą narzędzia SQLConf
- SPARK-52223 Dodawanie proto programu SDP Spark Connect
-
SPARK-52283 Tworzenie i rozwiązywanie deklaratywnych potoków danych
DataflowGraph -
SPARK-52880 Ulepszanie
toStringprzezJEP-280zamiastToStringBuilder - SPARK-53284 Dostosowywanie importu konfiguracji platformy Spark w testach
- SPARK-53050 Włącz MultiIndex.to_series(), aby zwracać strukturę dla każdego wpisu
- SPARK-52988 Naprawiono warunki wyścigu w CREATE TABLE i FUNKCJI przy użyciu IF NOT EXISTS.
-
SPARK-52874 Obsługa
o.a.s.util.Pairrekordu języka Java -
SPARK-52710
DESCRIBE SCHEMApowinien wyświetlać sortowanie -
SPARK-49984 Poprawka ograniczająca się do aktualizacji
supplementJava(Module|IPv6)Options
Obsługa sterowników ODBC/JDBC w usłudze Azure Databricks
Usługa Azure Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).
Aktualizacje konserwacji
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime.
Środowisko systemu
- System operacyjny: Ubuntu 24.04.3 LTS
- Java: Zulu17.58+21-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.4.2
- Delta Lake: 4.0.0
Zainstalowane biblioteki języka Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| typy z adnotacjami | 0.7.0 | anyio | 4.6.2 | argon2-cffi | 21.3.0 |
| argon2-cffi-bindings | 21.2.0 | strzałka | 1.3.0 | asttokens | 2.0.5 |
| astunparse | 1.6.3 | async-lru | 2.0.4 | attrs | 24.3.0 |
| autokomenda | 2.2.2 | azure-common | 1.1.28 | azure-core | 1.34.0 |
| azure-identity | 1.20.0 | azure-mgmt-core (rdzeń zarządzania Azure) | 1.5.0 | azure-mgmt-web | 8.0.0 |
| Azure Storage Blob | 12.23.0 | Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) | 12.17.0 | Babel | 2.16.0 |
| backports.tarfile | 1.2.0 | beautifulsoup4 | 4.12.3 | czarny | 24.10.0 |
| wybielacz | 6.2.0 | kierunkowskaz | 1.7.0 | boto3 | 1.36.2 |
| botocore | 1.36.3 | cachetools (narzędzia do zarządzania pamięcią podręczną) | 5.5.1 | certyfikat | 2025.1.31 |
| cffi | 1.17.1 | chardet | 4.0.0 | normalizator zestawu znaków | 3.3.2 |
| kliknij | 8.1.7 | cloudpickle (biblioteka Python do serializacji obiektów) | 3.0.0 | komunikacja | 0.2.1 |
| ContourPy | 1.3.1 | kryptografia | 43.0.3 | rowerzysta | 0.11.0 |
| Cython | 3.0.12 | databricks-sdk | 0.49.0 | dbus-python | 1.3.2 |
| debugpy | 1.8.11 | dekorator | 5.1.1 | defusedxml (biblioteka zabezpieczająca przetwarzanie XML) | 0.7.1 |
| Deprecated | 1.2.13 | distlib | 0.3.9 | Konwertowanie docstringów na markdown | 0,11 |
| wykonywanie | 0.8.3 | aspekty — omówienie | 1.1.1 | fastapi | 0.115.12 |
| fastjsonschema | 2.21.1 | blokada plików | 3.18.0 | fonttools | 4.55.3 |
| Fqdn | 1.5.1 | fsspec | 2023.5.0 | gitdb (baza danych Git) | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.20.0 | google-auth (autoryzacja Google) | 2.40.0 |
| google-cloud-core | 2.4.3 | Google Cloud Storage (usługa przechowywania danych w chmurze od Google) | 3.1.0 | google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) | 1.7.1 |
| Google Media z Możliwością Wznowienia | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.14.0 | httpcore | 1.0.2 |
| httplib2 | 0.20.4 | httpx | 0.27.0 | IDNA | 3.7 |
| importlib-metadata | 6.6.0 | importlib_resources | 6.4.0 | odchylić | 7.3.1 |
| iniconfig | 1.1.1 | ipyflow-core | 0.0.209 | ipykernel | 6.29.5 |
| ipython | 8.30.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.8.1 |
| isodate | 0.6.1 | izoduracja | 20.11.0 | jaraco.context | 5.3.0 |
| jaraco.functools | 4.0.1 | jaraco.text | 3.12.1 | Jedi | 0.19.2 |
| Jinja2 | 3.1.5 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | JsonPointer | 3.0.0 | jsonschema | 4.23.0 |
| Specyfikacje schematu JSON | 2023.7.1 | If the term needs to stay in English, it should remain "jupyter-events". If a translation is needed, it could potentially be "wydarzenia jupyter", depending on the context and recognition among the target audience. | 0.10.0 | jupyter-lsp | 2.2.0 |
| jupyter_client | 8.6.3 | jupyter_core | 5.7.2 | jupyter_server | 2.14.1 |
| jupyter_server_terminals (terminale serwera Jupyter) | 0.4.4 | jupyterlab | 4.3.4 | jupyterlab-pygments | 0.1.2 |
| Widżety JupyterLab | 1.0.0 | jupyterlab_server | 2.27.3 | kiwisolver | 1.4.8 |
| launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 | lazr.uri | 1.0.6 |
| markdown —it-py | 2.2.0 | MarkupSafe | 3.0.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 2.0.4 | mlflow-skinny | 3.0.1 | mmh3 | 5.1.0 |
| more-itertools | 10.3.0 | msal | 1.32.3 | msal-extensions | 1.3.1 |
| mypy-extensions | 1.0.0 | NBClient | 0.8.0 | nbconvert - narzędzie do konwersji plików Jupyter Notebook | 7.16.4 |
| nbformat | 5.10.4 | nest-asyncio | 1.6.0 | nodeenv | 1.9.1 |
| notes | 7.3.2 | notebook_shim | 0.2.3 | numpy | 2.1.3 |
| oauthlib | 3.2.2 | opentelemetry-api | 1.32.1 | opentelemetry-sdk | 1.32.1 |
| opentelemetry-semantic-conventions (standardowe konwencje semantyczne w OpenTelemetry) | 0.53b1 | Zastępuje | 7.4.0 | opakowanie | 24,2 |
| Pandas | 2.2.3 | pandocfilters | 1.5.0 | parso | 0.8.4 |
| specyfikacja ścieżki | 0.10.3 | ofiara | 1.0.1 | pexpect | 4.8.0 |
| poduszka | 11.1.0 | pip (menedżer pakietów Pythona) | 25.0.1 | platformdirs | 3.10.0 |
| kreślenie | 5.24.1 | wtyczkowy | 1.5.0 | prometheus_client | 0.21.0 |
| zestaw narzędzi prompt | 3.0.43 | proto-plus | 1.26.1 | Protobuf (w skrócie od Protocol Buffers) | 5.29.4 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | pyarrow | 19.0.1 | pyasn1 | 0.4.8 |
| pyasn1-modules | 0.2.8 | pyccolo | 0.0.71 | pycparser | 2.21 |
| pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 2.10.6 | pydantic_core | 2.27.2 | pyflakes (narzędzie do analizy statycznej kodu Python) | 3.2.0 |
| Pygments | 2.15.1 | PyGObject | 3.48.2 | pyiceberg | 0.9.0 |
| PyJWT | 2.10.1 | pyodbc | 5.2.0 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.2.0 |
| pyright | 1.1.394 | pytest | 8.3.5 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.9.0.post0 |
| python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.12.0 |
| pytoolconfig | 1.2.6 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2024.1 | PyYAML | 6.0.2 |
| pyzmq | 26.2.0 | odwoływanie się | 0.30.2 | żądania | 2.32.3 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | bogaty | 13.9.4 |
| lina | 1.12.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.11.3 | scikit-learn | 1.6.1 | scipy (biblioteka naukowa dla Pythona) | 1.15.1 |
| urodzony na morzu | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 74.0.0 |
| sześć | 1.16.0 | smmap | 5.0.0 | Sniffio | 1.3.0 |
| posortowane kontenery | 2.4.0 | sitko do zupy | 2.5 | sqlparse | 0.5.3 |
| ssh-import-id (narzędzie do importowania kluczy SSH) | 5.11 | stos danych | 0.2.0 | gwiazdka | 0.46.2 |
| statsmodels - biblioteka do modelowania statystycznego | 0.14.4 | strictyaml | 1.7.3 | Wytrzymałość | 9.0.0 |
| zakończony | 0.17.1 | threadpoolctl | 3.5.0 | tinycss2 | 1.4.0 |
| tokenize_rt | 6.1.0 | tomli | 2.0.1 | tornado | 6.4.2 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | types-python-dateutil | 2.9.0.20241206 |
| moduł typing_extensions | 4.12.2 | tzdata | 2024.1 | ujson (szybka biblioteka do obsługi formatu JSON) | 5.10.0 |
| nienadzorowane uaktualnienia | 0.1 | Szablon adresu URI | 1.3.0 | urllib3 | 2.3.0 |
| uvicorn | 0.34.2 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| szerokość(wcwidth) | 0.2.5 | kolory sieci Web | 24.11.1 | kodowania webowe | 0.5.1 |
| websocket-klient | 1.8.0 | czymjestłatka | 1.0.2 | wheel | 0.45.1 |
| widgetsnbextension | 3.6.6 | zawinięty | 1.17.0 | yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) | 0.40.2 |
| zamek błyskawiczny | 3.21.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN Menedżera pakietów Posit z dnia 2025-03-20.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| strzałka | 19.0.1 | askpass | 1.2.1 | potwierdzić to | 0.2.1 |
| porty wsteczne | 1.5.0 | baza | 4.4.2 | base64enc | 0.1-3 |
| bigD | 0.3.0 | bit | 4.6.0 | bit-64 | 4.6.0-1 |
| bitops | 1.0-9 | blob | 1.2.4 | rozruch systemu | 1.3-30 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-10 | Brio | 1.1.5 | miotła | 1.0.7 |
| bslib | 0.9.0 | kaszmir | 1.1.0 | dzwoniący | 3.7.6 |
| karetka | 7.0-1 | cellranger | 1.1.0 | Chroń | 2.3-62 |
| klasa | 7.3-22 | CLI | 3.6.5 | clipr | 0.8.0 |
| zegar | 0.7.2 | klaster | 2.1.6 | codetools | 0.2-20 |
| przestrzeń kolorów | 2.1-1 | commonmark | 1.9.5 | kompilator | 4.4.2 |
| konfig | 0.3.2 | zdezorientowany | 1.2.0 | cpp11 | 0.5.2 |
| crayon | 1.5.3 | dane logowania | 2.0.2 | skręt | 6.4.0 |
| tabela danych | 1.17.0 | zbiory danych | 4.4.2 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | Opis | 1.4.3 | devtools | 2.4.5 |
| schemat | 1.6.5 | diffobj | 0.3.5 | skrót | 0.6.37 |
| przyciemnione oświetlenie | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-16 | wielokropek | 0.3.2 | ocenić | 1.0.3 |
| fani | 1.0.6 | kolory | 2.1.2 | szybka mapa | 1.2.0 |
| Font Awesome | 0.5.3 | dla kotów | 1.0.0 | foreach | 1.5.2 |
| zagraniczny | 0.8-86 | kuźnia | 0.2.0 | fs | 1.6.5 |
| przyszłość | 1.34.0 | wprowadź przyszłość | 1.11.3 | płukać | 1.5.2 |
| typy ogólne | 0.1.4 | gert | 2.1.4 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.35.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globalne | 0.18.0 | klej | 1.8.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.2 |
| grafika | 4.4.2 | grDevices | 4.4.2 | siatka | 4.4.2 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.1 |
| gtabela | 0.3.6 | hełm ochronny | 1.4.1 | przystań | 2.5.4 |
| wyżej | 0,11 | HMS | 1.1.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.8.1 |
| widżety HTML | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.1.1 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.9.1 | soczysty sok | 0.1.0 |
| KernSmooth | 2.23–2.22 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1.50 | etykietowanie | 0.4.3 |
| później | 1.4.1 | siatka | 0.22-5 | lawa | 1.8.1 |
| cykl życia | 1.0.4 | nasłuchiwanie | 0.9.1 | lubridate | 1.9.4 |
| magrittr | 2.0.3 | Markdown | 1.13 | MASA | 7.3-60.0.1 |
| Matrix | 1.6-5 | zapamiętywanie | 2.0.1 | metody | 4.4.2 |
| mgcv | 1.9-1 | pantomima | 0,13 | miniUI (interfejs użytkownika) | 0.1.1.1 |
| mlflow | 2.20.4 | Metryki modelowe | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-164 | sieć neuronowa (nnet) | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.3.3 | równoległy | 4.4.2 |
| równolegle | 1.42.0 | kolumna | 1.11.0 | pkgbuild | 1.4.6 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.1 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | pochwała | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | Procesx | 3.8.6 |
| prodlim | 2024.06.25 | profvis | 0.4.0 | postęp | 1.2.3 |
| progressr | 0.15.1 | Obietnice | 1.3.2 | Prototyp | 1.0.0 |
| serwer proxy | 0.4-27 | Postscriptum | 1.9.0 | mruczenie | 1.0.4 |
| R6 | 2.6.1 | ragg | 1.3.3 | "randomForest" | 4.7-1.2 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.14 | RcppEigen | 0.3.4.0.2 | reaktywny | 0.4.4 |
| reactR | 0.6.1 | czytnik | 2.1.5 | readxl (biblioteka do odczytu plików Excel) | 1.4.5 |
| przepisy | 1.2.0 | rewanż | 2.0.0 | rematch2 | 2.1.2 |
| Zdalne sterowanie | 2.5.0 | przykład powtarzalny | 2.1.1 | zmień kształt2 | 1.4.4 |
| rlang | 1.1.6 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.29 | RODBC | 1.3-26 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-15 | RSQLite | 2.3.9 | rstudioapi | 0.17.1 |
| rversions | 2.1.2 | rvest | 1.0.4 | Sass | 0.4.9 |
| waga (urządzenie) | 1.3.0 | selektor | 0.4-2 | Informacje o sesji | 1.2.3 |
| kształt | 1.4.6.1 | błyszczący | 1.10.0 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.1 | SparkR | 4.0.0 | rzadkie wektory | 0.3.1 |
| przestrzenny | 7.3-17 | Splatiny | 4.4.2 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | Statystyki | 4.4.2 | statystyki4 | 4.4.2 |
| łańcuchy | 1.8.7 | stringr | 1.5.1 | przetrwanie | 3.5-8 |
| pewność siebie | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.2.1 |
| tcltk | 4.4.2 | testthat | 3.2.3 | kształtowanie tekstu | 1.0.0 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | zmiana czasu | 0.3.0 | czasData | 4041.110 |
| tinytex | 0.56 | narzędzia | 4.4.2 | Baza Danych Stref Czasowych (tzdb) | 0.5.0 |
| sprawdzacz URL | 1.0.1 | użyj tego | 3.1.0 | utf8 | 1.2.6 |
| oprogramowanie użytkowe | 4.4.2 | UUID (Uniwersalnie Unikalny Identyfikator) | 1.2-1 | V8 | 6.0.2 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | Vroom | 1.6.5 |
| Waldo | 0.6.1 | włosek czuciowy | 0.4.1 | Withr | 3.0.2 |
| xfun | 0.51 | xml2 | 1.3.8 | xopen | 1.0.1 |
| Xtable | 1.8-4 | yaml | 2.3.10 | zapał | 0.1.0 |
| zip | 2.3.2 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.13)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.638 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.638 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.638 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.5.1 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rodzimi |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rodzimi |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rodzimi |
| com.github.luben | zstd-jni | 1.5.6-10 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | adnotacje podatne na błędy | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 24.3.25 |
| com.google.guava | błąd dostępu | 1.0.2 |
| com.google.guava | owoc guawy | 33.4.0-jre |
| com.google.guava | słuchalna przyszłość | 9999.0-pusty, aby uniknąć konfliktu z guavą |
| com.google.j2objc | Adnotacje j2objc | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | konfig | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.9.0 |
| commons-codec | commons-codec | 1.17.2 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.18.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blask | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.5 |
| io.dropwizard.metrics | adnotacja metryk | 4.2.30 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.30 |
| io.dropwizard.metrics | metrics-graphite | 4.2.30 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.2.30 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.30 |
| io.dropwizard.metrics | metrics-jmx | 4.2.30 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.2.30 |
| io.dropwizard.metrics | metryki-JVM | 4.2.30 |
| io.dropwizard.metrics | serwlety metryczne | 4.2.30 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.1.118.Final |
| io.netty | Netty-buffer | 4.1.118.Final |
| io.netty | netty-codec | 4.1.118.Final |
| io.netty | netty-codec-http | 4.1.118.Final |
| io.netty | netty-codec-http2 | 4.1.118.Final |
| io.netty | netty-codec-socks | 4.1.118.Final |
| io.netty | netty-common (element wspólny) | 4.1.118.Final |
| io.netty | "netty-handler" | 4.1.118.Final |
| io.netty | netty-handler-proxy | 4.1.118.Final |
| io.netty | rozwiązywacz netty | 4.1.118.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.70.Final-db-r0-windows-x86_64 |
| io.netty | Klasy netty-tcnative | 2.0.70.Final |
| io.netty | Netty-transport | 4.1.118.Final |
| io.netty | netty-transport-classes-epoll | 4.1.118.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.118.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.118.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.118.Final |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | simpleclient_common | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | moduł zbierający | 0.18.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.13.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea (pakiet oprogramowania) | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | program uruchamiający Ant | 1.10.11 |
| org.apache.arrow | format strzałki | 18.2.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 18.2.0 |
| org.apache.arrow | arrow-memory-netty | 18.2.0 |
| org.apache.arrow | strzałka-pamięć-netty-bufor-łatka | 18.2.0 |
| org.apache.arrow | wektor strzałki | 18.2.0 |
| org.apache.avro | avro | 1.12.0 |
| org.apache.avro | avro-ipc | 1.12.0 |
| org.apache.avro | avro-mapred | 1.12.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.27.1 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.17.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.13.0 |
| org.apache.curator | kurator-klient | 5.7.1 |
| org.apache.curator | Framework kuratora | 5.7.1 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 5.7.1 |
| org.apache.datasketches | datasketches-java | 6.1.1 |
| org.apache.datasketches | datasketches-pamięć | 3.0.2 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.4.1 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | Klient hive-llap | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | podkładki hive | 2.3.10 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | szablon układu log4j w formacie JSON | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.1.1-shaded-protobuf |
| org.apache.orc | format ORC | 1.1.0-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.1.1-shaded-protobuf |
| org.apache.orc | podkładki ORC | 2.1.1 |
| org.apache.poi | Um | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.26 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | adnotacje dla widowni | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.9.3 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | zookeeper-jute | 3.9.3 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-http | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-io | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-jndi | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-plus | 9.4.53.v20231009 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlet | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-servlets | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.53.v20231009 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.53.v20231009 |
| org.eclipse.jetty | jetty-xml | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.53.v20231009 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.53.v20231009 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.41 |
| org.glassfish.jersey.core | serwer jersey | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.9.1 |
| org.objenesis | objenesis | 3.3 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.3.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | ThreeTen Extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |
Wskazówka
Aby wyświetlić informacje o wersji środowiska Databricks Runtime, które osiągnęły koniec wsparcia technicznego (EoS), zobacz End-of-support Databricks Runtime release notes (Informacje o wersji środowiska Databricks Runtime). Wersje środowiska Uruchomieniowego usługi EoS Databricks zostały wycofane i mogą nie zostać zaktualizowane.