Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 18.1.
Эта версия включает все функции, улучшения и исправления ошибок из всех предыдущих выпусков Databricks Runtime. Databricks выпустила эту версию в феврале 2026 года.
Изменения поведения
- Ошибки метрик наблюдения больше не приводят к сбою запросов
- Фильтрация по агрегатным функциям MEASURE
- Оптимизированные операции записи для операций CRTAS каталога Unity
- Обновление кэша DataFrame для таблиц управления доступом с точным (или гранулярным) контролем
- Значения разделов меток времени используют часовой пояс сеанса
- Зарезервированное ключевое слово DESCRIBE FLOW
- Булевы операции пространственных наборов в SpatialSQL
- Типы исключений для SQLSTATE
- Расширение типа автоматической потоковой передачи
Ошибки метрик наблюдения больше не приводят к сбою запросов
Ошибки во время сбора метрик наблюдения больше не вызывают сбоев выполнения запроса. Ранее ошибки в OBSERVE предложениях (например, деление по нулю) могли блокировать или завершить весь запрос. Теперь запрос завершается успешно, и ошибка возникает при вызове observation.get.
Предложение FILTER для агрегатных функций MEASURE
Агрегатные функции MEASURE теперь поддерживают предложения FILTER. Ранее фильтры были незаметно игнорированы.
Оптимизированные операции записи для операций CRTAS каталога Unity
Операции СОЗДАНИЕ ИЛИ ЗАМЕНА TABLE AS SELECT (CRTAS) на разделённых таблицах каталога Unity теперь по умолчанию применяют оптимизированные записи. Чтобы отключить, установите значение spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabledfalse.
Обновление кэша DataFrame для таблиц с мелкозернистым управлением доступом
Запись в детализированные таблицы управления доступом на выделенных вычислительных ресурсах теперь обновляет кэшированные фреймы данных, зависящие от таблицы.
Значения секций метки времени используют часовой пояс сеанса
Значения секций метки времени используют часовой пояс сеанса Spark вместо часового пояса JVM. Если у вас есть секции меток времени, созданные до Databricks Runtime 18.0, запустите SHOW PARTITIONS, чтобы проверить метаданные секций перед записью новых данных.
Зарезервированное ключевое слово DESCRIBE FLOW
Команда DESCRIBE FLOW теперь доступна. Если у вас есть таблица с именем flow, используйте DESCRIBE schema.flow, DESCRIBE TABLE flow, или DESCRIBE `flow` с обратными апострофами.
Пространственные SQL операции логического типа
ST_Difference, ST_Intersectionи ST_Union используйте новую реализацию со следующими улучшениями:
- Допустимые входные геометрии всегда создают результат и больше не вызывают ошибок. Недопустимые входные данные не вызывают ошибок, но могут не создавать допустимые результаты.
- Производительность приблизительно в 2 раза быстрее.
- Результаты могут отличаться после 15-го десятичного разряда для пересечений сегментов линии из-за различных формул и порядка операций.
- Результаты нормализуются для согласованных, сопоставимых выходных данных:
- Точки сортируются по значениям координат.
- Линии создаются из самых длинных возможных путей.
- Круги многоугольников поворачиваются, поэтому первая точка имеет наименьшие значения координат.
- Эта нормализация применяется во всех случаях, за исключением вызовов
ST_Differenceс двумя неперекрывающимися геометриями, где первая геометрия возвращается неизмененную.
Типы исключений для SQLSTATE
Типы исключений обновляются для поддержки SQLSTATE. Если код анализирует исключения по строковым сопоставлениям или перехватывает определенные типы исключений, обновите логику обработки ошибок.
Расширение типа автоматической потоковой передачи
Потоковое чтение таблиц Delta автоматически обрабатывает расширение типа столбца. Чтобы требовать подтверждение вручную, установите значение spark.databricks.delta.typeWidening.enableStreamingSchemaTrackingtrue.
Новые функции и улучшения
- Автозагрузчик использует события файлов по умолчанию при наличии
- Оптимизированные записи для секционированных таблиц каталога Unity Catalog, созданных с помощью CRTAS
- Поддержка типа данных DATETIMEOFFSET для Microsoft Azure Synapse
- Комментарии к таблицам Google BigQuery
- Эволюция схемы с INSERT операторами
- Сохраненные значения структуры NULL в INSERT операциях
- Поддержка многооператорных транзакций в Delta Sharing
- Контрольные точки DataFrame в путях тома
- Команды SQL больше не выполняются повторно при вызове кэша()
- функция PARSE_TIMESTAMP SQL
- max_by и min_by с необязательным ограничением
- Векторные агрегатные и скалярные функции
- Поддержка курсора SQL в составных инструкциях
- Приблизительные функции эскиза top-k
- Функции эскиза кортежа
- Пользовательские зависимости для табличных функций, определяемых пользователем в Python для каталога Unity
- Новые геопространственные функции
- Поддержка фотона для геопространственных функций
Автозагрузчик использует события файлов по умолчанию при наличии
Автозагрузчик использует события файлов по умолчанию при загрузке из внешнего расположения с включенными событиями файлов, что сокращает операции списка и затраты по сравнению с списком каталогов. См. Обзор автозагрузчика с событиями файлов. События файлов не используются, если ваш код потока устанавливает useIncrementalListing или useNotifications. Чтобы использовать список каталогов, установите useManagedFileEvents на false.
Оптимизированные записи для секционированных таблиц каталога Unity, созданных с помощью CRTAS
Оптимизированные записи применяются к секционированным таблицам каталога Unity, созданным CREATE OR REPLACE TABLE ... AS SELECT (CRTAS), создавая меньшее количество больших файлов. Это поведение включено по умолчанию. Чтобы отключить, установите значение spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabledfalse.
Поддержка типа данных DATETIMEOFFSET для Microsoft Azure Synapse
Тип DATETIMEOFFSET данных поддерживается для подключений Microsoft Azure Synapse.
Комментарии к таблицам Google BigQuery
Описания таблиц Google BigQuery интерпретируются и выводятся как комментарии к таблице.
Эволюция схемы с INSERT инструкциями
Используйте условие WITH SCHEMA EVOLUTION с инструкциями SQL INSERT для автоматического изменения схемы целевой таблицы во время операций вставки. Предложение поддерживается для INSERT INTO, INSERT OVERWRITE, и INSERT INTO ... REPLACE форм. Рассмотрим пример.
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Схема целевой таблицы Delta Lake обновляется, чтобы учесть дополнительные столбцы или расширенные типы из источника. Дополнительные сведения см. в эволюции схемы и синтаксисе INSERT инструкций.
Сохранённые значения структуры NULL в операциях INSERT
INSERT операции с эволюцией схемы или неявным приведением сохраняют NULL значения структуры, если исходные и целевые таблицы имеют разные порядки полей структуры.
Поддержка транзакций с несколькими операторами Delta Sharing
Таблицы Delta Sharing, использующие предварительно подписанный URL-адрес или режимы облачного доступа по токенам, поддерживают транзакции с несколькими инструкциями. При первом доступе в рамках транзакции версия таблицы фиксируется и используется повторно для всех последующих операций чтения в этой транзакции.
Limitations:
- Перемещение во времени, источник данных изменений и потоковая передача не поддерживаются.
- Транзакции с несколькими операторами не поддерживаются в разделяемых таблицах без истории.
- Общие представления и внешние сущности не допускаются в ненадежной вычислительной среде.
Контрольные точки DataFrame в путях томов
Контрольные блоки DataFrame поддерживают пути к томам каталога Unity. Настройте путь контрольной точки, используя SparkContext.setCheckpointDir на выделенных вычислительных ресурсах или spark.checkpoint.dir конфигурацию на стандартных вычислениях.
Команды SQL больше не выполняются повторно при вызове кэша()
Команды SQL больше не выполняются повторно при вызове на результирующем DataFrame. К ним относятся такие команды, как SHOW TABLES и SHOW NAMESPACES.
функция parse_timestamp SQL
Функция SQL parse_timestamp анализирует строки метки времени с помощью нескольких шаблонов. Функция выполняется в подсистеме Photon для повышения производительности при синтаксическом анализе меток времени в нескольких форматах. Сведения о форматировании шаблонов даты и времени см. в шаблонах Datetime .
max_by и min_by с необязательным лимитом
Агрегатные функции max_by и min_by теперь принимают необязательный третий аргумент limit (до 100 000). При наличии, функции возвращают массив из до limit значений, соответствующих самым большим (или наименьшим) значениям выражения упорядочивания, упрощая запросы top-K и bottom-K без оконных функций или временных таблиц.
Векторные агрегатные и скалярные функции
Новые функции SQL работают с ARRAY<FLOAT> векторами для операций по встраиванию и вычислению схожести:
Агрегатные функции:
- vector_avg. Возвращает среднее значение векторов элемента в группе.
- vector_sum: возвращает элементную сумму векторов в группе.
Скалярные функции:
- vector_cosine_similarity. Возвращает сходство косинуса двух векторов.
- vector_inner_product: возвращает внутренний (точка) продукт двух векторов.
- vector_l2_distance. Возвращает расстояние Евклиида (L2) между двумя векторами.
- vector_norm: возвращает норму Lp вектора (1, 2 или бесконечность).
- vector_normalize. Возвращает вектор, нормализованный в единицу длины.
См. встроенные функции.
Поддержка курсора SQL в составных инструкциях
Составные операторы сценариев SQL теперь поддерживают обработку курсоров. Используйте DECLARE CURSOR для определения курсора, затем OPEN, FETCH и CLOSE для выполнения запроса и обработки строк по одной. Курсоры могут использовать маркеры параметров и обработчики условий, например NOT FOUND для обработки строк по строкам.
Приблизительные функции эскиза top-k
Новые функции позволяют создавать и объединять приблизительные эскизы top-K для распределенной агрегации top-K:
- approx_top_k_accumulate. Создает эскиз для каждой группы.
- approx_top_k_combine: слияние эскизов.
- approx_top_k_estimate: Возвращает наиболее часто встречающиеся K элементы с оценочными количествами.
Дополнительные сведения см. в разделе approx_top_k агрегатных функций и встроенных функций.
Функции наброска кортежей
Новые статистические и скалярные функции для эскизов кортежей поддерживают различные подсчет и агрегирование по парам сводки ключей.
Агрегатные функции:
-
tuple_sketch_agg_doubleагрегатная функция -
tuple_sketch_agg_integerагрегатная функция -
tuple_union_agg_doubleагрегатная функция -
tuple_union_agg_integerагрегатная функция -
tuple_intersection_agg_doubleагрегатная функция -
tuple_intersection_agg_integerагрегатная функция
Скалярные функции:
- tuple_sketch_estimate
- tuple_sketch_summary
- tuple_sketch_theta
- tuple_union
- tuple_intersection
- tuple_difference
См. встроенные функции.
Пользовательские зависимости для определяемых пользователем табличных функций Python в каталоге Unity
Определяемые пользователем функции таблиц (UDTFs) Unity Catalog теперь могут использовать пользовательские зависимости для внешних библиотек, что позволяет использовать пакеты, выходящие за рамки доступных в среде выполнения Databricks. См. Расширение UDF с использованием настраиваемых зависимостей.
Новые геопространственные функции
Теперь доступны следующие геопространственные функции:
-
st_estimatesridфункция: оценивает лучший проецируемый идентификатор пространственной ссылки (SRID) для входной геометрии. -
st_force2dфункция: преобразует географию или геометрию в его 2D-представление. -
st_nringsфункция: подсчитывает общее количество колец в многоугольнике или мульти-многоугольнике, включая внешние и внутренние кольца. -
st_numpointsфункция: подсчитывает количество непустых точек в географическом или геометрическом объекте.
Поддержка фотона для геопространственных функций
Следующие геопространственные функции теперь выполняются в подсистеме Фотона для повышения производительности:
Обновления библиотек
В этой версии библиотеки не были обновлены.
Apache Spark
Databricks Runtime 18.1 включает Apache Spark 4.1.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 18.0, а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- SPARK-54316 Повторное применение [SC-213971] Консолидация groupPandasIterUDFSerializer с помощью GroupPandasUDFSerializer"
- SPARK-54116 Отмена "[SC-213108][SQL] Добавление поддержки режима off-heap для LongHashedRelation
- SPARK-55350 Исправление потери количества строк при создании DataFrame из pandas без столбцов
- SPARK-55364 Сделать протокол SupportsIAdd и SupportsOrdering более разумным
- SPARK-53656 Рефакторинг MemoryStream для использования SparkSession вместо SQLContext
-
SPARK-55472 Повышение
AttributeErrorиз методов, удаленных в pandas 3 - SPARK-55224 Использование Spark DataType в качестве источника истины для сериализации Pandas-Arrow
- SPARK-55402 Перемещение streamingSourceIdentifyingName из CatalogTable в DataSource
- SPARK-55459 Исправлена трехкратная регрессия производительности в applyInPandas для больших групп
- SPARK-55317 Добавление узла логического плана SequentialUnion и правила планирования
-
SPARK-55424 Явно укажите имя серии в
convert_numpy -
SPARK-55175 Извлечение
to_pandasпреобразователя из сериализаторов - SPARK-55304 Введение поддержки управления доступом и триггера. AvailableNow в источнике данных Python — потоковом ридере
-
SPARK-55382 Настроить
Executorдля ведения журналаRunning Spark version - SPARK-55408 Обработка непредвиденных ошибок аргументов ключевых слов, связанных с датой и временем с pandas 3
- SPARK-55345 Не передавайте единицу и закройте к Timedelta для pandas 3
- SPARK-54759 Правильная защита логики в диспетчере переменных скриптов после введения курсора
- SPARK-55409 Обработка непредвиденной ошибки аргумента ключевого слова из read_excel с pandas 3
- SPARK-55403 Исправление ошибки в тестах построения графиков с использованием pandas 3
- SPARK-55256 Отмена изменений "[SC-218596][SQL] Поддержка IGNORE NULLS / RESPECT NULLS для array_agg и collect_list"
- SPARK-55256 Поддержка IGNORE NULLS / RESPECT NULLS для array_agg и collect_list
-
SPARK-55395 Отключение кэша RDD в
DataFrame.zipWithIndex - SPARK-55131 Введение нового разделителя оператора слияния для RocksDB в пустую строку для объединения без разделителя
- SPARK-55376 Сделать аргумент numeric_only в функциях groupby принимать только булевы значения начиная с pandas 3
-
SPARK-55334 Включить
TimestampTypeиTimestampNTZTypeвconvert_numpy - SPARK-55281 Добавление ipykernel и IPython в список необязательных пакетов mypy
- SPARK-55336 Разрешить createDF использовать логику create_batch для развязывания
-
SPARK-55366 Удалить
errorOnDuplicatedFieldNamesиз пользовательских функций Python (UDF) - SPARK-54759 Поддержка курсора сценариев SQL
-
SPARK-55302 Исправление пользовательских метрик в случае
KeyGroupedPartitioning - SPARK-55228 Реализация Dataset.zipWithIndex в API Scala
- SPARK-55373 Улучшение сообщения об ошибке noHandlerFoundForExtension
- SPARK-55356 Поддержка псевдонимов для PIVOT
-
SPARK-55359 Повысить
TaskResourceRequestдоStable - SPARK-55365 Унификация утилит для преобразования массива Arrow
- SPARK-55106 Добавление интеграционного теста на переразбиение для операторов TransformWithState
- SPARK-55086 Добавить DataSourceReader.pushFilters в документацию по API источников данных на Python
- SPARK-46165 Поддержка DataFrame.all с параметром axis=None
- SPARK-55289 Отмена "[SC-218749][SQL] Исправление сбоя в тесте in-set-operations.sql, используя отключение вещания соединения"
- SPARK-55297 Восстановление типа данных timedelta на основе исходного типа данных
- SPARK-55291 Предобработка заголовков метаданных во время создания перехватчика клиента
-
SPARK-55155 Повторное применение "[SC-218401][SQL] Поддержка выражений, способных к свертыванию, в инструкции
SET CATALOG" - SPARK-55318 Оптимизация производительности для vector_avg/vector_sum
- SPARK-55295 Расширение функции ST_GeomFromWKB для получения необязательного значения SRID
- SPARK-55280 Добавить прототип GetStatus для поддержки мониторинга статуса выполнения
- SPARK-54969 Реализация преобразования со стрелками-пандами>
-
SPARK-55176 Извлечение преобразователя
arrow_to_pandasв ArrowArrayToPandasConversion - SPARK-55111 Отмена изменений "[SC-217817][SC-210791][SS] Незавершенное обнаружение перераспределения при перезапуске запроса"
-
SPARK-55252 Улучшить
HttpSecurityFilterдля добавленияContent-Security-Policyзаголовка - SPARK-55111 Обнаружение незавершенной переразбивки при перезапуске запроса
- SPARK-55105 Добавление теста интеграции для оператора присоединения
- SPARK-55260 Реализация поддержки записи Parquet для географических типов
- SPARK-54523 Исправление разрешения по умолчанию во время отправки варианта
- SPARK-55328 Повторное использование PythonArrowInput.codec в GroupedPythonArrowInput
- SPARK-55246 Добавление теста для Pyspark TWS и TWSInPandas и исправление ошибки StatePartitionAllColumnFamiliesWriter
- SPARK-55289 Исправление нестабильности теста in-set-operations.sql путем отключения broadcast join
- SPARK-55040 Рефакторинг TaskContext и связанного с ним рабочего протокола с исправлением движка pyspark.
- SPARK-47996 поддерживает перекрестное слияние в API pandas
- SPARK-55031 Добавление выражений функции агрегирования вектора/суммы
- SPARK-54410 Исправлена поддержка чтения заметки о варианте логического типа
- SPARK-54776 Отмена "[SC-216482][SQL] Улучшено сообщение в журналах о лямбда-функции в SQL UDF"
- SPARK-55123 Добавить SequentialUnionOffset для отслеживания последовательной обработки источника
- SPARK-54972 Улучшение вложенных запросов NOT IN с помощью столбцов, не допускающих значения NULL
- SPARK-54776 Улучшено сообщение журналов относительно лямбда-функции с помощью UDF SQL
-
SPARK-53807 Исправление проблем гонки между
unlockиreleaseAllLocksForTaskвBlockInfoManager - SPARK-51831 Отмена "[SC-207389][SQL] Обрезка столбцов с existsJoin для Datasource V2"
-
SPARK-54881 Улучшить
BooleanSimplificationдля обработки отрицания конъюнкции и дизъюнкции в одном проходе - SPARK-54696 Очистка буферов Arrow в Connect
-
SPARK-55009 Удаление ненужных копий памяти из конструктора
LevelDBTypeInfo/RocksDBTypeInfo.Index - SPARK-54877 Сделать возможность настройки отображения стека трассировки на странице ошибок пользовательского интерфейса
- SPARK-51831 Обрезка столбцов с помощью existsJoin для Datasource V2
-
SPARK-55285 Исправление инициализации
PythonArrowInput - SPARK-53960 Обрабатывать approx_top_k_accumulate/сочетать/оценивать NULL-значения.
-
SPARK-55155 Отмена "[SC-218401][SQL] Поддержка свертываемых выражений в
SET CATALOGоператоре" -
SPARK-55155 Поддержка поддающихся свертыванию выражений в выражении
SET CATALOG - SPARK-49110 Отменить "[SC-218594][SQL] Упростить SubqueryAlias.metadataOutput для обеспечения постоянного распространения столбцов метаданных".
- SPARK-54399 Реализация функции st_setsrid в Scala и PySpark
- SPARK-49110 Упростить SubqueryAlias.metadataOutput для систематического распространения столбцов метаданных
- SPARK-55133 Исправление состояния гонки в управлении жизненным циклом IsolatedSessionState
- SPARK-55262 Блокировать географические типы данных во всех файловых источниках данных, кроме Parquet
- SPARK-54202 Разрешить приведение из GeometryType(srid) в GeometryType(ANY)
- SPARK-54142 Реализация функции st_srid в Scala и PySpark
- SPARK-55237 Скрытие навязчивых сообщений при поиске несуществующих баз данных
- SPARK-55040 Возврат "[SC-217628][PYTHON] Рефакторинг TaskContext и связанный рабочий протокол"
- SPARK-55259 Реализация преобразования схемы Parquet для геотипов
- SPARK-55282 Избегайте использования worker_util на стороне драйвера
- SPARK-54151 Введение платформы для добавления функций ST в PySpark
- SPARK-55194 Удаление groupArrowUDFSerializer путем перемещения плоской логики для сопоставления
- SPARK-55020 Отключение gc при выполнении команды gRPC
- SPARK-55053 Рефакторинг источников данных и анализа UDTF, чтобы они имели единую точку входа
- SPARK-55040 Рефакторинг TaskContext и связанный с ним рабочий протокол
- SPARK-55244 Используйте np.nan в качестве значения по умолчанию для типов строк pandas
- SPARK-55225 Восстановление до исходного типа dtype для Datetime
- SPARK-55154 Удалите быстрый путь в pd.Series для pandas 3
- SPARK-55030 Добавление поддержки векторных норм и нормализованных выражений функций
- SPARK-55202 Исправить UNEXPECTED_USE_OF_PARAMETER_MARKER при использовании параметра...
- SPARK-54201 Разрешить приведение из GeographyType(srid) в GeographyType(ANY)
- SPARK-54244 Добавление поддержки приведения типов для типов данных GEOMETRY
- SPARK-54160 Реализация выражения ST_SetSrid в SQL
- SPARK-55046 PySpark добавляет метрики времени обработки udf
- SPARK-54101 Введение платформы для добавления функций ST в Scala
- SPARK-54683 Объединение блокирующих типов гео и времени
- SPARK-55249 Сделать DataFrame.toJSON способным возвращать кадр данных.
- SPARK-54521 Добавить в WKB и из WKB для типа Geometry
- SPARK-54162 Разрешить приведение из GeographyType в GeometryType
- SPARK-55146 Повторная проверка перераспределения состояния API для PySpark
- SPARK-55140 Не сопоставляйте встроенные функции с версией numpy для pandas 3
- SPARK-54243 Введение поддержки приведения типов для типов данных GEOGRAPHY
- SPARK-55058 Создание ошибки в несогласованных метаданных контрольной точки
- SPARK-55108 Использование последних заглушек pandas для проверки типа
- SPARK-54091 Реализация выражения ST_Srid в SQL
- SPARK-55104 Добавление поддержки Spark Connect для DataStreamReader.name()
- SPARK-54996 Отчет о времени прибытия записей из LowLatencyMemoryStream
- SPARK-55118 Замена импорта с подстановочными знаками для ASM Opcodes.
- SPARK-54365 Добавление интеграционного теста перераспределения для операторов агрегирования, дедупликации, FMGWS и SessionWindow
- SPARK-55119 Исправление обработчика продолжения: предотвращение INTERNAL_ERROR и прерывания неправильных условных инструкций.
- SPARK-54104 Запретить приведение геопространственных типов к другим типам данных
- SPARK-55240 Рефакторинг обработки трассировки стека в LazyTry для использования обертки вместо подавляемого исключения.
-
SPARK-55238 Переместить логику сопоставления географических SRS из
main/scalaвmain/java -
SPARK-55179 Пропустить раннюю проверку имени столбца в
df.col_name - SPARK-55055 Поддержка SparkSession.Builder.create для PySpark Classic
- SPARK-55186 Обеспечить, чтобы ArrowArrayToPandasConversion.convert_legacy мог возвращать DataFrame Pandas
- SPARK-54079 Введение платформы для добавления выражений ST в Catalyst
- SPARK-54096 Поддержка сопоставления пространственной эталонной системы в PySpark
- SPARK-54801 Пометьте несколько новых конфигураций 4.1 как внутренние
- SPARK-55146 Отмена изменений "[SC-217936][SC-210779][SS] API для перераспределения состояния в PySpark"
- SPARK-54559 Используйте runnerConf для передачи параметра профилировщика
- SPARK-55205 Исправление тестов, в которых предполагается, что тип строки преобразуется в объект
- SPARK-55171 Исправление профилировщика памяти на итераторе UDF
- SPARK-55226 Распознавание даты, времени и временных интервалов с единицами, отличными от [ns]
- SPARK-55027 Перемещение writeConf в PythonWorkerUtils
-
SPARK-55197 Извлечение
_write_stream_startвспомогательного модуля для дедупликации логики сигнала START_ARROW_STREAM - SPARK-54179 Добавление нативной поддержки для скетчей кортежей Apache (#190848) (#191111)
- SPARK-55151 Исправление объекта RocksDBSuite testWithStateStoreCheckpointIds
- SPARK-55146 API перераспределения состояния для PySpark
- SPARK-54232 Включение сериализации с использованием Arrow для типов данных Geography и Geometry
- SPARK-53957 Поддержка GEOGRAPHY и GEOMETRY в системе SpatialReferenceSystemMapper
- SPARK-55169 Используйте ArrowBatchTransformer.flatten_struct в ArrowStreamArrowUDTFSerializer
-
SPARK-55134 Исправить
BasicExecutorFeatureStepчтобы вызыватьIllegalArgumentExceptionпри неправильной конфигурации ЦП исполнителя - SPARK-54166 Введение кодировщиков типов для геопространственных типов в PySpark
-
SPARK-55138 Исправление
convertToMapDataвызововNullPointerException - SPARK-55168 Использование ArrowBatchTransformer.flatten_struct в GroupArrowUDFSerializer
- SPARK-55032 Рефакторинг профилировщиков в workers.py
- SPARK-54990 Исправление реализации classproperty в session.py
- SPARK-55076 Исправлена проблема с указанием типа в ml/mllib и добавлено требование scipy
- SPARK-55162 Извлечение преобразователей из ArrowStreamUDFSerializer
- SPARK-55121 Добавление DataStreamReader.name() в классический PySpark
- SPARK-54169 Введение типов Geography и Geometry в записи Arrow
- SPARK-51658 Введение форматов оболочки Geometry и Geography в памяти
- SPARK-54110 Введение кодировщиков типов для типов Geography и Geometry
- SPARK-54956 Объединение неопределенного решения повтора перетасовки
-
SPARK-55137 Рефакторинг кода
GroupingAnalyticsTransformerиAnalyzer - SPARK-54103 Знакомство с клиентскими классами Geography и Geometry
- SPARK-55160 Прямая передача входной схемы сериализаторам
- SPARK-55170 Извлечение шаблона чтения данных сгруппированного потока из сериализаторов
-
SPARK-55125 Удаление избыточных
__init__методов в сериализаторах Arrow - SPARK-55126 Удалить неиспользуемый часовой пояс и assign_cols_by_name из ArrowStreamArrowUDFSerializer
- SPARK-54980 Преобразование уровня изоляции JDBC в строку
- SPARK-55051 Строка байтов принимает KiB, MiB, GiB, TiB, PiB
- SPARK-55025 Повышение производительности в pandas с помощью понимания списка
- SPARK-46165 Добавьте поддержку pandas. DataFrame.all axis=1
- SPARK-55037 Повторная реализация наблюдения без использования queryExecutionListener
- SPARK-54965 Разделение устаревших компонентов pa.Array и преобразователь pd.Series
- SPARK-55016 Сделать SQLConf прямым свойством SparkSession, чтобы предотвратить переполнение стека
- SPARK-55091 Уменьшение вызовов RPC Hive для команды DROP TABLE
- SPARK-55097 Исправление проблемы с повторным добавлением кэшированных артефактов, из-за чего блоки удаляются без уведомления
- SPARK-55026 Оптимизировать BestEffortLazyVal.
- SPARK-55091 Отмена изменений "[SC-217410][SQL] Уменьшить вызовы Hive RPC для команды DROP TABLE"
- SPARK-54590 Поддержка контрольной точки V2 для перезаписи состояния и репартиционирования
- SPARK-55016 Сделать SQLConf прямым свойством SparkSession, чтобы предотвратить переполнение стека
- SPARK-55091 Уменьшение вызовов RPC Hive для команды DROP TABLE
- SPARK-55016 Отменить изменения для "[SC-217401][SQL] Сделать SQLConf непосредственным свойством SparkSession во избежание переполнения стека"
- SPARK-55016 Сделать SQLConf прямым свойством SparkSession, чтобы предотвратить переполнение стека
- SPARK-55098 Векторизованные пользовательские функции с управлением размером выходного пакета приводят к сбою при утечке памяти
- SPARK-54824 Добавление поддержки multiGet и deleteRange для Хранилища состояний Rocksdb
- SPARK-55054 Добавление поддержки IDENTIFIED BY для функций потоковой передачи табличного значения
- SPARK-55029 Передача имени идентификации источника потоковой передачи через конвейер разрешения
- SPARK-55071 Обеспечить работу spark.addArtifact с путями Windows
- SPARK-54103 Вернитесь на "[SC-210400][Geo][SQL] Введение клиентских классов Geography и Geometry"
- SPARK-54103 Знакомство с клиентскими классами Geography и Geometry
- SPARK-54033 Введение классов геопространственного выполнения на стороне сервера Catalyst
- SPARK-54176 Общие сведения о типах данных Geography и Geometry в PySpark Connect
- SPARK-55089 Исправлена схема выходных данных toJSON
- SPARK-55035 Очистка после перемешивания в дочерних выполнениях
-
SPARK-55036 Добавление
ArrowTimestampConversionдля обработки часового пояса со стрелками - SPARK-54873 Упрощение разрешения V2TableReference, поскольку содержать его может только временное представление.
- SPARK-52828 Создание хэширования для сортированных строк, независимого от порядка сортировки
- SPARK-54175 Добавление типов Geography и Geometry в протокол Spark Connect
-
SPARK-54961 Представить
GroupingAnalyticsTransformer - SPARK-550888 Сохранение метаданных в /from_arrow_type/schema
- SPARK-55070 Разрешить скрытый столбец в разрешении столбцов кадра данных
- SPARK-55044 Сохранение метаданных в ToArrowSchema/fromArrowSchema
- SPARK-55043 Исправление перемещения по времени с помощью вложенных запросов, содержащих ссылки на таблицы
-
SPARK-54987 Измените значение по умолчанию prefer_timestamp_ntz на True
from_arrow_type/from_arrow_schema - SPARK-54866 Рефакторизация Drop/RefreshFunction, чтобы избежать поиска каталога
- SPARK-55024 Использование ошибки REQUIRES_SINGLE_PART_NAMESPACE для валидации пространства имен в сеансовом каталоге
- SPARK-54992 Вместо приведения типа использовать проверку во время выполнения для make_timestamp
- SPARK-55024 Отмена "[SC-216987][SQL] Используйте ошибку REQUIRES_SINGLE_PART_NAMESPACE для проверки пространства имен в каталоге сеанса".
- SPARK-54866 Отмена изменения "[SC-216753][SQL] Рефакторинг Drop/RefreshFunction для избежания поиска в каталоге"
- SPARK-55024 Использование ошибки REQUIRES_SINGLE_PART_NAMESPACE для валидации пространства имен в сеансовом каталоге
- SPARK-54866 Рефакторизация Drop/RefreshFunction, чтобы избежать поиска каталога
- SPARK-54991 Правильное указание типа для streaming/listener.py
- SPARK-54925 Добавление возможности дампа потоков для pyspark
- SPARK-54803 Поддержка ПО ИМЕНИ с INSERT ... ЗАМЕНА WHERE
- SPARK-54785 Добавить поддержку агрегации двоичных эскизов в KLL (#188370) (#188860)
- SPARK-54949 Перемещение pyproject.toml в корневой каталог репозитория
- SPARK-54954 Исправление подсказок удаленного связанного типа в util.py
- SPARK-54922 Объединение способов передачи аргументов в рабочие процессы Python
- SPARK-54870 Поддержка сортировки для char/varchar и CTAS/RTAS
-
SPARK-54762 Исправление
_create_converterиcovertперегрузка сигнатуры - SPARK-55019 Разрешить DROP TABLE удалить ПРЕДСТАВЛЕНИЕ
- SPARK-53103 Создает ошибку, если каталог состояния не пуст при запуске запроса
- SPARK-54995 Создание быстрого пути для foreachPartition
- SPARK-54634 Добавление ясного сообщения об ошибке для пустого предиката IN
- SPARK-54984 Выполнение перераспределения состояния и интеграция с переписывателем состояния
- SPARK-54443 Интеграция PartitionKeyExtractor в средство чтения повторной секции
- SPARK-54907 Введение правила анализатора NameStreamingSources для эволюции источника потоковой передачи
- SPARK-54609 Обновление конфигурации типа TIME для соответствия Open Source Software
- SPARK-549888 Упрощение реализации ObservationManager.tryComplete
- SPARK-54959 Отключение полного повторного выполнения при несоответствии контрольной суммы shuffle, если включена перетасовка на основе push-технологии
- SPARK-54940 Добавьте тесты для вывода типа pa.scalar
- SPARK-54634 Отменить "[SC-216478][SQL] Добавить четкое сообщение об ошибке для пустого предиката IN"
- SPARK-54337 Добавление поддержки PyCapsule в Pyspark
- SPARK-54634 Добавление ясного сообщения об ошибке для пустого предиката IN
- SPARK-53785 Источник памяти для RTM
- SPARK-54883 Очистка сообщений об ошибках для интерфейса командной строки и добавление нового режима отладки DEBUG
- SPARK-54713 Добавление поддержки выражений функций векторного сходства и расстояния
- SPARK-54962 Исправление обработки целых чисел, допускающих значение NULL, в UDF Pandas
- SPARK-54864 Добавление узлов rCTE в NormalizePlan
- SPARK-53847 Добавление функции ContinuousMemorySink для тестирования в режиме реального времени
- SPARK-54865 Добавление метода foreachWithSubqueriesAndPruning в QueryPlan
- SPARK-54930 Удаление избыточного вызова _accumulatorRegistry.clear() в worker.py
- SPARK-54929 Исправить сброс taskContext._resources в цикле, из-за которого сохраняется только последний ресурс.
-
SPARK-54963
createDataFrameСоблюдатьprefer_timestamp_ntz, когдаinfer_pandas_dict_as_map -
SPARK-54920 Перемещение логики извлечения аналитики группирования в общий модуль
GroupingAnalyticsExtractor - SPARK-54924 Перезапись состояния для чтения состояния, преобразования и записи нового состояния
- SPARK-54872 Объединить обработку значений по умолчанию столбца между командами версии 1 и 2
- SPARK-54905 Упрощение реализации foreachWithSubqueries в QueryPlan
- SPARK-54682 Поддержка отображения параметров в команде DESCRIBE PROCEDURE
-
SPARK-54933 Следует избегать многократного получения конфигурации
binary_as_bytesвtoLocalIterator - SPARK-54872 Возврат "[SC-216260][SQL] Объединение значений столбца по умолчанию между командами версии 1 и 2"
- SPARK-51936 ReplaceTableAsSelect должен перезаписать новую таблицу вместо добавления
- SPARK-54771 Удаление правила ResolveUserSpecifiedColumns из RuleIdCollection
- SPARK-54872 Объединить обработку значений по умолчанию столбца между командами версии 1 и 2
- SPARK-54313 Добавление параметра --extra-properties-file для слоев конфигурации
- SPARK-54468 Добавление отсутствующих классов ошибок
- SPARK-46741 Таблица кэша с CTE должна корректно работать, когда CTE находится в подзапросе выражения плана
- SPARK-46741 Таблица кэша с CTE не будет работать
- SPARK-54615 Всегда передавать runner_conf в рабочий процесс Python
- SPARK-53737 Добавление триггера режима реального времени
- SPARK-54541 Переименовать _LEGACY_ERROR_TEMP_1007 и добавить SQLState
- SPARK-54718 Сохранение имен атрибутов во время CTE newInstance()
- SPARK-54621 Слияние в набор обновлений * сохраните вложенные поля, если ... coerceNestedTypes включен
- SPARK-54595 Сохранить существующее MERGE INTO поведение без SCHEMA оператора EVOLUTION
- SPARK-54903 Добавление возможности установки часового пояса для to_arrow_schema/to_arrow_type
- SPARK-52326 Добавьте секции, связанные с событием ExternalCatalogEvent, и публикуйте их в соответствующих операциях.
- SPARK-54541 Вернуть "[SC-215212][SQL] Переименовать _LEGACY_ERROR_TEMP_1007 и добавить sqlState"
-
SPARK-54578 Выполнение очистки кода в
AssignmentUtils - SPARK-54830 Включить по умолчанию повторную попытку перетасовки на основе контрольной суммы, если она неопределенная
- SPARK-54525 Отключение преобразования вложенных структур в MERGE INTO через конфигурацию
- SPARK-53784 Дополнительные API-интерфейсы источника, необходимые для поддержки выполнения RTM
- SPARK-54496 Исправление слияния с эволюцией схемы для API кадра данных
- SPARK-54835 Избегайте ненужного временного выполнения запросов для выполнения вложенных команд
- SPARK-54541 Переименовать _LEGACY_ERROR_TEMP_1007 и добавить SQLState
- SPARK-54289 Разрешить MERGE INTO сохранять существующие поля структуры для UPDATESET *, если исходная структура имеет меньше вложенных полей, чем целевая структура
- SPARK-54720 Добавление SparkSession.emptyDataFrame со схемой
- SPARK-54800 Изменена реализация по умолчанию для isObjectNotFoundException
- SPARK-54686 Ослабление проверок таблиц DSv2 в временных представлениях для разрешения добавления новых столбцов на верхнем уровне
- SPARK-54619 Добавить проверку целесообразности для номеров конфигурации
- SPARK-54726 Повышение производительности для InsertAdaptiveSparkPlan
- SPARK-51966 Замените select.select() на select.poll() при выполнении в OS POSIX
- SPARK-54749 Исправлена неправильная метрика numOutputRows в OneRowRelationExec
- SPARK-54411 Введение перераспределяющего модуля записи с поддержкой multi-CF
- SPARK-54835 Отменить "[SC-215823][SQL] Избегать ненужного временного QueryExecution для выполнения вложенных команд"
- SPARK-54867 Введение оболочки NamedStreamingRelation для идентификации источника во время анализа
- SPARK-54835 Избегайте ненужного временного выполнения запросов для выполнения вложенных команд
- SPARK-54491 Исправление вставки в временное представление при сбое таблицы DSv2
- SPARK-54871 Удаление псевдонимов из группирующих и агрегатных выражений перед выполнением анализа группировки
- SPARK-51920 Исправлена обработка типов namedTuple для transfromWithState
- SPARK-54526 Переименовать _LEGACY_ERROR_TEMP_1133 и добавить SQLState
- SPARK-54424 Сбои во время повторного кэширования не должны приводить к сбою операций
-
SPARK-54894 Исправление передачи аргументов
to_arrow_type - SPARK-53448 Преобразование pyspark DataFrame с столбцом Variant в pandas завершается ошибкой
- SPARK-54882 Удаление устаревшего PYARROW_IGNORE_TIMEZONE
- SPARK-54504 Исправление обновления версии для таблиц DSv2 с вложенными запросами
- SPARK-54444 Ослабить проверки таблиц DSv2, чтобы восстановить предыдущее поведение
- SPARK-54859 Справочная документация по умолчанию по API UDF PySpark в Arrow
- SPARK-54387 Отмена изменений "[ES-1688666] Отмена изменений "[SC-212394][SQL] Исправление перекеширования таблиц DSv2""
- Spark-54753 исправляет утечку памяти ArtifactManager
- SPARK-54387 Отмена изменений "[SC-212394][SQL] Исправление повторного кэширования таблиц DSv2"
- SPARK-54436 Исправление форматирования ошибок для несовместимых проверок метаданных таблицы
-
SPARK-54849 Обновление минимальной версии
pyarrowдо версии 18.0.0 - SPARK-54022 Обеспечение осведомленности разрешения таблиц DSv2 о кэшированных таблицах
- SPARK-54387 Исправление рекэширования таблиц DSv2
- SPARK-53924 Обновлять таблицы DSv2 в представлениях, созданных с помощью планов, при каждом обращении к представлению
-
SPARK-54561 Поддержка точки останова() для
run-tests.py - SPARK-54157 Исправление обновления таблиц DSv2 в наборе данных
- SPARK-54830 Отмена "[CORE] Включение проверки контрольной суммы для недетерминированного повторного перетасовки по умолчанию"
- SPARK-54861 Сброс имени потока задачи на IDLE_TASK_THREAD_NAME после завершения задачи
- SPARK-54834 Добавление новых интерфейсов SimpleProcedure и SimpleFunction
- SPARK-54760 ДелегированиеCatalogExtension в качестве каталога сеансов поддерживает функции V1 и V2
- SPARK-54685 Удалить избыточные ответы наблюдаемых метрик
-
SPARK-54853 Всегда проверяйте
hive.exec.max.dynamic.partitionsна стороне Spark - SPARK-54840 Предварительное выделение OrcList
- SPARK-54830 Включить по умолчанию повторную попытку перетасовки на основе контрольной суммы, если она неопределенная
-
SPARK-54850 Улучшить
extractShuffleIdsчтобы найтиAdaptiveSparkPlanExecв любом месте дерева плана - SPARK-54843 выражение Try_to_number не работает для пустых строковых входных данных
- SPARK-54556 Откат успешно завершенных этапов shuffle map при обнаружении несоответствия контрольной суммы shuffle
- SPARK-54760 Возврат "[SC-215670][SQL] DelegatingCatalogExtension в качестве каталога сеансов поддерживает функции V1 и V2".
- SPARK-54760 ДелегированиеCatalogExtension в качестве каталога сеансов поддерживает функции V1 и V2
- SPARK-54818 TaskMemoryManager не удалось выделить память, необходимо зарегистрировать стек ошибок для проверки использования памяти.
-
SPARK-54827 Добавление вспомогательной функции
TreeNode.containsTag - SPARK-54777 Возврат "[SC-215740][SQL] Изменена обработка ошибок dropTable в JDBCTableCatalog.dropTable(...)"
- SPARK-54777 Изменена обработка ошибок dropTable в JDBCTableCatalog.dropTable(...)
-
SPARK-54817 Рефакторинг логики разрешения
UnpivotнаUnpivotTransformer -
SPARK-54820 Сделать
pandas_on_spark_typeсовместимым с numpy 2.4.0 -
SPARK-54799 Рефакторинг
UnpivotCoercion - SPARK-54754 OrcSerializer не должен анализировать схему каждый раз при сериализации.
- SPARK-54226 Расширить сжатие Apache Arrow для Pandas UDF
- SPARK-54787 Используйте представление списка вместо циклов в pandas
-
SPARK-54690 Сделать
Frame.__repr__независимым от оптимизации стрелок - SPARK-46166 Реализация pandas.DataFrame.any с axis=None
- SPARK-54696 Очистка буферов Arrow — последующие шаги
- SPARK-54769 Удаление мертвого кода в conversion.py
- SPARK-54787 Использование понимания списка в пандах _bool_column_labels
-
SPARK-54794 Подавление подробных
FsHistoryProvider.checkForLogsжурналов сканирования - SPARK-54782 Исправление версий конфигурации
- SPARK-54781 Возврат сведений о кэше моделей в формате JSON
- SPARK-54419 Средство чтения состояния "Автономное повторное развертывание" поддерживает семейства нескольких столбцов
- SPARK-54722 Регистрация UDF для Pandas Grouped Iterative Aggregate для использования в SQL
-
SPARK-54762 Откат "[SC-215422][PYTHON] Исправление перегрузки сигнатур
_create_converterиcovert" - SPARK-54652 Отмена "[SC-215452][SQL] Завершение преобразования IDENTIFIER()"
-
SPARK-54762 Исправление
_create_converterиcovertперегрузка сигнатуры - SPARK-52819 Сделать KryoSerializationCodec сериализуемым для исправления ошибок java.io.NotSerializableException в различных вариантах использования
- SPARK-54711 Добавление времени ожидания на подключение рабочего, созданного демоном
- SPARK-54738 Добавить поддержку профилировщика для pandas grouped Iter Aggregate UDF
- SPARK-54652 Полное преобразование IDENTIFIER()
- SPARK-54581 Установка опции fetchsize без учета регистра для соединителя Postgres
- SPARK-54589 Консолидация ArrowStreamAggPandasIterUDFSerializer в ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Распространитель факела: поддержка нескольких процессов факела для каждой задачи, если task.gpu.amount > 1
-
SPARK-54707 Рефакторинг основной логики разрешения в
PIVOT - SPARK-54706 Обеспечение работы DistributedLDAModel с локальной файловой системой
- SPARK-53616 Введение API итератора для агрегированных групповых UDF pandas
- SPARK-54116 Добавление поддержки режима использования памяти вне кучи для LongHashedRelation
- SPARK-54656 Рефакторинг SupportsPushDownVariants для интеграции с ScanBuilder как миксин
- SPARK-54687 Добавить эталонный файл с пограничными случаями разрешения генераторов
- SPARK-54708 Оптимизация очистки кэша машинного обучения с помощью отложенного создания каталога
- SPARK-54116 Отмена "[SC-213108][SQL] Добавлена поддержка режима off-heap для LongHashedRelation"
- SPARK-54116 Добавление поддержки режима использования памяти вне кучи для LongHashedRelation
- SPARK-54443 Извлечение ключа раздела для всех операторов с состоянием потоковой передачи
- SPARK-54687 Отмена "[SC-214791][SQL] Добавление золотого файла с пограничными вариантами разрешения генераторов"
- SPARK-54116 Отмена "[SC-213108][SQL] Добавлена поддержка режима off-heap для LongHashedRelation"
- SPARK-54687 Добавить эталонный файл с пограничными случаями разрешения генераторов
- SPARK-54116 Добавление поддержки режима использования памяти вне кучи для LongHashedRelation
- SPARK-54420 Введение автономного репартиментирования StatePartitionWriter для одного семейства столбцов
-
SPARK-54689 Сделать
org.apache.spark.sql.pipelinesвнутренний пакет и сделатьEstimatorUtilsзакрытым - SPARK-54673 Рефакторинг кода анализа синтаксиса SQL-пайпа для совместного использования
- SPARK-54668 Добавить тесты для CTE в операторах с несколькими дочерними элементами
- SPARK-54669 Удаление избыточного кастинга в rCTEs
- SPARK-54587 Консолидация всего кода, связанного с runner_conf
- SPARK-54628 Удаление всех ненужных явных аргументов super()
- SPARK-54675 Добавление настраиваемого времени ожидания принудительного завершения работы для пула потоков обслуживания StateStore
- SPARK-54639 Избегайте создания ненужных таблиц в сериализаторах со стрелками
- SPARK-49635 Удалить предложение настроек ANSI в сообщениях об ошибках CAST
-
SPARK-54664 Очистка кода, связанного с
listenerCacheconnect.StreamingQueryManager - SPARK-54640 Замените select.select на select.poll в UNIX
-
SPARK-54662 Добавление
viztracerиdebugpyвdev/requirements.txt - SPARK-54632 Добавьте параметр для использования ruff для линтинга
- SPARK-54585 Исправлен откат хранилища состояний, когда поток находится в прерванном состоянии
- SPARK-54172 Слияние в рамках схемной эволюции должно добавлять только ссылочные столбцы
- SPARK-54438 Консолидация ArrowStreamAggArrowIterUDFSerializer в ArrowStreamAggArrowUDFSerializer
- SPARK-54627 Удаление избыточных инициализаций в сериализаторах
- SPARK-54631 Добавление поддержки профилировщика для Arrow Grouped Iter Aggregate UDF
-
SPARK-54316 Повторное использование [SC-213971][CORE][PYTHON][SQL] Консолидация
GroupPandasIterUDFSerializerсGroupPandasUDFSerializer - SPARK-54392 Оптимизация взаимодействия JVM-Python для начального состояния TWS
- SPARK-54617 Включение регистрации UDF для агрегированной итерации с группировкой Arrow в SQL
- SPARK-54544 Активировать проверку flake8 F811
-
SPARK-54650 Перемещение int в десятичное преобразование в
_create_converter_from_pandas -
SPARK-54316 Отмена "[SC-213971][CORE][PYTHON][SQL] Консолидация
GroupPandasIterUDFSerializerсGroupPandasUDFSerializer" - SPARK-53687 Введение WATERMARK предложения в инструкции SQL
-
SPARK-54316 Консолидация
GroupPandasIterUDFSerializerс помощьюGroupPandasUDFSerializer - SPARK-54598 Извлечение логики для чтения определяемых пользователем функций
-
SPARK-54622 Продвинуть
RequiresDistributionAndOrderingи его необходимые интерфейсы вEvolving - SPARK-54624 Убедитесь, что имя пользователя в журнале будет экранировано
- SPARK-54580 Рассмотрим Hive 4.1 в HiveVersionSuite и HiveClientImpl
-
SPARK-54068 Исправление
to_featherдля поддержки PyArrow 22.0.0 -
SPARK-54618 Повысить
LocalScanдоStable -
SPARK-54616 Пометить
SupportsPushDownVariantsкакExperimental -
SPARK-54607 Удаление неиспользуемого метода
toStringHelperизAbstractFetchShuffleBlocks.java - SPARK-53615 Введение API итератора для сгруппированной агрегации с использованием Apache Arrow
- SPARK-54608 Избегайте двойного кэширования преобразователя типов в UDTF
-
SPARK-54600 Не используйте pickle для сохранения и загрузки моделей в
pyspark.ml.connect -
SPARK-54592 Сделать
estimatedSizeзакрытым - SPARK-54388 Введите StatePartitionReader, который сканирует необработанные байты для single ColFamily
- SPARK-54570 Правильное распространение класса ошибок в Spark Connect
- SPARK-54577 Оптимизация вызовов Py4J в выводе схемы
- SPARK-54568 Избегайте ненужных преобразований pandas в создании кадра данных из ndarray
- SPARK-54576 Добавить документацию для новых агрегатных функций, основанных на Datasketches
- SPARK-54574 Повторное включение FPGrowth при подключении
- SPARK-54557 Сравнение CSV/JSON/XmlOptions и CSV/JSON/XmlInferSchema
- SPARK-52798 Добавление функции approx_top_k_combine
- SPARK-54446 FPGrowth поддерживает локальную файловую систему с форматом файлов со стрелками
-
SPARK-54547 Переименование
hostPortпеременнойhostвTaskSchedulerImpl.(executorLost|logExecutorLoss)методах - SPARK-54558 Исправление внутреннего исключения при использовании обработчиков исключений без использования BEGIN/END
- SPARK-52923 Позволить ShuffleManager управлять push-слиянием во время регистрации шаффла
- SPARK-54474 Удаление XML-отчета о тестах, которые должны завершиться ошибкой
- SPARK-54473 Добавление поддержки чтения и записи Avro для типа TIME
- SPARK-54472 Добавление поддержки чтения и записи ORC для типа TIME
- SPARK-54463 Добавление поддержки сериализации и десериализации CSV для типа TIME
- SPARK-52588 Approx_top_k: накапливать и оценивать
- SPARK-54461 Добавление поддержки сериализации и десериализации XML для типа TIME
- SPARK-54451 Добавление поддержки сериализации и десериализации JSON для типа TIME
- SPARK-54537 Исправление SparkConnectDatabaseMetaData getSchemas/getTables в каталогах, у которых отсутствует возможность работы с пространством имен
- SPARK-54442 Добавление числовых функций преобразования для типа TIME
- SPARK-54451 Отмена "[SC-212861][SQL] Добавление сериализации и десериализации JSON для типа TIME"
- SPARK-54492 Переименовать _LEGACY_ERROR_TEMP_1201 и добавить sqlState
- SPARK-54531 Представление ArrowStreamAggPandasUDFSerializer
- SPARK-54223 Добавление контекста задач и метрик данных в журналы runner Python
- SPARK-54272 Добавьте aggTime для SortAggregateExec
- SPARK-53469 Возможность очистки смешения на сервере Thrift
-
SPARK-54219 Конфигурация поддержки
spark.cleaner.referenceTracking.blocking.timeout - SPARK-54475 Добавить master-server, branch-4.0-client, Python 3.11
- SPARK-54451 Добавление поддержки сериализации и десериализации JSON для типа TIME
- SPARK-54285 Кэшировать сведения о часовом поясе, чтобы избежать дорогого преобразования меток времени
-
SPARK-49133 Сделать
MemoryConsumer#usedатомарным, чтобы избежать взаимоблокировки пользовательского кода - SPARK-46166 Реализация pandas.DataFrame.any с осью=1
- SPARK-54532 Добавление поддержки sqlstate для PySparkException
- Инициализация SPARK-54435 spark-pipelines должна избегать перезаписи существующего каталога
- SPARK-54247 Явно закрыть сокет для util._load_from_socket
Поддержка драйверов ODBC и JDBC в Databricks
Databricks поддерживает драйверы ODBC/JDBC, выпущенные за последние 2 года. Скачайте недавно выпущенные драйверы и обновления (скачать ODBC, скачать JDBC).
Системная среда
- Операционная система: Ubuntu 24.04.3 LTS
- Java: Zulu21.42+19-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Установленные библиотеки Python
| Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| аннотированный документ | 0.0.4 | аннотированные типы | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-связки | 21.2.0 | arro3-core | 0.6.5 |
| стрела | 1.3.0 | асттокенс | 3.0.0 | астунпарс | 1.6.3 |
| async-lru | 2.0.4 | атрибуты | 24.3.0 | автоматическая команда | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| Платформа управления Azure (azure-mgmt-core) | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob (облако сохранения Azure) | 12.28.0 |
| хранилище файлов данных Azure Data Lake | 12.22.0 | Вавилон | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | черный | 24.10.0 | отбеливатель | 6.2.0 |
| указатель поворота | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| инструменты для кэша | 5.5.1 | сертификат | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | нормализатор кодировки | 3.3.2 | щелчок | 8.1.8 |
| Клаудпикл | 3.0.0 | коммуникация | 0.2.1 | Contourpy | 1.3.1 |
| криптография | 44.0.1 | велосипедист | 0.11.0 | Cython | 3.1.5 |
| databricks-агенты | 1.9.1 | databricks-sdk | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | декоратор | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| Дистлиб | 0.3.9 | Конвертация docstring в markdown | 0.11 | исполнение | 1.2.0 |
| Обзор аспектов | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| файловая блокировка | 3.17.0 | шрифтовые инструменты | 4.55.3 | Полное доменное имя (FQDN) | 1.5.1 |
| замороженный список | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (аутентификация от Google) | 2.47.0 |
| google-cloud-core (основной модуль Google Cloud) | 2.5.0 | облачное хранилище Google | 3.7.0 | google-crc32c | 1.8.0 |
| гугл-возобновляемые-медиа | 2.8.0 | googleapis-common-protos (общие протоколы googleapis) | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3,7 | importlib_metadata | 8.5.0 |
| склонять | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils (утилиты для iPython) | 0.2.0 |
| ipywidgets | 7.8.1 | isodate (стандартная дата ISO) | 0.7.2 | изодурация | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | джедаи | 0.19.2 | Джинджа2 | 3.1.6 |
| джиттер | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | Джсонпоинтер (jsonpointer) | 3.0.0 |
| jsonschema (JSON-схема) | 4.23.0 | jsonschema-спецификации | 2023.7.1 | Jupyter-события | 0.12.0 |
| jupyter-lsp | 2.2.5 | клиент Jupyter | 8.6.3 | jupyter_core (ядро Jupyter) | 5.7.2 |
| Джупитер_сервер | 2.15.0 | терминалы_сервера_jupyter | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server (сервер для JupyterLab) | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| Кивисолвер | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | зефир | 3.26.2 | matplotlib | 3.10.0 |
| матплотлиб-инлайн | 0.1.7 | МакКейб | 0.7.0 | mdurl | 0.1.0 |
| Мистун | 3.1.2 | mlflow-skinny (упрощённая версия пакета mlflow) | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| мультидикт | 6.1.0 | mypy-extensions (расширения для mypy) | 1.0.0 | nbclient | 0.10.2 |
| Перекодировщик nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | ноутбук_шим | 0.2.4 |
| numpy (библиотека для работы с массивами и матрицами в Python) | 2.1.3 | OAuthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| cемантические соглашения opentelemetry | 0.60b1 | orjson | 3.11.5 | Переопределения | 7.4.0 |
| упаковка | 24,2 | Панды | 2.2.3 | пандокфильтры | 1.5.0 |
| Парсо | 0.8.4 | спецификация пути | 0.10.3 | простак | 1.0.1 |
| pexpect (библиотека Python для автоматизации взаимодействия с приложениями) | 4.8.0 | подушка | 11.1.0 | пит | 25.0.1 |
| Platformdirs | 4.3.7 | библиотека Plotly для визуализации данных | 5.24.1 | менеджер плагинов Pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit (инструментарий подсказок) | 3.0.43 | кэш свойств | 0.3.1 |
| proto-plus | 1.27.0 | protobuf (протобуф) | 5.29.4 | psutil (пакет Python для работы с процессами и системами) | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | пьюр-эвэл | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| Пикколо | 0.0.71 | pycparser | 2.21 | pydantic (библиотека Python для валидации данных) | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes (аналитический инструмент для Python) | 3.2.0 | Пигменты | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing (библиотека для синтаксического анализа в Python) | 3.2.0 | pyright | 1.1.394 |
| пироаринг | 1.0.3 | pytest | 8.3.5 | python-dateutil (библиотека для работы с датами и временем в Python) | Версия 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (пакет для логирования JSON в Python) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server (сервер Python LSP) | 1.12.2 | Pytoolconfig | 1.2.6 | pytz (библиотека Python для работы с часовыми поясами) | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Ссылки | 0.30.2 |
| regex | 2024.11.6 | Запросы | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-валидатор | 0.1.4 | rfc3986-validator | 0.1.1 | богатый | 13.9.4 |
| верёвка | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn (библиотека машинного обучения) | 1.6.1 | scipy (библиотека Python) | 1.15.3 |
| мореборн | 0.13.2 | Send2Trash | 1.8.2 | setuptools (пакет для установки и управления Python-пакетами) | 78.1.1 |
| шеллингем | 1.5.4 | шесть | 1.17.0 | сммап | 5.0.0 |
| сниффио | 1.3.0 | отсортированные контейнеры | 2.4.0 | ситечко для супа | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id (импортировать идентификатор SSH) | 5.11 | стековые данные | 0.6.3 |
| старлетка | 0.50.0 | strictyaml | 1.7.3 | упорство | 9.0.0 |
| закончено | 0.17.1 | Threadpoolctl | 3.5.0 | тиктокен | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | токенизаторы | 0.22.2 |
| томли | 2.0.1 | торнадо | 6.5.1 | tqdm | 4.67.1 |
| Трейтлеты | 5.14.3 | типгард | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | ввод текста и проверка | 0.9.0 | typing_extensions (расширения для ввода текста) | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | автоматические обновления без участия пользователя | 0,1 |
| URI-шаблон | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (ширина символа в Unicode) | 0.2.5 | webcolors | 25.10.0 | веб-энкодинги | 0.5.1 |
| websocket-клиент | 1.8.0 | чтоэто за патч | 1.0.2 | колесо | 0.45.1 |
| когда бы ни | 0.7.3 | widgetsnbextension | 3.6.6 | завёрнут | 1.17.0 |
| yapf (форматировщик Python кода) | 0.40.2 | ярл | 1.18.0 | ZIPP | 3.21.0 |
| zstandard | 0.23.0 |
Установленные библиотеки R
Библиотеки R устанавливаются из снимка состояния CRAN диспетчера пакетов Posit от 20.11.2025.
| Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
|---|---|---|---|---|---|
| стрела | 22.0.0 | аскпасс | 1.2.1 | утверждать, что | 0.2.1 |
| обратные порты | 1.5.0 | основа | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | кусочек | 4.6.0 | 64-бит | 4.6.0-1 |
| bitops | 1.0-9 | комок | 1.2.4 | сапог | 1.3-30 |
| варить | 1.0-10 | жизнерадостность | 1.1.5 | метла | 1.0.10 |
| bslib | 0.9.0 | кашемир | 1.1.0 | звонящий | 3.7.6 |
| каретка | 7.0-1 | целлрейнджер | 1.1.0 | хронометр | 2.3-62 |
| класс | 7.3-22 | интерфейс командной строки (CLI) | 3.6.5 | клиппер | 0.8.0 |
| часы | 0.7.3 | кластер | 2.1.6 | codetools | 0.2-20 |
| коммонмарк | 2.0.0 | компилятор | 4.5.1 | config | 0.3.2 |
| испытывающий противоречивые чувства | 1.2.0 | cpp11 | 0.5.2 | карандаш | 1.5.3 |
| credentials | 2.0.3 | завиток | 7.0.0 | таблица данных | 1.17.8 |
| Наборы данных | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| описание | 1.4.3 | средства разработки | 2.4.6 | Схема | 1.6.5 |
| diffobj | 0.3.6 | дайджест | 0.6.39 | направленное вниз освещение | 0.4.5 |
| dplyr (пакет для обработки данных в R) | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| многоточие | 0.3.2 | оценивать | 1.0.5 | фанаты | 1.0.7 |
| Цвета | 2.1.2 | фастмап | 1.2.0 | fontawesome | 0.5.3 |
| Forcats (форкатс) | 1.0.1 | foreach | 1.5.2 | иностранный | 0.8-86 |
| fs | 1.6.6 | будущее | 1.68.0 | будущее.применить | 1.20.0 |
| полоскать горло | 1.6.0 | Дженерики | 0.1.4 | Герт | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | глобальные переменные | 0.18.0 |
| клей | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Говер | 1.0.2 | графика | 4.5.1 | grDevices | 4.5.1 |
| сеть | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | гтабл | 0.3.6 | каска | 1.4.2 |
| убежище | 2.5.5 | выше | 0.11 | HMS | 1.1.4 |
| инструменты для HTML | 0.5.8.1 | HTML-виджеты | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | удостоверения личности | 1.0.1 |
| ini | 0.3.1 | ипред | 0,9–15 | изо-лента | 0.2.7 |
| Итераторы | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| сочный сок | 0.1.0 | KernSmooth | 2,23-22 | knitr (пакет для динамической генерации отчетов в языке программирования R) | 1.50 |
| маркирование | 0.4.3 | позже | 1.4.4 | решётка | 0,22–5 |
| лава | 1.8.2 | жизненный цикл | 1.0.4 | слушай | 0.10.0 |
| litedown | 0.8 | лубридейт | 1.9.4 | магриттр | 2.0.4 |
| Markdown | 2.0 | Масса | 7.3-60.0.1 | «Матрица» | 1.6-5 |
| Запоминание | 2.0.1 | методы | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | мини-интерфейс | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | модельер | 0.1.11 | nlme | 3.1-164 |
| ннейронная сеть | 7.3-19 | numDeriv | 2016.8-1.1 | OpenSSL | 2.3.4 |
| otel | 0.2.0 | параллельный | 4.5.1 | параллельно | 1.45.1 |
| столб | 1.11.1 | пакджбилд | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | пкглоад (pkgload) | 1.4.1 | Плогр | 0.2.0 |
| плайр | 1.8.9 | похвала | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | Processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | прогресс | 1.2.3 | progressr | 0.18.0 |
| обещания | 1.5.0 | прото | 1.0.0 | прокси | 0.4-27 |
| п.с. | 1.9.1 | мурлыканье | 1.2.0 | Р6 | 2.6.1 |
| ragg | 1.5.0 | randomForest (рандомФорест) | 4.7-1.2 | рэпдирс | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | реактивный | 0.4.4 | ReactR | 0.6.1 |
| readr | 2.1.6 | readxl (пакет для чтения Excel-файлов) | 1.4.5 | Рецепты | 1.3.1 |
| реванш | 2.0.0 | реванш2 | 2.1.2 | пульты дистанционного управления | 2.5.0 |
| репрекс | 2.1.1 | Изменить форму2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown (инструмент для создания динамических документов в R) | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart (пакет для построения деревьев решений в языке программирования R) | 4.1.23 | rprojroot | 2.1.1 | Rserve (Рcерве) | 1.8-15 |
| RSQLite | 2.4.4 | рстудиоапи | 0.17.1 | rversions | 3.0.0 |
| Рвест | 1.0.5 | S7 | 0.2.1 | дерзость | 0.4.10 |
| весы | 1.4.0 | селектор | 0.4-2 | информация о сессии | 1.2.3 |
| форма | 1.4.6.1 | блестящий | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | Sparsevctrs | 0.3.4 |
| пространственный | 7.3-17 | Сплайны | 4.5.1 | SQLDF | 0,4-11 |
| SQUAREM | январь 2021 | статистика | 4.5.1 | статистика4 | 4.5.1 |
| стринги | 1.8.7 | стрингр | 1.6.0 | выживание | 3.5-8 |
| самоуверенность и стильный вид | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| язык программирования Tcl/Tk | 4.5.1 | testthat | 3.3.0 | форматирование текста | 1.0.4 |
| Tibble | 3.3.0 | Тидыр | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse (тайдивёрс) | 2.0.0 | смена времени | 0.3.0 | ТаймДата | 4051.111 |
| tinytex | 0.58 | инструменты | 4.5.1 | База данных часовых зон (tzdb) | 0.5.0 |
| URL-чекер | 1.0.1 | используйэто | 3.2.1 | utf8 | 1.2.6 |
| утилиты | 4.5.1 | UUID (Универсальный уникальный идентификатор) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | брррм | 1.6.6 |
| Уолдо | 0.6.2 | ус | 0.4.1 | увядать | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML | 2.3.10 | зилот | 0.2.0 |
| ZIP-архив | 2.3.3 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.13)
| Идентификатор группы | Идентификатор артефакта | Версия |
|---|---|---|
| Антлер | Антлер | 2.7.7 |
| com.amazonaws | Клиент Amazon Kinesis | 1.15.3 |
| com.amazonaws | aws-java-sdk-autoscaling (автоматическое масштабирование) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | AWS Java SDK для CloudSearch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy (AWS Java SDK для CodeDeploy) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | Конфигурация SDK для Java от AWS | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline (пакет для работы с Data Pipeline на Java) | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.681 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (пакет программного обеспечения для балансировки нагрузки в AWS, написанный на Java) | 1.12.681 |
| com.amazonaws | aws-java-sdk-elastictranscoder (Java SDK для Elastic Transcoder) | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier (пакет программного обеспечения для работы с Glacier) | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | aws-java-sdk-importexport (пакет для импорта и экспорта данных) | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms (пакет программного обеспечения для работы с AWS KMS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs | 1.12.681 |
| com.amazonaws | AWS Java SDK для машинного обучения | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | AWS Java SDK для RDS | 1.12.681 |
| com.amazonaws | AWS Java SDK для Redshift | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm (AWS SDK для Java — SSM модуль) | 1.12.681 |
| com.amazonaws | AWS Java SDK для Storage Gateway | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | Поддержка AWS Java SDK | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | поток | 2.9.8 |
| com.databricks | Rserve (Рcерве) | 1.8-3 |
| com.databricks | SDK для Java от Databricks | 0.53.0 |
| com.databricks | jets3t | 0.7.1–0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | криогенное затенение | 4.0.3 |
| com.esotericsoftware | минлог | 1.3.0 |
| com.fasterxml | одноклассник | 1.5.1 |
| com.fasterxml.jackson.core | аннотации Джексона | 2.18.2 |
| com.fasterxml.jackson.core | джексон-ядро | 2.18.2 |
| com.fasterxml.jackson.core | джексон-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | Джексон-формат-данных-CBOR | 2.18.2 |
| com.fasterxml.jackson.dataformat | Джексон-датаформат-ЯМЛ | 2.15.2 |
| com.fasterxml.jackson.datatype | джексон-дейтайп-джода | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | джексон-модуль-паранэймер | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | кофеин | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | нативная_ссылка-java | 1.1 |
| com.github.fommil.netlib | нативная_ссылка-java | 1.1-коренные жители |
| com.github.fommil.netlib | Нативная_система-java | 1.1 |
| com.github.fommil.netlib | Нативная_система-java | 1.1-коренные жители |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-коренные жители |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-коренные жители |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | курвесапи | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-учетные данные | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | автоматические аннотации значений | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | тинк | 1.16.0 |
| com.google.errorprone | ошибкоопасные аннотации | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | ошибка доступа | 1.0.3 |
| com.google.guava | гуава | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-аннотации | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | Профилировщик | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK для Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (метод сжатия данных) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON (формат обмена данными JavaScript) | 1.8 |
| com.thoughtworks.paranamer | Паранэймер | 2.8 |
| com.trueaccord.lenses | лензы_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | юнивосити-парсерс | 2.9.1 |
| com.zaxxer | ХикариCP | 4.0.3 |
| com.zaxxer | СпарсБитСет | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| общие коллекции | общие коллекции | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| загрузка файлов через модуль commons | загрузка файлов через модуль commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| коммонс-логгинг | коммонс-логгинг | 1.1.3 |
| коммонс-пул | коммонс-пул | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Блас | 3.0.4 |
| dev.ludovic.netlib | LAPACK (программная библиотека для линейной алгебры) | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | компрессор воздуха | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | аннотирование метрик | 4.2.37 |
| io.dropwizard.metrics | основные метрики | 4.2.37 |
| io.dropwizard.metrics | «metrics-graphite» | 4.2.37 |
| io.dropwizard.metrics | Метрики-Чек здоровья | 4.2.37 |
| io.dropwizard.metrics | метрики-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Метрики-JMX | 4.2.37 |
| io.dropwizard.metrics | metrics-json | 4.2.37 |
| io.dropwizard.metrics | метрики для JVM | 4.2.37 |
| io.dropwizard.metrics | метрики и сервлеты | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all (все пакеты netty) | 4.2.7.Final |
| io.netty | буфер Netty | 4.2.7.Final |
| io.netty | netty-codec (кодек Netty) | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-маршаллинг | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | нетти-общий | 4.2.7.Final |
| io.netty | нетти-хэндлер | 4.2.7.Final |
| io.netty | нетти-обработчик-прокси | 4.2.7.Final |
| io.netty | Netty-резолвер | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes (классы netty-tcnative) | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | нетти-транспорт-натив-уникс-коммон | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | простыйклиент_общий | 0.16.1-databricks |
| io.prometheus | Симплклиент_дропвизард | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | коллекционер | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api (аннотация API Джакарты) | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | активация | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | джта | 1.1 |
| javax.transaction | интерфейс транзакций | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| джлайн | джлайн | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | джна | 5.8.0 |
| net.razorvine | рассол | 1.5 |
| net.sf.jpam | джпам | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv — инструмент для работы с CSV файлами | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (SDK для обработки данных Snowflake) | 0.9.6 |
| net.sourceforge.f2j | арпак_комбинированный_все | 0,1 |
| org.acplt.remotetea | «remotetea-oncrpc» | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | шаблон строки | 3.2.1 |
| org.apache.ant | муравей | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Сжатие со стрелками | 18.3.0 |
| org.apache.arrow | формат стрелок | 18.3.0 |
| org.apache.arrow | ядро памяти Arrow | 18.3.0 |
| org.apache.arrow | арроу-мемори-нетти | 18.3.0 |
| org.apache.arrow | стрелка-память-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | вектор стрелки | 18.3.0 |
| org.apache.avro | Авро | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | Коммонс-компресс | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | коммонс-матх3 | 3.6.1 |
| org.apache.commons | Общедоступный текст | 1.14.0 |
| org.apache.curator | куратор-клиент | 5.9.0 |
| org.apache.curator | кураторский фреймворк | 5.9.0 |
| org.apache.curator | куратор рецептов | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | Датаскетчес-мемори | 3.0.2 |
| org.apache.derby | дерби | 10.14.2.0 |
| org.apache.hadoop | среда выполнения hadoop-клиента | 3.4.2 |
| org.apache.hive | hive-beeline (инструмент командной строки для работы с Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | хив-шимы | 2.3.10 |
| org.apache.hive | hive-storage-api (интерфейс хранения данных Hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | хив-шимс-коммон | 2.3.10 |
| org.apache.hive.shims | планировщик hive-shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | плющ | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json (шаблон компоновки для log4j в формате JSON) | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | орк-кор | 2.2.0-shaded-protobuf |
| org.apache.orc | Формат ORC | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce (орч-мапредьюс) | 2.2.0-shaded-protobuf |
| org.apache.orc | орк-шимы | 2.2.0 |
| org.apache.poi | пои | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | аннотации для аудитории | 0.13.0 |
| org.apache.zookeeper | смотритель зоопарка | 3.9.4 |
| org.apache.zookeeper | Zookeeper-JUTE | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-компилятор | 3.0.16 |
| org.codehaus.janino | джанино | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core (ядро датануклеус) | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | «jetty-http» | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy (джетти-прокси) | 10.0.26 |
| org.eclipse.jetty | защита пристани | 10.0.26 |
| org.eclipse.jetty | сервер Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | джетти-ютил (jetty-util) | 10.0.26 |
| org.eclipse.jetty | Jetty - веб-приложение | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | хк2-локатор | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | локатор ресурсов OSGi | 1.0.3 |
| org.glassfish.hk2.external | «aopalliance-repackaged» | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | Jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | джерси-контейнер-сервлет-кор | 2.41 |
| org.glassfish.jersey.core | jersey-client (джерси-клиент) | 2.41 |
| org.glassfish.jersey.core | джерси-коммон | 2.41 |
| org.glassfish.jersey.core | Джерси-сервер | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | гибернейт-валидатор | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (логирование в JBoss) | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | джлайн | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | Обдженесис | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | РЭнджин | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | тестовый интерфейс | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | совместимый с ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j (адаптер для JCL, работающий поверх SLF4J) | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | хз | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Окончательная |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | SnakeYAML | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| стекс | stax-api | 1.0.1 |