以下發布說明提供有關 Databricks Runtime 18.1(測試版)的資訊。
此版本整合了所有先前 Databricks 執行時版本的所有功能、改進與錯誤修正。 Databricks 於 2026 年 2 月發布此版本。
這很重要
Databricks Runtime 18.1 目前處於 測試階段。 支援環境的內容可能會在 Beta 期間變更。 變更可以包括套件清單或已安裝套件的版本。
新功能和改善
- 自動載入器在可能的情況下預設使用檔案事件
- 針對使用 CRTAS 建立的分割 Unity 目錄資料表優化寫入
- Microsoft Azure Synapse 的 DATETIMEOFFSET 資料類型支援
- Google BigQuery 表格留言
- 結構演化與 INSERT 陳述
- 在 INSERT 操作中保留 NULL 結構值
- Delta Sharing 多語句交易支持
- 磁碟區路徑中的 DataFrame 檢查點
- SQL 指令在呼叫 cache() 時不再重執行
- parse_timestamp SQL 函式
- 複合語句中的 SQL 游標支援
- 近似頂K素描函數
- 元組草圖函數
自動載入器預設會使用檔案事件(如事件可用時)
自動載入器預設在從外部位置載入且啟用檔案事件時使用檔案事件,這比目錄列出更能降低清單操作與成本。 請參閱 自動載入器與檔案事件概述。 如果你的串流程式碼設定 useIncrementalListing 或 useNotifications,檔案事件就不會被使用。 若要改用目錄列表,請設 useManagedFileEvents 為 false。
針對使用 CRTAS 建立的分區 Unity Catalog 資料表優化寫入
優化寫入應用於由 CREATE OR REPLACE TABLE ... AS SELECT (CRTAS) 建立的分區 Unity 目錄資料表,產生較少且較大的檔案。 此行為預設為啟用。 要停用,請設 spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled 為 false。
Microsoft Azure Synapse 的 DATETIMEOFFSET 資料類型支援
此 DATETIMEOFFSET 資料型別支援 Microsoft Azure Synapse 連線。
Google BigQuery 表註解
Google BigQuery 的資料表描述會被解析並以資料表註解的形式顯示。
結構演化與 INSERT 陳述
使用 WITH SCHEMA EVOLUTION 子句與 SQL INSERT 語句,在插入操作時自動演化目標資料表的結構。 該子句支持於 INSERT INTO、 INSERT OVERWRITE和 INSERT INTO ... REPLACE 形式。 例如:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
目標 Delta Lake 資料表的結構會更新,以容納來自來源的額外欄位或擴大型別。 詳情請參見 結構演化 與 INSERT 語句語法。
在 INSERT 操作中保留 NULL 結構體值
INSERT 當來源與目標資料表的結構欄位順序不同時,結構演化或隱式鑄造操作會保留 NULL 結構值。
Delta Sharing 多重語句交易支援
使用預簽 URL 或雲端令牌共享模式的 Delta Sharing 表格支援多帳單交易。 在交易中的首次存取時,該資料表版本會被固定,並在該交易中重新用於所有後續的讀取。
Limitations:
- 不支援時間旅行、資料饋送變更和串流。
- 沒有歷史記錄的共享資料表不支援多帳款交易。
- 不允許在不受信任的運算中使用共享視圖和外部實體。
磁碟卷路徑中的 DataFrame 檢查點
DataFrame 檢查點支援 Unity Catalog 磁碟區路徑。 使用 SparkContext.setCheckpointDir 在專用運算中設定檢查點路徑或使用 spark.checkpoint.dir 在標準運算中進行設定。
SQL 指令在呼叫 cache() 時不再重執行
在呼叫 .cache() 結果 DataFrame 時,SQL 指令不再被重執行。 這包括像 SHOW TABLES 和 SHOW NAMESPACES這樣的指令。
parse_timestamp SQL 函式
SQL parse_timestamp 函式會解析時間戳字串,對多個模式進行解析。 它經過光子化,方便快速評估,並有各種格式的時間戳記。 有關Datetime模式格式的資訊,請參見 Datetime模式 。
複合語句中的 SQL 游標支援
SQL 腳本複合語句現在支援游標處理。 使用 DECLARE CURSOR 定義游標,接著使用 OPEN 陳述式、 FETCH 陳述式和 CLOSE 陳述式 ,依序執行查詢並消耗列。 游標可以使用參數標記和條件處理程式,例如 NOT FOUND 進行逐行處理。
近似頂K素描函數
新功能可建立並結合分布式近似 top-K 草圖以進行 top-K 聚合:
-
approx_top_k_accumulate:每組建立一個草圖。 請參閱approx_top_k_accumulate聚合函數。 -
approx_top_k_combine:合併草圖。 請參閱approx_top_k_combine聚合函數。 -
approx_top_k_estimate:回傳前 K 名項目和其預估數量。 請參閱approx_top_k_estimate函式。
欲了解更多資訊,請參閱 approx_top_k 彙總函數 與 內建函數。
元組草圖函數
新的元組草圖彙總與標量函數支援在鍵彙總對上的獨立計數與聚合。
彙總函式:
-
tuple_sketch_agg_double聚合函數 -
tuple_sketch_agg_integer聚合函數 -
tuple_union_agg_double聚合函數 -
tuple_union_agg_integer聚合函數 -
tuple_intersection_agg_double聚合函數 -
tuple_intersection_agg_integer聚合函數
純量函數:
tuple_sketch_estimatetuple_sketch_summarytuple_sketch_thetatuple_uniontuple_intersectiontuple_difference
參見 內建功能。
行為變更
- MEASURE 聚合函數的 FILTER 子句
- Unity 目錄 CRTAS 操作的最佳寫入
- 針對細粒度存取控制資料表進行的 DataFrame 快取重新整理
- 時間戳分區值使用會話時區
- DESCRIBE FLOW 保留關鍵字
- 地理空間作業效能提升
- SQLSTATE 的例外類型
- 自動流式類型擴展
MEASURE 聚合函數的 FILTER 子句
MEASURE 聚合函式現在 支援 FILTER 子句。 過去,過濾器被默默地忽視。
Unity 目錄 CRTAS 操作的最佳寫入
CREATE OR REPLACE TABLE AS SELECT(CRTAS)操作在分割的 Unity Catalog 資料表上執行時,現在預設會採用最佳化寫入。 要停用,請設 spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled 為 false。
DataFrame 快取刷新以支援細粒度存取控制資料表
在專用計算上寫入細粒度存取控制 資料表後,會立即更新依賴該資料表的快取資料集。
時間戳分區值使用會話時區
時間戳分割值使用 Spark 會話時區,而非 JVM 時區。 如果你在 Databricks Runtime 18.0 之前已經寫入時間戳分區,請先執行 SHOW PARTITIONS 驗證分割區的元資料,再寫入新資料。
描述流程保留關鍵字
DESCRIBE FLOW現在這個指令已經可用了。 如果你有一個名為 flow的表格,請使用 DESCRIBE schema.flow、DESCRIBE TABLE flow,或 DESCRIBE `flow` 反引號。
地理空間作業效能提升
地理空間布林集合運算採用了一種效能提升的新實作。 在小數點第15位之後,可能會有細微的精度差異。
SQLSTATE 的例外類型
例外類型 會更新以支援 SQLSTATE。 如果你的程式碼是透過字串匹配來解析例外或捕捉特定例外類型,請更新你的錯誤處理邏輯。
自動資料流型別擴展
Delta 表格上的串流讀取會自動處理 欄位型態擴展。 若要要求手動確認,請設定 spark.databricks.delta.typeWidening.enableStreamingSchemaTracking 為 true。
圖書館升級
此版本未升級任何函式庫。
Apache Spark
Databricks Runtime 18.1 包含 Apache Spark 4.1.0。 本版本包含 Databricks Runtime 18.0 中所有 Spark 的修正與改進,以及以下對 Spark 所做的額外錯誤修正與改進:
- SPARK-55350 修正從 pandas 資料框建立 0 欄 DataFrame 時的列數損失問題
- SPARK-55364 讓 SupportsIAdd 和 SupportsOrdering 協定更合理
- SPARK-53656 重構 MemoryStream 以使用 SparkSession 取代 SQLContext
-
SPARK-55472從 pandas 3 移除的方法中提升
AttributeError - SPARK-55224 使用 Spark DataType 作為 Pandas-Arrow 序列化中的標準參考
- SPARK-55402 將 streamingSourceIdentifyingName 從 CatalogTable 移到 DataSource
- SPARK-55459 修正 applyInPandas 中大型群組的 3 倍效能迴歸問題
- SPARK-55317 新增 SequentialUnion 邏輯規劃節點與規劃規則
-
SPARK-55424 明確地將系列名稱在
convert_numpy中傳入 - SPARK-55175 從序列器擷取變壓器
- SPARK-55304 在 Python 資料來源中引入對 Admission Control 與 Trigger.AvailableNow 的支援 - 串流閱讀器
-
SPARK-55382 設置
Executor以記錄Running Spark version - SPARK-55408 用 pandas 3 處理與 datetime 相關的意外關鍵字參數錯誤
- SPARK-55345 不要將單位傳遞給 Timedelta,以便使用 Pandas 3
- SPARK-54759 在加入游標後,正確地在 Scripting Variable Manager 中保護邏輯
- SPARK-55409 處理使用 pandas 3 的 read_excel 時出現的意外關鍵字參數錯誤
-
SPARK-55403 修正
no attribute 'draw'Pandas 3 圖測中的誤差 - SPARK-55256 還原「[SC-218596][SQL] 支援忽略空值(IGNORE NULLS)/尊重空值(RESPECT NULLS)於 array_agg 和 collect_list」
- SPARK-55256 支持 array_agg 和 collect_list 的忽略 NULLs / 尊重 NULLs 功能
-
SPARK-55395 停用
DataFrame.zipWithIndex中的 RDD 快取 - SPARK-55131 引入一個新的合併運算子分隔符,用於 RocksDB 以空字串作為無分隔符的合併操作
- SPARK-55376 使 groupby 函數中的參數 numeric_only 在 pandas 3 中只接受布林值
-
SPARK-55334在
convert_numpy中啟用TimestampType和TimestampNTZType - SPARK-55281 將 ipykernel 和 IPython 加入 mypy 的可選套件清單
- SPARK-55336 設 createDF 使用 create_batch 邏輯來解耦
-
SPARK-55366從 Python UDF 中移除
errorOnDuplicatedFieldNames - SPARK-54759 SQL 腳本游標支援
-
SPARK-55302 修正自訂指標以防
KeyGroupedPartitioning - SPARK-55228 在 Scala API 中實作 Dataset.zipWithIndex
- SPARK-55373 改善 noHandlerFoundForExtension 錯誤訊息
- SPARK-55356 支援 PIVOT 子句使用別名
-
SPARK-55359 晉升
TaskResourceRequest至Stable - SPARK-55365 將箭頭陣列轉換的工具化化
- SPARK-55106 為 TransformWithState 運算子新增重劃分整合測試
- SPARK-55086 將 DataSourceReader.pushFilters 加入 Python 資料來源 API 文件
- SPARK-46165 新增對 DataFrame.all axis=None 的支援
- SPARK-55289 還原「[SC-218749][SQL] 停用廣播連接來修正不穩定的測試檔案 in-set-operations.sql」
- SPARK-55297 根據原始dtype恢復timedelta類型。
- SPARK-55291 在用戶端攔截器建構時預處理中繼資料的標頭
-
SPARK-55155重新套用「[SC-218401][SQL] 支援可摺疊式於陳述式中
SET CATALOG - SPARK-55318 對於vector_avg/vector_sum的效能優化
- SPARK-55295 擴展 ST_GeomFromWKB 函式以接受可選的 SRID 值
- SPARK-55280 新增 GetStatus proto 以支援執行狀態監控
- SPARK-54969 實作新的箭頭->熊貓轉換
-
SPARK-55176 將
arrow_to_pandas轉換器提取為 ArrowArrayToPandasConversion - SPARK-55111 還原「[SC-217817][SC-210791][SS] 查詢重啟時未完成的重新分割偵測」
-
SPARK-55252 改進
HttpSecurityFilter以新增Content-Security-Policy標頭 - SPARK-55111 查詢重新啟動時偵測未完成的重新分割
- SPARK-55105 新增連接運算符的整合測試
- SPARK-55260 實作 Parquet 對 Geo 類型的寫入支援
- SPARK-54523 修正變體下推時的預設解析度
- SPARK-55328 在 GroupedPythonArrowInput 中重用 PythonArrowInput.codec
- SPARK-55246 新增 Pyspark TWS 與 TWSInPandas 測試,並修正 StatePartitionAllColumnFamiliesWriter 的錯誤
- SPARK-55289 修復測試案例 in-set-operations.sql 的不穩定性,方法為停用廣播連線。
- SPARK-55040 重構 TaskContext 及相關工作者協定,並改進 pyspark 引擎相關修正。
- SPARK-47996 支援 pandas API 中的交叉合併
- SPARK-55031 新增向量平均值/總和聚合函數表達式
- SPARK-54410 修正對變體邏輯型別註解的讀取支援
- SPARK-54776 還原「[SC-216482][SQL] 改進了使用 SQL UDF 的 lambda 函數日誌訊息」
- SPARK-55123 新增 SequentialUnionOffset 以追蹤序列來源處理
- SPARK-54972 改進具有不可空欄位的 NOT IN 子查詢
- SPARK-54776 改進了使用 SQL UDF 的 lambda 函數日誌訊息
-
SPARK-53807 修正
BlockInfoManager中unlock與releaseAllLocksForTask之間的競賽條件問題 - SPARK-51831 還原「[SC-207389][SQL] 欄位修剪搭配 existsJoin for Datasource V2」
-
SPARK-54881 改進
BooleanSimplification以一次性處理合取與析取的否定 - SPARK-54696 整理 Connect 中的 ArrowBuffers
-
SPARK-55009 移除
LevelDBTypeInfo/RocksDBTypeInfo.Index中不必要的記憶體複製 - SPARK-54877 讓 UI 錯誤頁面上的 display stacktrace 可以設定
- SPARK-51831 使用 existsJoin 進行 Datasource V2 的欄位修剪
-
SPARK-55285 修正
PythonArrowInput初始化 - SPARK-53960 讓 approx_top_k_accumulate/combine/estimate 處理 NULL
- SPARK-49110 簡化 SubqueryAlias.metadataOutput,以始終傳遞元數據欄位
- SPARK-55155 還原「[SC-218401][SQL] 支援在陳述式中可摺疊的表達式」
-
SPARK-55155支援可摺疊的陳述式
SET CATALOG - SPARK-49110 還原「[SC-218594][SQL] 簡化SubqueryAlias.metadataOutput 以永遠傳播元資料欄位」
- SPARK-54399 在 Scala 和 PySpark 中實作 st_setsrid 函式
- SPARK-49110 簡化 SubqueryAlias.metadataOutput 以永遠傳播元資料欄位
- SPARK-55133 修正 IsolatedSessionState 生命週期管理中的競賽狀態
- SPARK-55262 除了 Parquet 外,所有基於檔案的資料來源都使用 Block Geo 類型
- SPARK-54202 允許從 GeometryType(srid) 類型轉換至 GeometryType(ANY)
- SPARK-54142 在 Scala 和 PySpark 中實作 st_srid 函式
- SPARK-54887 一定要在 Spark Connect 用戶端設定 SQL 狀態
- SPARK-55237 在查詢不存在資料庫時,請抑制惱人的訊息
- SPARK-55040 還原「[SC-217628][PYTHON] 重構 TaskContext 及相關工作者協定」
- SPARK-55243 允許透過 Scala Connect 用戶端的 -bin 後綴設定二進位標頭
- SPARK-55259 實作 Parquet 架構轉換以支援地理類型
- SPARK-55282 避免在驅動程序端使用worker_util
- SPARK-54151 介紹在 PySpark 中加入 ST 函式的框架
- SPARK-55194 移除 GroupArrowUDFSerializer,將 flatten 邏輯移至 mapper
- SPARK-55020 執行 gRPC 指令時請停用 gc
- SPARK-55053 重構資料來源/使用者自定義表格函數 (UDTF) 分析程序,使其具有統一的入口點
- SPARK-55040 重構 TaskContext 及相關工作者協定
- SPARK-55244 使用 np.nan 作為 pandas 字串類型的預設值
- SPARK-55225 還原到 Datetime 的原始數據類型
- SPARK-55154 移除針對 pandas 3 中 pd.Series 的快速路徑。
- SPARK-55030 新增向量範數/正規化函數表達式支援
- SPARK-55202 使用參數時修正UNEXPECTED_USE_OF_PARAMETER_MARKER...
- SPARK-54201 允許從 GeographyType(srid)轉換為 GeographyType(ANY)
- SPARK-54244 引入對 GEOMETRY 資料型態的型別強制支援
- SPARK-54160 將 ST_SetSrid 表達式實作為 SQL
- SPARK-55046 PySpark 新增 udf 處理時間指標
- SPARK-54101 介紹在 Scala 中加入 ST 函式的框架
- SPARK-54683 統一地理與時間類型的封鎖
- SPARK-55249 讓 DataFrame.toJSON 能夠回傳 dataframe
- SPARK-54521 增加 Geometry 類型與 WKB 的轉換功能
- SPARK-54162 允許從 GeographyType 轉換到 GeometryType
- SPARK-55146 重新檢查 PySpark 的狀態重分區 API
- SPARK-55140 不要將內建函式映射到 PANDAS 3 的 numpy 版本
- SPARK-54243 引入對地理資料型態的型別強制支援
- SPARK-55058 在不一致的檢查點元資料上丟出錯誤
- SPARK-55108 請使用最新的 pandas-stubs 來檢查類型
- SPARK-54091 用 SQL 實作 ST_Srid 表達式
- SPARK-55104 新增 Spark Connect 支援 DataStreamReader.name()
- SPARK-54996 報告來自 LowLatencyMemoryStream 的紀錄到達時間
- SPARK-55118 替換 ASM 操作碼的萬用字元匯入
- SPARK-54365 新增聚合、去重、FMGWS 及 SessionWindow 運算子的整合測試
- SPARK-55119 修正繼續處理程序:防止INTERNAL_ERROR及錯誤的條件陳述中斷
- SPARK-54104 禁止將地理空間類型投射到其他資料型態
- SPARK-55240 重構 LazyTry 的 stacktrace 處理以使用包裝器來取代抑制例外。
-
SPARK-55238 將 Geo SRS 映射邏輯從
main/scala移至main/java -
SPARK-55179 跳過急切欄位名稱驗證
df.col_name - SPARK-55055 支援 PySpark Classic 的 SparkSession.Builder.create
- SPARK-55186 讓ArrowArrayToPandasConversion.convert_legacy能夠歸還PD。資料框架
- SPARK-54079 介紹在 Catalyst 中加入 ST 表達式的框架
- SPARK-54096 支援 PySpark 中的空間參考系統映射
- SPARK-54801 將一些新的 4.1 設定標記為內部使用
- SPARK-55146 還原「[SC-217936][SC-210779][SS] PySpark 狀態重劃分 API」
- SPARK-54559 使用 runnerConf 來傳遞效能分析器選項
- SPARK-55205 修正那些假設字串類型會轉換成物件的測試
- 火花-55171 修正 iter UDF 上的記憶體設定檔
- SPARK-55226 識別日期時間與時間差,使用除 [ns] 以外的單位
- SPARK-55027 Move writeConf to PythonWorkerUtils
- SPARK-55197 擷取輔助函數以去重複START_ARROW_STREAM訊號邏輯
- SPARK-54179 新增原生支援 Apache 元組草圖 (#190848) (#191111)
- SPARK-55151 Fix RocksDBSuite testWithStateStoreCheckpointIds
- SPARK-55146 PySpark 的狀態重劃分 API
- SPARK-54232 啟用 Arrow 序列化以支援地理與幾何類型
- SPARK-53957 在 SpatialReferenceSystemMapper 中支援地理與幾何
- SPARK-55169 在 ArrowStreamArrowUDTFSerializer 中使用 ArrowBatchTransformer.flatten_struct
-
SPARK-55134 修正
BasicExecutorFeatureStep使其在執行器 CPU 誤配置時拋出IllegalArgumentException - SPARK-54166 在 PySpark 中引入地理空間型別的型別編碼器
-
SPARK-55138 修正
convertToMapData引發NullPointerException的問題 - SPARK-55168 在 GroupArrowUDFSerializer 中使用 ArrowBatchTransformer.flatten_struct
- SPARK-55032 重構 workers.py 中的效能分析工具
- SPARK-54990 修正 classproperty 在 session.py 中的實作方式
- SPARK-55076 修正 ml/mllib 中的型別提示問題,並新增 scipy 要求
- SPARK-55162 從 ArrowStreamUDFSerializer 擷取轉換器
- SPARK-55121 在經典 PySpark 中新增 DataStreamReader.name()
- SPARK-54887 在 sparkthrowables 中加入可選的 sqlstate
- SPARK-54169 在 Arrow Writer 中介紹地理與幾何類型
- SPARK-51658 引入幾何與地理記憶體封裝格式
- SPARK-54110 引入地理類型與幾何類型編碼器
- SPARK-54956 統一不確定性洗牌重試機制
-
SPARK-55137 重構
GroupingAnalyticsTransformer與Analyzer程式碼 - SPARK-54103 引入用戶端地理與幾何類別
- SPARK-55160 直接將輸入結構傳遞給序列化器
- SPARK-55170 從串列器中擷取分組串流讀取模式
-
SPARK-55125 移除 Arrow 序列化器中的冗餘
__init__方法 - SPARK-55126 移除 ArrowStreamArrowUDFSerializer 中未使用的時區和 assign_cols_by_name
- SPARK-54980 將 JDBC 的隔離電平轉換成字串
- SPARK-55051 位元組字串接受 KiB、MiB、GiB、TiB、PiB
- SPARK-55025 透過使用列表理解來提升 PANDAS 的效能
- SPARK-46165 新增對 pandas.DataFrame.all 軸=1 的支援。
- SPARK-55037 重新實作觀察功能,但不使用 QueryExecutionListener
- SPARK-54965 排除舊有的PA。陣列 -> PD。串聯轉換器
- SPARK-55016 將 SQLConf 直接設為 SparkSession 的屬性,以防止堆疊溢位
- SPARK-55091減少 Hive RPC 指令呼叫DROP TABLE
- SPARK-55097 修復重新加入快取產物時無聲丟棄區塊的問題
- SPARK-55026 優化 BestEffortLazyVal。
- SPARK-55091 還原「[SC-217410][SQL] 減少 Hive RPC 呼叫的 DROP TABLE 指令」
- SPARK-54590 支援 Checkpoint v2 進行狀態重寫與重新分割
- SPARK-55016 將 SQLConf 直接設為 SparkSession 的屬性,以防止堆疊溢位
- SPARK-55091減少蜂巢 RPC 指令呼叫DROP TABLE
- SPARK-55016 還原「[SC-217401][SQL] 將 SQLConf 直接設為 SparkSession 的屬性,以防止堆疊溢位」
- SPARK-55016 將 SQLConf 直接設為 SparkSession 的屬性,以防止堆疊溢位
- SPARK-55098 帶有輸出批次大小控制的向量化 UDF 會因記憶體洩漏而失敗
- SPARK-54824 新增對 multiGet 和 deleteRange 的 Rocksdb 狀態存儲支持
- SPARK-55054 新增對串流表值函式的 IDENTIFIED BY 支援
- SPARK-55029 透過解析管線傳播串流來源的識別名稱
- SPARK-55071 讓 spark.addArtifact 能與 Windows 路徑相符
- SPARK-54103 還原「[SC-210400][Geo][SQL] 引入客戶端地理與幾何類別」
- SPARK-54103 引入用戶端地理與幾何類別
- SPARK-54033 引入 Catalyst 伺服器端地理空間執行類別
- SPARK-54176 將地理與幾何資料型態引入 PySpark Connect
- SPARK-55089 修正 toJSON 的輸出結構
- SPARK-55035 在子執行中進行 shuffle 清理
-
SPARK-55036 新增
ArrowTimestampConversion箭頭時區處理功能 -
SPARK-55090在 Python 用戶端實作
DataFrame.toJSON - SPARK-54873 簡化 V2TableReference 的解析度,因為只有臨時視圖可能包含 V2TableReference
- SPARK-52828 使排序過的字串的雜湊與排序無關
- SPARK-54175 將地理與幾何類型加入 Spark Connect 原型
-
SPARK-54961 介紹
GroupingAnalyticsTransformer - SPARK-55088 將元資料放在 to/from_arrow_type/schema 裡
- SPARK-55070 允許在 dataframe 中解析隱藏的欄位
- SPARK-55044 將中繼資料保留在 toArrowSchema/fromArrowSchema 中
- SPARK-55043 修正含有表格引用的子查詢的時間跳轉
-
SPARK-54987 將 prefer_timestamp_ntz 的預設值改為 True。
from_arrow_type/from_arrow_schema - SPARK-54866 重構 Drop/RefreshFunction 以避免目錄查詢
- SPARK-55024 使用REQUIRES_SINGLE_PART_NAMESPACE錯誤進行會話目錄命名空間驗證
- SPARK-54992 用執行時檢查取代 cast make_timestamp
- SPARK-55024 還原「[SC-216987][SQL] 使用REQUIRES_SINGLE_PART_NAMESPACE錯誤進行會話目錄命名空間驗證」
- SPARK-54866 還原「[SC-216753][SQL] 重構 Drop/RefreshFunction 以避免目錄查詢」
- SPARK-55024 使用REQUIRES_SINGLE_PART_NAMESPACE錯誤進行會話目錄命名空間驗證
- SPARK-54866 重構 Drop/RefreshFunction 以避免目錄查詢
- SPARK-54991 正確的類型提示 用於 streaming/listener.py
- SPARK-54925 新增 pyspark 轉儲執行緒的功能
- SPARK-54803 以姓名支持...... INSERT 替換 WHERE
- SPARK-54785 新增對 KLL (#188370) (#188860) 二進位草圖聚合的支援
- SPARK-54949 Move pyproject.toml to repo root
- SPARK-54954 在 util.py 中修正與遠端相關的類型提示
- SPARK-54922 統一 arg 傳遞給 Python 工作者的方式
- SPARK-54870 char/varchar 和 CTAS/RTAS 的排序支援
-
SPARK-54762 修正
_create_converter與covert過載簽名 - SPARK-55019 允許 DROP TABLE 移除 VIEW
- 火花-53103 如果查詢啟動時狀態目錄不是空的,則擲回錯誤
- SPARK-54995 為 foreachPartition 建立快速路徑
- SPARK-54634 為空的 IN 條件新增清晰的錯誤訊息
- SPARK-54984 狀態重劃分執行並整合 State Rewriter
- SPARK-54443 在重新分割閱讀器中整合 PartitionKeyExtractor
- SPARK-54907 引入 NameStreamingSources 分析規則以進行串流來源演進
- SPARK-54609 更新 TIME 類型的設定,使其與 OSS 的設定相符
- SPARK-54988 簡化 ObservationManager.tryComplete 的實作
- SPARK-54959 啟用推送式洗牌時,禁用在發現洗牌校驗和不匹配時的完全重試功能
- SPARK-54940 加入 pa.scalar 類型推論的測試
- SPARK-54634 撤銷「[SC-216478][SQL] 對空 IN 謂詞新增清晰錯誤訊息」
- SPARK-54337 在 Pyspark 中加入對 PyCapsule 的支援
- SPARK-54634 對空 IN 謂詞新增清晰錯誤訊息
- SPARK-53785 RTM 記憶體來源
- SPARK-54883 清理 CLI 的錯誤訊息,並新增錯誤模式 DEBUG
- SPARK-54713 新增向量相似度/距離函數表達式支援
- SPARK-54962 修正 Pandas UDF 中可空整數處理
- SPARK-54864 將 rCTE 節點加入 NormalizePlan
- SPARK-53847 新增 ContinuousMemorySink 以進行即時模式測試
- SPARK-54865 將 foreachWithSubqueriesAndPruning 方法加入 QueryPlan
- SPARK-54930 移除 worker.py 中多餘的 _accumulatorRegistry.clear() 呼叫
- SPARK-54929 修正taskContext._resources在迴圈中重置導致只保留最後一個資源的問題
-
SPARK-54963 使
createDataFrame在infer_pandas_dict_as_map時尊重prefer_timestamp_ntz -
SPARK-54920 將分組的分析擷取邏輯移至共用
GroupingAnalyticsExtractor - SPARK-54924 狀態重寫器用來讀取狀態、轉換狀態並寫入新狀態
- SPARK-54872 統一 v1 和 v2 指令中欄位預設值的處理方式
- SPARK-54905 簡化 QueryPlan 中的 foreachWithSubqueries 實作
- SPARK-54682 支援在 DESCRIBE PROCEDURE 中顯示參數
-
SPARK-54933 避免反覆讀取設定
binary_as_bytes檔toLocalIterator - SPARK-54872 還原「[SC-216260][SQL] 統一 v1 與 v2 指令間欄位預設值處理」
- SPARK-51936 ReplaceTableAsSelect 應該覆蓋新資料表,而不是附加
- SPARK-54771 移除 RuleIdCollection 中的 ResolveUserSpecifiedColumns 規則
- SPARK-54872 統一 v1 和 v2 指令中欄位預設值的處理方式
- SPARK-54313 新增 --extra-properties-file 選項用於配置分層
- SPARK-54468 新增缺失的錯誤類別
- SPARK-46741 當計畫表達式的子查詢中使用 CTE 時,快取表應該能正常運作
- SPARK-46741 帶有 CTE 的快取表無法運作
- SPARK-54615 一定要把runner_conf傳給 Python Worker
- SPARK-53737 新增即時模式觸發器
- SPARK-54541 重新命名 _LEGACY_ERROR_TEMP_1007 並新增 sqlState
- SPARK-54718 在 CTE newInstance() 期間保留屬性名稱
- SPARK-54621 合併到更新集 * 如果啟用coerceNestedTypes,則保留巢狀欄位
- SPARK-54595 保留現有行為, MERGE INTO 但不 SCHEMA 加 EVOLUTION 子句
- SPARK-54903 讓to_arrow_schema/to_arrow_type能設定時區
- SPARK-52326 新增與 ExternalCatalogEvent 相關的分割區,並在相應的操作中發布
- SPARK-54541 還原「[SC-215212][SQL] 重新命名 _LEGACY_ERROR_TEMP_1007 並新增 sqlState」
-
SPARK-54578 執行程式碼清理
AssignmentUtils - SPARK-54830 預設啟用基於校驗和的洗牌重試機制,該機制處於不確定狀態。
- SPARK-54525在設定檔下關閉巢狀結構強制MERGE INTO
- SPARK-53784 支援 RTM 執行所需的額外原始碼 API
- SPARK-54496 修正 Dataframe API 的 Schema 演化合併問題
- SPARK-54835 避免在巢狀指令執行中使用不必要的臨時 QueryExecution
- SPARK-54541 重新命名 _LEGACY_ERROR_TEMP_1007 並新增 sqlState
- SPARK-54289 允許 MERGE INTO 保留現有結構欄位,當 UPDATESET 來源結構體的巢狀欄位比目標結構體少時
- SPARK-54720 添加具有 schema 的 SparkSession.emptyDataFrame
- SPARK-54800 isObjectNotFoundException 的預設實作已更改
- SPARK-54686 放寬臨時檢視中的 DSv2 表格檢查,允許新的頂層欄位
- SPARK-54619 新增配置編號的合理性檢查
- SPARK-54726 提升 InsertAdaptiveSparkPlan 的效能
- SPARK-51966 在 POSIX 作業系統上執行時,請將 select.select() 替換為 select.poll()
- SPARK-54749 修正 OneRowRelationExec 中錯誤的 numOutputRows 指標
- SPARK-54411 引入支援多重CF的重分割寫入器
- SPARK-54835 恢復「[SC-215823][SQL] 避免嵌套命令執行不必要的臨時 QueryExecution」
- SPARK-54867 在分析過程中引入 NamedStreamingRelation 包裝器以識別來源
- SPARK-54835 避免在巢狀指令執行中使用不必要的臨時 QueryExecution
- SPARK-54491 修正DSv2資料表中插入到臨時視圖時的失敗問題
- SPARK-54871 在處理分組分析前,先從分組和彙總表達式中修剪別名
- SPARK-51920 修正 transformWithState 中 namedTuple 的型別處理
- SPARK-54526 重新命名 _LEGACY_ERROR_TEMP_1133 並新增 sqlState
- SPARK-54424 重錄過程中的失敗不得使操作失敗
-
SPARK-54894 修正引數傳遞在
to_arrow_type - SPARK-53448 將帶有 Variant 欄位的 pyspark DataFrame 轉換為 pandas 會失敗並出現錯誤
- SPARK-54882 移除舊有PYARROW_IGNORE_TIMEZONE
- SPARK-54504 修正帶有子查詢的 DSv2 資料表版本刷新問題
- SPARK-54444 放寬 DSv2 資料表檢查,以恢復先前的行為
- SPARK-54859 Arrow 預設為 PySpark UDF API 參考文件
- SPARK-54387 還原「[ES-1688666] 還原「[SC-212394][SQL] 修復 DSv2 資料表的重存」」
- SPARK-54753 修復 ArtifactManager 的記憶體洩漏
- SPARK-54387 回退「[SC-212394][SQL] 修正 DSv2 表格的重緩存問題」
- SPARK-54436 修正不相容的表格元資料檢查錯誤格式
-
SPARK-54849 將最低
pyarrow版本升級到 18.0.0 - SPARK-54022 讓 DSv2 資料表解析度能考量到已快取的資料表
- SPARK-54387 修正 DSv2 資料表的重存問題
- SPARK-53924 在存取以計畫創建的視圖時重新載入 DSv2 資料表
-
SPARK-54561 支援斷點函式
run-tests.py - SPARK-54157 修正 Dataset 中 DSv2 表格的刷新問題
- SPARK-54830 還原 "[CORE] 預設啟用基於校驗和的不確定性洗牌重試"。
- SPARK-54861 任務完成時,將任務執行緒名稱重設為 IDLE_TASK_THREAD_NAME
- SPARK-54834 新增介面 SimpleProcedure 與 SimpleFunction
- SPARK-54760 DelegatingCatalogExtension 作為會話目錄,支援 V1 與 V2 功能
- SPARK-54685 移除冗餘的觀察指標回應
-
SPARK-54853 務必檢查
hive.exec.max.dynamic.partitions在 Spark 端 - SPARK-54840 OrcList 預分配
- SPARK-54830 預設啟用基於校驗和的洗牌重試機制,該機制處於不確定狀態。
-
SPARK-54850 改進
extractShuffleIds以在計劃樹的任一位置內尋找AdaptiveSparkPlanExec - SPARK-54843 Try_to_number 表達式無法處理空字串輸入
- SPARK-54556 當偵測到洗牌校驗和不匹配時,回滾成功洗牌地圖階段
- SPARK-54760 還原「[SC-215670][SQL] DelegatingCatalogExtension 作為會話目錄,支援 V1 和 V2 函式」
- SPARK-54760 DelegatingCatalogExtension 作為會話資料目錄支援 V1 與 V2 函數
- SPARK-54818 TaskMemoryManager 的記憶體分配失敗時應該紀錄錯誤堆疊,以協助檢查記憶體使用情況
-
SPARK-54827 新增輔助功能
TreeNode.containsTag - SPARK-54777 回復「[SC-215740][SQL] 更改 JDBCTableCatalog.dropTable(...) 的 dropTable 錯誤處理」
- SPARK-54777 更改了 JDBCTableCatalog.dropTable(...) 中 dropTable 錯誤處理
-
SPARK-54817 重構
Unpivot解析邏輯為UnpivotTransformer -
SPARK-54820 讓
pandas_on_spark_type它與 numpy 2.4.0 相容 -
SPARK-54799 重構
UnpivotCoercion - SPARK-54754 OrcSerializer 不應該在每次序列化時都解析架構
- SPARK-54226 將 Arrow 壓縮擴展至 Pandas UDF
- SPARK-54787 在 pandas 中使用列表推導式代替 for 迴圈
-
SPARK-54690 讓
Frame.__repr__對箭頭優化不受影響 - SPARK-46166 pandas 套件中 DataFrame.any 方法的實作,軸為 None
- SPARK-54696 清理箭頭緩衝區 - 後續
- SPARK-54769 移除 conversion.py 中的死程式碼
- SPARK-54787 在 Pandas _bool_column_labels 中使用列表解析
-
SPARK-54794 抑制冗長
FsHistoryProvider.checkForLogs掃描日誌 - SPARK-54745 修正因缺少 UnixStreamServer 在 Windows 上所造成的 PySpark 匯入錯誤
- SPARK-54782 修正設定版本
- SPARK-54781 以 JSON 格式回傳模型快取資訊
- SPARK-54419 離線重分割狀態讀取器支援多欄族
- SPARK-54722 註冊用於 SQL 使用的 Pandas 分組迭代聚合 UDF
-
SPARK-54762 還原「[SC-215422][PYTHON] 修正
_create_converter與covert過載簽名」 - SPARK-54652 還原「[SC-215452][SQL] 完全轉換 IDENTIFIER()」
-
SPARK-54762 修正
_create_converter與covert過載簽名 - SPARK-52819 讓 KryoSerializationCodec 可序列化,以修正 java.io.NotSerializableException 在各種使用情境中的錯誤
- SPARK-54711 為惡魔產生的工人連線加個超時
- SPARK-54738 增加對 Pandas 分組迭代聚合 UDF 的 Profiler 支援
- SPARK-54652 完成IDENTIFIER的完整轉換
- SPARK-54581 讓 fetchsize 選項在 Postgres 連接器中不區分大小寫
- SPARK-54589 合併 ArrowStreamAggPandasIterUDFSerializer 到 ArrowStreamAggPandasUDFSerializer
- SPARK-41916 Torch Distributor:如果 task.gpu.amount > 1,則支援在每個任務中使用多個 torchrun 程序
-
SPARK-54707 重構
PIVOT解析的主要邏輯為PivotTransformer - SPARK-54706 讓分散式LDAModel能與本地檔案系統相容
- SPARK-53616 引入適用於 pandas 分群聚合 UDF 的迭代器 API
- SPARK-54116 新增 LongHashedRelation 的離堆模式支援
- SPARK-54656 將 SupportsPushDownVariants 重構為 ScanBuilder 的混入
- SPARK-54687 加入帶有生成器解析度邊緣情況的黃金檔案
- SPARK-54708 透過惰性目錄建立來優化機器學習快取清理
- SPARK-54116 還原「[SC-213108][SQL] 新增 LongHashedRelation 的離堆模式支援」
- SPARK-54116 新增 LongHashedRelation 的離堆模式支援
- SPARK-54443 所有流式有狀態運算子的分區金鑰提取
- SPARK-54687 還原「[SC-214791][SQL] 新增帶有產生器解析度邊緣情況的黃金檔案」
- SPARK-54116 還原「[SC-213108][SQL] 新增 LongHashedRelation 的離堆模式支援」
- SPARK-54687 加入帶有生成器解析度邊緣情況的黃金檔案
- SPARK-54116 新增 LongHashedRelation 的離堆模式支援
- SPARK-54420 引入離線重劃分 StatePartitionWriter 用於單欄家族
-
SPARK-54689 設
org.apache.spark.sql.pipelines為內部套件並設EstimatorUtils為私有 - SPARK-54673 重構 SQL 管道語法分析程式碼,用於共享與重用
- SPARK-54668 新增多子運算子中CTE的測試
- SPARK-54669 移除 rCTE 中冗餘的鑄造
- SPARK-54587 整合所有相關的runner_conf程式碼
- SPARK-54628 移除所有不必要的明確 super() 參數
- SPARK-54675 為 StateStore 維護執行緒池新增可設定的強制關機逾時功能
- SPARK-54639 避免在 Arrow 序列化器中建立不必要的表格
- SPARK-49635 移除 CAST 錯誤訊息中的 ANSI 設定建議
-
SPARK-54664 清理與
listenerCache相關的程式碼來自connect.StreamingQueryManager - SPARK-54640 在 UNIX 上將 select.select 替換為 select.poll
-
SPARK-54662 添加
viztracer和debugpy到dev/requirements.txt - SPARK-54632 新增使用絨毛來去除棉絨的選項
- SPARK-54585 修復執行緒處於中斷狀態時的 State Store 回滾問題
- SPARK-54172 合併到 Schema 演化中應該只會新增被引用的欄位
- SPARK-54438 合併 ArrowStreamAggArrowIterUDFSerializer 到 ArrowStreamAggArrowUDFSerializer
- SPARK-54627 移除序列化器中的冗餘初始化
- SPARK-54631 新增 Arrow 群組 Iter Aggregate UDF 的效能分析器支援
-
SPARK-54316 重新應用 [SC-213971][CORE][PYTHON][SQL],整合
GroupPandasIterUDFSerializer與GroupPandasUDFSerializer - SPARK-54392 優化 JVM-Python 通訊以符合 TWS 初始狀態
- SPARK-54617 啟用 Arrow Grouped Iter Aggregate UDF 註冊用於 SQL
- SPARK-54544 啟用 flake8 F811 檢查
-
SPARK-54650 將整數轉換為十進位的操作移至
_create_converter_from_pandas -
SPARK-54316 還原「[SC-213971][CORE][PYTHON][SQL] 將
GroupPandasIterUDFSerializer與GroupPandasUDFSerializer合併」 - SPARK-53687 在 SQL 陳述式中引入 WATERMARK 子句
-
SPARK-54316 整合
GroupPandasIterUDFSerializer和GroupPandasUDFSerializer - SPARK-54598 擷取邏輯以讀取 UDF
-
SPARK-54622 將
RequiresDistributionAndOrdering和其所需的介面提升至Evolving - SPARK-54624 確保歷史頁面中的使用者名稱能逃脫
- SPARK-54580 考慮 HiveVersionSuite 中的 Hive 4.1 與 HiveClientImpl。
-
SPARK-54068 修復
to_feather支援 PyArrow 22.0.0 -
SPARK-54618 晉升
LocalScan至Stable -
SPARK-54616 標記
SupportsPushDownVariants為Experimental -
SPARK-54607移除未使用的方法
toStringHelperAbstractFetchShuffleBlocks.java - SPARK-53615 引入 Arrow 群組聚合 UDF 的迭代器 API
- SPARK-54608 避免在 UDTF 中對類型轉換器進行重複快取
-
SPARK-54600 不要用 Pickle 來存檔/載入模型
pyspark.ml.connect -
SPARK-54592 設
estimatedSize為私人 - SPARK-54388 引入 StatePartitionReader,可掃描 Single ColFamily 的原始位元組
- SPARK-54570 在 Spark Connect 中正確傳遞錯誤類別
- SPARK-54577 在結構推論中優化 Py4J 呼叫
- SPARK-54568 避免在從 ndarray 建立資料框時進行不必要的 PANDAS 轉換
- SPARK-54576 新增基於 Datasketches 的彙總函數文件說明
- SPARK-54574 在 Connect 上重新啟用 FPGrowth
- SPARK-54557 讓 CSV/JSON/XmlOptions 和 CSV/JSON/XmlInferSchema 可以比較
- SPARK-52798 新增函數approx_top_k_combine
- SPARK-54446 FPGrowth 支援本地檔案系統,採用 Arrow 檔案格式
-
SPARK-54547在方法中
hostPort將變數重新命名host為TaskSchedulerImpl.(executorLost|logExecutorLoss) - SPARK-54558 修復使用無 BEGIN/END 的例外處理機制時的內部例外
- SPARK-52923 允許 ShuffleManager 在重分配註冊時控制推送合併
- SPARK-54474 對於應該失敗的測試,丟棄 XML 報告
- SPARK-54473 新增 Avro 對 TIME 型態的讀寫支援
- SPARK-54472 新增 OREC 對 TIME 型別的讀寫支援
- SPARK-54463 新增 TIME 類型的 CSV 序列化與反序列化支援
- SPARK-52588 Approx_top_k:累積與估算
- SPARK-54461 新增 TIME 型別的 XML 序列化與反序列化支援
- SPARK-54451 新增 TIME 類型的 JSON 序列化與反序列化支援
- SPARK-54537 修正 SparkConnectDatabaseMetaData getSchemas/getTables 在目錄缺少命名空間能力的問題
- SPARK-54442 新增 TIME 類型的數值轉換函數
- SPARK-54451 還原「[SC-212861][SQL] 新增 TIME 型別的 JSON 序列化與反序列化支援」
- SPARK-54492 重新命名 _LEGACY_ERROR_TEMP_1201 並新增 sqlState
- SPARK-54531 引入 ArrowStreamAggPandasUDFSerializer
- SPARK-54223 為 Python 執行日誌新增任務上下文與資料指標
- SPARK-54272 為 SortAggregateExec 新增 aggTime
- SPARK-53469 在 Thrift 伺服器中進行 Shuffle 清理的能力
-
SPARK-54219 支援
spark.cleaner.referenceTracking.blocking.timeout設定 - SPARK-54475 新增主伺服器,分支版本4.0用戶端,Python 3.11
- SPARK-54451 新增 TIME 類型的 JSON 序列化與反序列化支援
- SPARK-54285 快取時區資訊以避免昂貴的時間戳轉換
-
SPARK-49133 將成員
MemoryConsumer#used原子化以避免使用者程式碼造成死結 - SPARK-46166 pandas 的 DataFrame.any 方法實作,軸為 1
- SPARK-54532 新增對 PySparkException 的 sqlstate 支援
- SPARK-54435 spark-pipelines init 應避免覆蓋現有目錄
- SPARK-54247 插座要明確關閉util._load_from_socket
Databricks ODBC/JDBC 驅動程序支援服務
Databricks 支援在過去 2 年中發行的 ODBC/JDBC 驅動程式。 請下載最近發行的驅動程式和升級 (下載 ODBC,下載 JDBC)。
系統環境
- 作業系統:Ubuntu 24.04.3 LTS
- Java:Zulu21.42+19-CA
- Scala:2.13.16
- Python:3.12.3
- R:4.5.1
- 三角洲湖:4.0.1
已安裝的 Python 程式庫
| 圖書館 | 版本 | 圖書館 | 版本 | 圖書館 | 版本 |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| 註解文檔 | 0.0.4 | 標註類型 | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| 箭頭 | 1.3.0 | asttokens(Python 資源分析與處理庫) | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | 屬性 (attrs) | 24.3.0 | 自動指令 | 2.2.2 |
| azure-common | 1.1.28 | Azure 核心功能 (azure-core) | 1.37.0 | azure-identity(Azure 身份驗證服務) | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web (Azure 管理網站) | 8.0.0 | azure-storage-blob (Azure 儲存服務 Blob) | 12.28.0 |
| 微軟 Azure 儲存檔案資料湖 (Azure Storage File Data Lake) | 12.22.0 | 巴別塔 | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | 黑色 | 24.10.0 | 漂白劑 | 6.2.0 |
| 閃爍器 | 1.7.0 | boto3 | 1.40.45 | botocore(AWS的Python程式庫) | 1.40.45 |
| cachetools(緩存工具) | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | charset-normalizer(字符集正規化器) | 3.3.2 | 點選 | 8.1.8 |
| cloudpickle(Python 程式庫) | 3.0.0 | 通訊 | 0.2.1 | 「contourpy」 | 1.3.1 |
| 加密 | 44.0.1 | 騎車者 | 0.11.0 | Cython | 3.1.5 |
| Databricks-代理程式 | 1.9.1 | Databricks 開發人員工具集 (SDK) | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | 裝飾項目 | 5.1.1 |
| defusedxml(安全解析XML的Python函式庫) | 0.7.1 | Delta Lake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | 將Docstring轉換為Markdown | 0.11 | 執行中 | 1.2.0 |
| facets概覽 | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| 文件鎖 | 3.17.0 | fonttools (字體工具庫) | 4.55.3 | fqdn | 1.5.1 |
| 凍結清單 | 1.5.0 | fsspec | 2023.5.0 | gitdb (Git分散式版本控制資料庫) | 4.0.11 |
| GitPython | 3.1.43 | google-api-core (Google API 核心庫) | 2.28.1 | google-auth(谷歌身份驗證) | 2.47.0 |
| google-cloud-core | 2.5.0 | Google雲端儲存(Google Cloud Storage) | 3.7.0 | google-crc32c | 1.8.0 |
| Google可續媒體 | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | HF-XET | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| 變調 | 7.3.1 | iniconfig | 1.1.1 | ipyflow核心组件 | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils(IPython 工具程式庫) | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text(文字處理工具) | 3.12.1 | jedi | 0.19.2 | Jinja2 | 3.1.6 |
| 抖動 | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | JSON Schema 規範 | 2023年7月1日 | Jupyter 事件 | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter 客戶端 | 8.6.3 | Jupyter核心 | 5.7.2 |
| jupyter伺服器 | 2.15.0 | Jupyter服務器終端 | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab伺服器 | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver(開源程式庫) | 1.4.8 | langchain-core | 1.2.6 | 朗鏈-OpenAI | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | Litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | 棉花糖 | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | 麥卡貝 | 0.7.0 | mdurl | 0.1.0 |
| 米斯圖恩 | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | MSAL(Microsoft身份驗證庫) | 1.34.0 | msal-extensions | 1.3.1 |
| multidict | 6.1.0 | mypy-extensions(MyPy 擴充套件) | 1.0.0 | 「nbclient」 | 0.10.2 |
| nbconvert(文件轉換工具) | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | 筆記本 | 7.3.2 | 筆記本支架 | 0.2.4 |
| numpy(數值計算套件) | 2.1.3 | oauthlib (OAuth程式庫) | 3.2.2 | OpenAI公司 | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk(OpenTelemetry 軟體開發工具包) | 1.39.1 |
| OpenTelemetry語意規範 | 0.60b1 | orjson | 3.11.5 | 覆蓋 | 7.4.0 |
| 包裝 | 24.2 | 熊貓 | 2.2.3 | pandocfilters (潘多克過濾器) | 1.5.0 |
| 帕爾索 | 0.8.4 | 路徑規格 (pathspec) | 0.10.3 | 替罪羊 | 1.0.1 |
| pexpect (一個用於程序自動化和測試的軟體庫) | 4.8.0 | 枕頭 | 11.1.0 | pip(Python 軟體包管理工具) | 25.0.1 |
| platformdirs | 4.3.7 | plotly(數據可視化工具) | 5.24.1 | Pluggy(外掛管理工具) | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit(提示工具組) | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | 協議緩衝區 (Protocol Buffers) | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| 派克羅 | 0.0.71 | pycparser(Python 的 C 語法分析器) | 2.21 | pydantic(Python 數據驗證工具) | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes (Python 代碼分析工具) | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing(Python 字符串解析库) | 3.2.0 | pyright | 1.1.394 |
| 火燒 | 1.0.3 | pytest(Python程式語言的測試工具) | 8.3.5 | python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (Python JSON 日誌記錄器) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | pytoolconfig | 1.2.6 | pytz(Python 的時區計算函式庫) | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | 參考 | 0.30.2 |
| Regex | 2024.11.6 | 要求 | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator(RFC 3339 格式驗證器) | 0.1.4 | RFC 3986 驗證器 | 0.1.1 | 富有 | 13.9.4 |
| 繩子 | 1.13.0 | rpds-py | 0.22.3 | RSA加密算法 | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn(機器學習套件) | 1.6.1 | scipy科學計算庫 | 1.15.3 |
| 海上出生 | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 78.1.1 |
| 社靈漢 (Shellingham) | 1.5.4 | 六 | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sortedcontainers(排序容器) | 2.4.0 | 湯篩 | 2.5 |
| sqlparse(資料庫語法解析器) | 0.5.5 | ssh-import-id(匯入 SSH ID) | 5.11 | 堆疊數據 | 0.6.3 |
| starlette | 0.50.0 | strictyaml | 1.7.3 | 堅韌性 | 9.0.0 |
| 結束了 | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | 分詞器 (tokenizers) | 0.22.2 |
| tomli | 2.0.1 | 龍捲風 | 6.5.1 | tqdm | 4.67.1 |
| Traitlets | 5.14.3 | typeguard (類型保護) | 4.3.0 | Typer-Slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | 打字檢查 | 0.9.0 | typing_extensions(打字擴充套件) | 4.12.2 |
| tzdata | 2024.1 | ujson(超快速 JSON 解析庫) | 5.10.0 | 無人看管自動升級 | 0.1 |
| URI 樣板 | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth(字符寬度函數) | 0.2.5 | 網頁顏色 | 25.10.0 | 網路編碼 | 0.5.1 |
| WebSocket 客戶端 | 1.8.0 | 何謂補丁 | 1.0.2 | Wheel | 0.45.1 |
| 不論何時 | 0.7.3 | widgetsnbextension | 3.6.6 | 包裹著 | 1.17.0 |
| yapf (Python 程式碼格式化工具) | 0.40.2 | 雅爾 | 1.18.0 | 拉鏈 | 3.21.0 |
| zstandard | 0.23.0 |
已安裝的 R 程式庫
R 函式庫於 2025-11-20 從 Posit 套件管理器的 CRAN 快照安裝。
| 圖書館 | 版本 | 圖書館 | 版本 | 圖書館 | 版本 |
|---|---|---|---|---|---|
| 箭頭 | 22.0.0 | askpass(要求密碼) | 1.2.1 | assertthat (一個用於斷言測試的函數庫) | 0.2.1 |
| backports(回溯移植) | 1.5.0 | 基礎映像 | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | 64位元 | 4.6.0-1 |
| 位元運算 | 1.0-9 | blob | 1.2.4 | 靴子 | 1.3-30 |
| 釀製 | 1.0-10 | 活力 | 1.1.5 | 掃帚 | 1.0.10 |
| bslib | 0.9.0 | 卡榭姆 | 1.1.0 | 卡爾 | 3.7.6 |
| caret | 7.0-1 | cellranger (細胞測序工具) | 1.1.0 | 時序 (chron) | 2.3-62 |
| 類別 | 7.3-22 | 命令行界面 (CLI) | 3.6.5 | 克麗普 | 0.8.0 |
| 時鐘 | 0.7.3 | 叢集 | 2.1.6 | codetools | 0.2-20 |
| 通用標記 | 2.0.0 | 編譯器 | 4.5.1 | config | 0.3.2 |
| 糾結 | 1.2.0 | cpp11 | 0.5.2 | 蠟筆 | 1.5.3 |
| 憑證 | 2.0.3 | curl (Unix指令) | 7.0.0 | data.table | 1.17.8 |
| 數據集 | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| 說明 | 1.4.3 | devtools | 2.4.6 | 圖示 | 1.6.5 |
| diffobj | 0.3.6 | 摘要 | 0.6.39 | 向下照明 | 0.4.5 |
| dplyr資料處理套件 | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| 省略符號 | 0.3.2 | 評估 | 1.0.5 | 粉絲 | 1.0.7 |
| 顏色 | 2.1.2 | fastmap(快速映射) | 1.2.0 | fontawesome | 0.5.3 |
| 尚未提供所需背景詳情來翻譯"forcats",如果是專有名詞或特定術語,可以保留原文。 | 1.0.1 | foreach | 1.5.2 | 外來 | 0.8-86 |
| fs | 1.6.6 | 未來 | 1.68.0 | 未來應用 (future.apply) | 1.20.0 |
| 漱口 | 1.6.0 | 泛型 | 0.1.4 | 格特 | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | 全域變數 | 0.18.0 |
| 膠水 | 1.8.0 | Google 雲端硬碟 | 2.1.2 | googlesheets4 | 1.1.2 |
| 戈爾(Gower) | 1.0.2 | 圖形 | 4.5.1 | grDevices | 4.5.1 |
| 格線 | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | 安全帽 | 1.4.2 |
| 庇護所 | 2.5.5 | 更高 | 0.11 | 如果 "hms" 是一個專有名詞、縮寫或具有特殊意涵的術語,則需要確保對其進行適當的翻譯或說明。 | 1.1.4 |
| HTML工具 | 0.5.8.1 | htmlwidgets(網頁小工具) | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | 身份識別碼 | 1.0.1 |
| ini | 0.3.1 | 艾普瑞德 | 0.9-15 | 等高帶 (isoband) | 0.2.7 |
| 迭代器 | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| 多汁果汁 | 0.1.0 | KernSmooth | 2.23-22 | 針織機 | 1.50 |
| 標記 | 0.4.3 | 稍後 | 1.4.4 | 晶格 | 0.22-5 |
| 熔岩 | 1.8.2 | 生命週期 | 1.0.4 | 保留原名 "listenv" 並附加描述 (if necessary based on context, otherwise just retain "listenv") | 0.10.0 |
| 輕量版Markdown | 0.8 | 「lubridate」 | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | 質量 | 7.3-60.0.1 | 矩陣 | 1.6-5 |
| 記憶化 | 2.0.1 | 方法 | 4.5.1 | mgcv | 1.9-1 |
| 默劇 | 0.13 | 迷你用戶界面 | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | 模型師 | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv (數值導數) | 2016年8月-2017年1月 | openssl | 2.3.4 |
| 奧特爾 | 0.2.0 | 並行 | 4.5.1 | 並行地 | 1.45.1 |
| 柱子 | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr (普勒格) | 0.2.0 |
| plyr播放器(plyr Player) | 1.8.9 | 讚美 | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | 流程x | 3.8.6 | prodlim | 2025.04.28 |
| 視覺分析工具 Profvis | 0.4.0 | 進展 | 1.2.3 | progressr | 0.18.0 |
| 承諾 | 1.5.0 | 原型 | 1.0.0 | Proxy | 0.4-27 |
| 附註 | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| 拉格 | 1.5.0 | 隨機森林 (randomForest) | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | 可反應的 | 0.4.4 | reactR | 0.6.1 |
| Readr | 2.1.6 | readxl(讀取Excel檔案) | 1.4.5 | 食譜 | 1.3.1 |
| 復賽 | 2.0.0 | Rematch 2 | 2.1.2 | 遙控器 | 2.5.0 |
| 重現範例 | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown(R程式碼標記語言) | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart(R語言中的一個統計計算和機器學習模組) | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | r版本 | 3.0.0 |
| rvest(用於網頁抓取的 R 語言套件) | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| 磅秤 | 1.4.0 | 擇選器 (selectr) | 0.4-2 | 會議資訊 | 1.2.3 |
| 圖形 | 1.4.6.1 | 閃亮 | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| 空間 | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | 統計數據 | 4.5.1 | 統計學4 | 4.5.1 |
| 字串處理工具包 (stringi) | 1.8.7 | "stringr" 是 R 語言中的一個處理字串操作的函式庫。 | 1.6.0 | 生存 | 3.5-8 |
| 自信 | 5.17.14.1 | sys | 3.4.3 | 系統字體 | 1.3.1 |
| tcltk(程式設計工具包) | 4.5.1 | testthat(測試工具) | 3.3.0 | 文字排版 | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse(整潔世界) | 2.0.0 | 時間更動 | 0.3.0 | 時間日期 | 4051.111 |
| tinytex | 0.58 | 工具 | 4.5.1 | tzdb | 0.5.0 |
| urlchecker (URL 檢查工具) | 1.0.1 | usethis | 3.2.1 | utf8 | 1.2.6 |
| 實用工具 | 4.5.1 | 全域唯一識別碼 (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.6 |
| 瓦爾多 | 0.6.2 | 觸鬚 | 0.4.1 | withr代碼庫 (assuming withr refers to a specific codebase or library, use context to clarify) | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML(Yet Another Markup Language)解析器 | 2.3.10 | 齊奧特 | 0.2.0 |
| 壓縮檔 | 2.3.3 |
已安裝的 Java 和 Scala 連結庫 (Scala 2.13 叢集版本)
| 群組識別碼 | 文物識別碼 | 版本 |
|---|---|---|
| ANTLR | ANTLR | 2.7.7 |
| com.amazonaws | amazon-kinesis-用戶端 | 1.15.3 |
| com.amazonaws | aws-java-sdk-自動擴展 | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudfront (雲端前端 Java SDK) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudsearch(雲端搜索) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.681 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.681 |
| com.amazonaws | aws-java-sdk-codedeploy (AWS Java SDK的CodeDeploy模組) | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.681 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.681 |
| com.amazonaws | AWS Java SDK 配置 | 1.12.681 |
| com.amazonaws | aws-java-sdk-core | 1.12.681 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.681 |
| com.amazonaws | aws-java-sdk-directconnect (AWS Java 軟體開發套件 - 直接連接) | 1.12.681 |
| com.amazonaws | aws-java-sdk-directory | 1.12.681 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.681 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.681 |
| com.amazonaws | aws-java-sdk-efs | 1.12.681 |
| com.amazonaws | AWS Java SDK for ElastiCache (AWS Java SDK 用於 ElastiCache) | 1.12.681 |
| com.amazonaws | AWS Java SDK Elasticbeanstalk(AWS Java 軟體開發套件,Elasticbeanstalk) | 1.12.681 |
| com.amazonaws | AWS Java SDK 彈性負載平衡 (aws-java-sdk-elasticloadbalancing) | 1.12.681 |
| com.amazonaws | AWS Java SDK 彈性轉碼器 (aws-java-sdk-elastictranscoder) | 1.12.681 |
| com.amazonaws | aws-java-sdk-emr | 1.12.681 |
| com.amazonaws | aws-java-sdk-glacier (AWS Java 軟體開發工具包 - Glacier) | 1.12.681 |
| com.amazonaws | aws-java-sdk-glue(AWS 繫結程式庫) | 1.12.681 |
| com.amazonaws | aws-java-sdk-iam | 1.12.681 |
| com.amazonaws | AWS Java SDK 匯入匯出 | 1.12.681 |
| com.amazonaws | aws-java-sdk-kinesis(AWS Java 開發工具包-Kinesis) | 1.12.681 |
| com.amazonaws | aws-java-sdk-kms (AWS Java 軟體開發工具包 - KMS) | 1.12.681 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.681 |
| com.amazonaws | aws-java-sdk-logs (Amazon Java SDK 日誌) | 1.12.681 |
| com.amazonaws | aws-java-sdk-machinelearning(AWS Java SDK 機器學習) | 1.12.681 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.681 |
| com.amazonaws | aws-java-sdk-rds | 1.12.681 |
| com.amazonaws | aws-java-sdk-redshift (Amazon Web Services 的 Redshift Java 軟體開發工具包) | 1.12.681 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.681 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ses | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.681 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.681 |
| com.amazonaws | aws-java-sdk-sns | 1.12.681 |
| com.amazonaws | AWS Java SDK 的 SQS 模組 | 1.12.681 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.681 |
| com.amazonaws | aws-java-sdk-storagegateway (AWS Java SDK 儲存閘道) | 1.12.681 |
| com.amazonaws | aws-java-sdk-sts | 1.12.681 |
| com.amazonaws | AWS Java SDK 支援 (aws-java-sdk-support) | 1.12.681 |
| com.amazonaws | aws-java-sdk-workspaces(AWS Java SDK 工作空間) | 1.12.681 |
| com.amazonaws | jmespath-java | 1.12.681 |
| com.clearspring.analytics | 串流 | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | 冷凍陰影技術 (kryo-shaded) | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | 同學 | 1.5.1 |
| com.fasterxml.jackson.core | Jackson 註解 | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core (資料處理核心) | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (一個用於CBOR數據格式的Java庫) | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml (Jackson資料格式-YAML) | 2.15.2 |
| com.fasterxml.jackson.datatype | 杰克森數據類型-Joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310(Jackson數據類型JSR310) | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer(Jackson模組-Paranamer) | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | 咖啡因 | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | 原生引用-java | 1.1 |
| com.github.fommil.netlib | 原生引用-java | 1.1 原生 |
| com.github.fommil.netlib | 原生系統-Java | 1.1 |
| com.github.fommil.netlib | 原生系統-Java | 1.1 原生 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 原生 |
| com.github.fommil.netlib | netlib-原生系統-linux-x86_64 | 1.1 原生 |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos(Google 常規通用協議) | 2.5.1 |
| com.google.auth | Google Auth Library 凭证 | 1.20.0 |
| com.google.auth | Google-auth-library-oAuth2-HTTP | 1.20.0 |
| com.google.auto.value | 自動值註解(Auto-Value Annotations) | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | 易於出錯的標註 (error_prone_annotations) | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | 訪問失敗 | 1.0.3 |
| com.google.guava | guava | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | 分析工具 | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK (Azure 資料湖存儲 SDK) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | 壓縮-LZF | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core(JAXB核心) | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON(JavaScript物件表示法) | 1.8 |
| com.thoughtworks.paranamer | paranamer (參數命名器) | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers(統一性解析器) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | 稀疏BitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec(公共編碼庫) | commons-codec(公共編碼庫) | 1.19.0 |
| 公共集合 (commons-collections) | 公共集合 (commons-collections) | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload(公共文件上傳) | commons-fileupload(公共文件上傳) | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (共通日誌記錄) | commons-logging (共通日誌記錄) | 1.1.3 |
| commons-pool (公共資源庫) | commons-pool (公共資源庫) | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | BLAS(基本線性代數程式庫) | 3.0.4 |
| dev.ludovic.netlib | lapack(線性代數軟體包) | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | 空氣壓縮機 | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.9 |
| io.dropwizard.metrics | 指標註釋 | 4.2.37 |
| io.dropwizard.metrics | 核心指標 | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | 衡量指標-健康檢查 | 4.2.37 |
| io.dropwizard.metrics | Metrics-Jetty10 | 4.2.37 |
| io.dropwizard.metrics | 指標-JMX | 4.2.37 |
| io.dropwizard.metrics | 度量標準-JSON | 4.2.37 |
| io.dropwizard.metrics | 指標-JVM | 4.2.37 |
| io.dropwizard.metrics | metrics-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all(Netty 完整版本) | 4.2.7.決賽 |
| io.netty | ネッティ緩衝區 (netty-buffer) | 4.2.7.決賽 |
| io.netty | Netty 編解碼器 | 4.2.7.決賽 |
| io.netty | netty-codec-base | 4.2.7.決賽 |
| io.netty | Netty-codec-classes-quic | 4.2.7.決賽 |
| io.netty | Netty編解碼壓縮 | 4.2.7.決賽 |
| io.netty | netty-codec-http(Netty HTTP 編解碼器) | 4.2.7.決賽 |
| io.netty | Netty 解碼器 HTTP/2 | 4.2.7.決賽 |
| io.netty | Netty-codec-http3 | 4.2.7.決賽 |
| io.netty | Netty-codec-marshalling | 4.2.7.決賽 |
| io.netty | Netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | Netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | Netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | Netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | Netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | Netty-編解碼-Protobuf | 4.2.7.決賽 |
| io.netty | netty-codec-socks(Netty編解碼Socks模組) | 4.2.7.決賽 |
| io.netty | Netty公共模組 | 4.2.7.決賽 |
| io.netty | netty-handler | 4.2.7.決賽 |
| io.netty | netty-handler-proxy (代理處理程序) | 4.2.7.決賽 |
| io.netty | netty-resolver (網絡解決方案) | 4.2.7.決賽 |
| io.netty | netty-tcnative-boringssl-static (Netty 原生 BoringSSL 靜態版本) | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static (Netty 原生 BoringSSL 靜態版本) | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static (Netty 原生 BoringSSL 靜態版本) | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static (Netty 原生 BoringSSL 靜態版本) | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static (Netty 原生 BoringSSL 靜態版本) | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | Netty-TCNative-類別 | 2.0.74.決賽 |
| io.netty | netty-transport | 4.2.7.決賽 |
| io.netty | netty-transport-classes-epoll | 4.2.7.決賽 |
| io.netty | Netty-傳輸-類別-io_uring | 4.2.7.決賽 |
| io.netty | netty-transport-classes-kqueue (Netty 傳輸類別 - KQueue) | 4.2.7.決賽 |
| io.netty | netty-transport-native-epoll | 4.2.7.決賽 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue(Netty 原生傳輸 KQueue) | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue(Netty 原生傳輸 KQueue) | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common(Netty 傳輸本地 Unix 公用程式) | 4.2.7.決賽 |
| io.opencensus | OpenCensus-API | 0.31.1 |
| io.opencensus | OpenCensus-Contrib-http-utility | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | 簡易客戶端_通用 | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard (簡易客戶端_dropwizard) | 0.16.1-databricks |
| io.prometheus | 簡易客戶端推送網關 | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | 收集器 | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api(註解API) | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api 驗證接口 | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | 啟用 | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | 交易介面 (transaction-api) | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| Javolution | Javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | 醃製品 | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv (開源 CSV 解析庫) | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| 網絡.雪花 | snowflake-ingest-sdk(Snowflake 資料引入 SDK) | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all (程式的函數名稱,通常保持不翻譯) | 0.1 |
| org.acplt.remotetea | REMOTETEA-ONCRPC | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime (ANTLR 4 執行時) | 4.13.1 |
| org.antlr | 字串模板 (stringtemplate) | 3.2.1 |
| org.apache.ant | 螞蟻 | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | 螞蟻發射器 | 1.10.11 |
| org.apache.arrow | 箭矢壓縮 | 18.3.0 |
| org.apache.arrow | 箭頭格式 (arrow-format) | 18.3.0 |
| org.apache.arrow | 箭頭記憶核心 | 18.3.0 |
| org.apache.arrow | 箭頭記憶-netty | 18.3.0 |
| org.apache.arrow | Arrow記憶體Netty緩衝區修補程序 | 18.3.0 |
| org.apache.arrow | 箭頭向量 | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | 共享-集合4 | 4.5.0 |
| org.apache.commons | commons-compress(通用壓縮工具) | 1.28.0 |
| org.apache.commons | 共用配置2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text(共用文字處理庫) | 1.14.0 |
| org.apache.curator | 策展人-客戶 | 5.9.0 |
| org.apache.curator | curator-framework (策展人框架) | 5.9.0 |
| org.apache.curator | 館長食譜 | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory (資料素描記憶體) | 3.0.2 |
| org.apache.derby | 德比戰 | 10.14.2.0 |
| org.apache.hadoop | hadoop客户端運作環境 | 3.4.2 |
| org.apache.hive | hive-beeline(資料查詢工具) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client(Hive LLAP用戶端) | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde (資料序列化和解序列化庫) | 2.3.10 |
| org.apache.hive | 蜂箱墊片 | 2.3.10 |
| org.apache.hive | hive-storage-api (蜂巢存儲 API) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common 套件 | 2.3.10 |
| org.apache.hive.shims | 蜂巢兼容層排程器 (hive-shims-scheduler) | 2.3.10 |
| org.apache.httpcomponents | HttpClient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | 常春藤 | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | Log4j佈局模板JSON | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | 奧克核心 | 2.2.0-shaded-protobuf |
| org.apache.orc | orc格式 | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | 獸人襯墊 | 2.2.0 |
| org.apache.poi | 波伊(夏威夷芋泥) | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core (XML 架構核心) | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | 觀眾註解 | 0.13.0 |
| org.apache.zookeeper | 動物園管理員 | 3.9.4 |
| org.apache.zookeeper | ZooKeeper-Jute | 3.9.4 |
| org.checkerframework | 品質檢查器 | 3.43.0 |
| org.codehaus.janino | 公共編譯器 (commons-compiler) | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core (數據核心) | 4.1.17 |
| org.datanucleus | 資料核心-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy (代理伺服器) | 10.0.26 |
| org.eclipse.jetty | 噴射碼頭安全性 | 10.0.26 |
| org.eclipse.jetty | Jetty伺服器 | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | 傑堤工具 (jetty-util) | 10.0.26 |
| org.eclipse.jetty | jetty-webapp(Jetty 網頁應用程式) | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2 定位器 | 2.6.1 |
| org.glassfish.hk2 | hk2實用程式 | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator (OSGi 資源定位器) | 1.0.3 |
| org.glassfish.hk2.external | aopalliance重新打包 | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | Jersey 容器伺服器 | 2.41 |
| org.glassfish.jersey.containers | jersey 容器 servlet 核心模块 | 2.41 |
| org.glassfish.jersey.core | jersey-客戶端 | 2.41 |
| org.glassfish.jersey.core | 球衣-通用 | 2.41 |
| org.glassfish.jersey.core | Jersey伺服器 | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | hibernate-validator(驗證器) | 6.2.5.最終版 |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-日誌記錄 | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | JTS-核心 | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rocksdb | rocksdbjni | 9.8.4 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | 測試介面 | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | 與 scalatest 相容 | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl(野飛開放SSL) | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | SnakeYAML | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| stax | stax-api | 1.0.1 |