你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

Java 批量执行程序库:下载信息

适用范围: NoSQL

重要

这不是最新的 Java Bulk Executor for Azure Cosmos DB! 请考虑使用 Azure Cosmos DB Java SDK v4 来执行批量操作。 若要升级,请按照迁移到 Azure Cosmos DB Java SDK v4 指南和 Reactor 与 RxJava 指南中的说明进行操作。

重要

2024 年 2 月 29 日,Azure Cosmos DB Sync Java SDK v2.x 将停用;此 SDK 和所有使用此 SDK 的应用程序(包括 Bulk Executor)将继续运行;Azure Cosmos DB 将仅停止为此 SDK 提供进一步的维护和支持。 我们建议按照上述说明迁移到 Azure Cosmos DB Java SDK v4。

链接/注释
说明 批量执行程序库允许客户端应用程序在 Azure Cosmos DB 帐户中执行批量操作。 批量执行程序库提供 BulkImport 和 BulkUpdate 命名空间。 BulkImport 模块可以批量以优化方式引入文档,以便最大程度地使用为集合配置的吞吐量。 BulkUpdate 模块可以作为修补程序批量更新 Azure Cosmos DB 容器中的现有数据。
SDK 下载 Maven
GitHub 中的批量执行程序库 GitHub
API 文档 Java API 参考文档
入门 批量执行程序库 Java SDK 入门
受支持的最小运行时 Java 开发工具包 (JDK) 7+

发行说明

2.12.3

  • 修复了当 GoneException 包装在 IllegalStateException 中时的重试策略 - 此更改是确保在出现 410 时刷新网关缓存所必需的,这样 Spark 连接器(适用于 Spark 2.4)便可以使用自定义重试策略,使查询能够在分区拆分期间获得成功

2.12.2

  • 修复了导致文档在出现暂时性错误时不始终导入的问题。

2.12.1

  • 升级以使用最新版本的 Azure Cosmos DB Core SDK。

2.12.0

  • 改进了通过 Spark 连接器为批量操作提供的 RU 预算的处理。 最初的一次性批量导入是使用 baseBatchSize 从 spark 连接器执行的,并且会收集上述批量导入的 RU 消耗量。 基于以上 RU 消耗计算 miniBatchSizeAdjustmentFactor,并据此调整小型批处理大小。 根据每个批量导入的运行时间和消耗的 RU,计算休眠持续时间,以限制每秒 RU 消耗量,并用于在下次批量导入之前暂停线程。

2.11.0

  • 修复了在使用嵌套分区键时阻止批量更新的 bug

2.10.0

  • 修复了 DocumentAnalyzer.java,以从 JSON 中正确提取嵌套的分区键值。

2.9.4

  • 在 BulkDelete 操作中添加了相应的功能,以便在发生特定的失败后重试,并向用户返回可重试的失败列表。

2.9.3

  • 更新 Azure Cosmos DB SDK 版本 2.4.7。

2.9.2

  • 修复了“mergeAll”,使之能够在遇到“id”和分区键值时继续运行,以便将“id”和分区键值后面的所有已修补文档属性添加到更新的项列表。

2.9.1

  • 已将起始并发度更新为 1,并增加了 minibatch 的调试日志。