다음을 통해 공유


Java 대량 실행기 라이브러리: 정보 다운로드

적용 대상: NoSQL

Important

Azure Cosmos DB의 최신 Java Bulk Executor가 아닙니다! 대량 작업을 수행하기 위해 Azure Cosmos DB Java SDK v4를 사용하는 것이 좋습니다. 업그레이드하려면 Azure Cosmos DB Java SDK v4로 마이그레이션 가이드 및 Reactor 및 RxJava 가이드의 지침을 따릅니다.

Important

2024년 2월 29일에는 Azure Cosmos DB Sync Java SDK v2.x가 사용 중지됩니다. SDK 및 SDK를 사용하는 모든 애플리케이션(Bulk Executor 포함)은 계속 작동합니다. Azure Cosmos DB는 이 SDK에 대한 추가 유지 관리 및 지원 제공을 중단합니다. 위의 지침에 따라 Azure Cosmos DB Java SDK v4로 마이그레이션하는 것이 좋습니다.

링크/메모
설명 클라이언트 애플리케이션은 Bulk Executor 라이브러리를 통해 Azure Cosmos DB 계정에서 대량 작업을 수행할 수 있습니다. Bulk Executor 라이브러리는 BulkImport 및 BulkUpdate 네임스페이스를 제공합니다. BulkImport 모듈은 컬렉션에 프로비전된 처리량이 최대 범위까지 사용되도록 최적화된 방식으로 문서를 대량 수집할 수 있습니다. BulkUpdate 모듈은 Azure Cosmos DB 컨테이너의 기존 데이터를 패치로 대량 업데이트할 수 있습니다.
SDK 다운로드 Maven
Github의 대량 실행기 GitHub
API 설명서 Java API 참조 설명서
시작 Bulk Executor 라이브러리 Java SDK 시작
지원되는 최소 런타임 JDK(Java Development Kit) 7+

릴리스 정보

2.12.3

  • 래핑 IllegalStateException 될 때 GoneException 재시도 정책 수정 - Spark 커넥터(Spark 2.4의 경우)가 사용자 지정 재시도 정책을 사용하여 파티션 분할 중에 쿼리가 성공할 수 있도록 게이트웨이 캐시가 410에서 새로 고쳐지도록 하려면 이 변경이 필요합니다.

2.12.2

  • 일시적인 오류에서 문서를 항상 가져오지 않는 문제를 해결합니다.

2.12.1

  • 최신 Azure Cosmos DB Core SDK 버전을 사용하도록 업그레이드합니다.

2.12.0

  • 대량 작업을 위해 Spark 커넥터를 통해 제공되는 RU 예산 처리를 개선합니다. 초기 일회성 대량 가져오기는 baseBatchSize를 사용하여 Spark 커넥터에서 수행되며 위의 일괄 가져오기에 대한 RU 사용량이 수집됩니다. miniBatchSizeAdjustmentFactor는 위의 RU 사용량을 기준으로 계산되며 미니 일괄 처리 크기는 이에 따라 조정됩니다. 경과된 시간과 각 일괄 가져오기에 사용된 RU에 따라 절전 기간은 초당 RU 사용을 제한하기 위해 계산되며 다음 일괄 처리 가져오기 전에 스레드를 일시 중지하는 데 사용됩니다.

2.11.0

  • 중첩 파티션 키를 사용할 때 대량 업데이트를 방지하는 버그 수정

2.10.0

  • json에서 중첩된 파티션 키 값을 올바르게 추출하도록 DocumentAnalyzer.java 수정했습니다.

2.9.4

  • BulkDelete 작업의 기능을 추가하여 특정 오류에 대해 다시 시도하고 다시 시도할 수 있는 오류 목록을 사용자에게 반환합니다.

2.9.3

  • Azure Cosmos DB SDK 버전 2.4.7에 대해 업데이트합니다.

2.9.2

  • 'id' 및 파티션 키 값 이후에 배치되는 패치된 문서 속성이 업데이트된 항목 목록에 추가되도록 'mergeAll'이 'id' 및 파티션 키 값에서 계속되도록 수정했습니다.

2.9.1

  • 동시성의 시작 수준을 1로 업데이트하고 미니배치에 대한 디버그 로그를 추가했습니다.