Libreria Java BulkExecutor: informazioni sul download
SI APPLICA A: NoSQL
Importante
Questo non è l'executor bulk Java più recente per Azure Cosmos DB. Prendere in considerazione l'uso di Azure Cosmos DB Java SDK v4 per l'esecuzione di operazioni bulk. Per eseguire l'aggiornamento, seguire le istruzioni della guida alla migrazione a Azure Cosmos DB Java SDK v4 e la guida relativa al confronto tra Reactor e RxJava.
Importante
Il 29 febbraio 2024 azure Cosmos DB Sync Java SDK v2.x verrà ritirato; l'SDK e tutte le applicazioni che usano l'SDK, incluso Bulk Executor , continueranno a funzionare; Azure Cosmos DB smetterà di fornire ulteriore manutenzione e supporto per questo SDK. È consigliabile seguire le istruzioni sopra riportate per eseguire la migrazione ad Azure Cosmos DB Java SDK v4.
Collegamento/note | |
---|---|
Descrizione | La libreria dell'executor bulk consente alle applicazioni client di eseguire operazioni in blocco negli account di Azure Cosmos DB. La libreria dell'executor bulk fornisce gli spazi dei nomi per BulkImport e BulkUpdate. Il modulo BulkImport può inserire in blocco i documenti in maniera ottimizzata, in modo che la velocità effettiva di cui è stato eseguito il provisioning per una raccolta venga utilizzata nella misura massima consentita. Il modulo BulkUpdate può aggiornare in blocco i dati esistenti nei contenitori di Azure Cosmos DB come patch. |
Download dell'SDK | Maven |
Libreria di esecuzione bulk in GitHub | GitHub |
Documentazione sull'API | Documentazione di riferimento API Java |
Operazioni preliminari | Introduzione a Java SDK per la libreria BulkExecutor |
Runtime minimo supportato | Java Development Kit (JDK) 7+ |
Note sulla versione
2.12.3
- Correzione dei criteri di ripetizione dei tentativi quando
GoneException
viene eseguito il wrapping inIllegalStateException
. Questa modifica è necessaria per assicurarsi che la cache del gateway venga aggiornata sulla versione 410, in modo che il connettore Spark (per Spark 2.4) possa usare un criterio di ripetizione dei tentativi personalizzato per consentire alle query di avere esito positivo durante le suddivisioni delle partizioni
2.12.2
- È stato risolto un problema che causava l'importazione di documenti in caso di errori temporanei.
2.12.1
- Eseguire l'aggiornamento per usare la versione più recente di Azure Cosmos DB Core SDK.
2.12.0
- Migliorare la gestione del budget di UR fornito tramite il connettore Spark per l'operazione in blocco. Un'importazione bulk iniziale una tantum viene eseguita dal connettore Spark con baseBatchSize e viene raccolto il consumo di UR per l'importazione batch precedente. Un miniBatchSizeAdjustmentFactor viene calcolato in base al consumo di UR precedente e le dimensioni del mini batch vengono modificate in base a questo. In base al tempo trascorso e all'UR utilizzata per ogni importazione batch, viene calcolata una durata di sospensione per limitare il consumo di UR al secondo e viene usata per sospendere il thread prima dell'importazione batch successiva.
2.11.0
- Correzione di un bug che impedisce gli aggiornamenti in blocco quando si usa una chiave di partizione annidata
2.10.0
- Aggiornamento di DocumentAnalyzer.java per la corretta estrazione dei valori delle chiavi di partizione annidate da json.
2.9.4
- Aggiunta funzionalità alle operazioni BulkDelete per riprovare in caso di errori specifici e restituire all'utente anche un elenco di errori per i quali può essere eseguito un secondo tentativo.
2.9.3
- Aggiornamento per Azure Cosmos DB SDK versione 2.4.7.
2.9.2
- Aggiornamento di "mergeAll" per il proseguimento in corrispondenza di "id" e del valore della chiave di partizione in modo che eventuali proprietà del documento con patch posizionate dopo "id" e il valore della chiave di partizione siano aggiunte all'elenco di elementi aggiornati.
2.9.1
- Aggiornato il grado di concorrenza iniziale a 1 e aggiunti i log di debug per il mini-batch.