Dela via


Java massexekutorbibliotek: Ladda ned information

GÄLLER FÖR: NoSQL

Viktigt!

Det här är inte den senaste Java Bulk Executor för Azure Cosmos DB! Överväg att använda Azure Cosmos DB Java SDK v4 för att utföra massåtgärder. Om du vill uppgradera följer du anvisningarna i guiden Migrera till Azure Cosmos DB Java SDK v4 och guiden Reactor vs RxJava .

Viktigt!

Den 29 februari 2024 dras Azure Cosmos DB Sync Java SDK v2.x tillbaka. SDK och alla program som använder SDK inklusive Massexekutor fortsätter att fungera. Azure Cosmos DB upphör helt enkelt att tillhandahålla ytterligare underhåll och support för denna SDK. Vi rekommenderar att du följer anvisningarna ovan för att migrera till Azure Cosmos DB Java SDK v4.

Länk/anteckningar
Beskrivning Med massexekutorbiblioteket kan klientprogram utföra massåtgärder på Azure Cosmos DB-konton. massexekutorbiblioteket innehåller BulkImport- och BulkUpdate-namnområden. BulkImport-modulen kan massinmata dokument på ett optimerat sätt så att dataflödet som etablerats för en samling används i största möjliga utsträckning. BulkUpdate-modulen kan massuppdatering av befintliga data i Azure Cosmos DB-containrar som korrigeringar.
SDK-nedladdning Maven
Massexekutorbibliotek i GitHub GitHub
API-dokumentation Referensdokumentation för Java API
Kom igång Kom igång med Java SDK för massexekutorbiblioteket
Minsta körtid som stöds Java Development Kit (JDK) 7+

Viktig information

2.12.3

  • Åtgärda återförsöksprincipen när GoneException den är inlindad IllegalStateException – den här ändringen är nödvändig för att se till att Gateway-cachen uppdateras på 410 så att Spark-anslutningsappen (för Spark 2.4) kan använda en anpassad återförsöksprincip för att tillåta att frågor lyckas under partitionsdelningar

2.12.2

  • Åtgärda ett problem som resulterar i att dokument inte alltid importeras på tillfälliga fel.

2.12.1

  • Uppgradera för att använda den senaste Versionen av Azure Cosmos DB Core SDK.

2.12.0

  • Förbättra hanteringen av RU-budgeten som tillhandahålls via Spark Connector för massdrift. En första massimport utförs en gång från Spark-anslutningsappen med en baseBatchSize och RU-förbrukningen för batchimporten ovan samlas in. En miniBatchSizeAdjustmentFactor beräknas baserat på ru-förbrukningen ovan, och minibatchstorleken justeras baserat på detta. Baserat på förfluten tid och förbrukad RU för varje batchimport beräknas en vilotid för att begränsa RU-förbrukningen per sekund och används för att pausa tråden före nästa batchimport.

2.11.0

  • Åtgärda ett fel som förhindrar massuppdateringar när du använder en kapslad partitionsnyckel

2.10.0

  • Korrigering för DocumentAnalyzer.java att extrahera kapslade partitionsnyckelvärden från json korrekt.

2.9.4

  • Lägg till funktioner i BulkDelete-åtgärder för att försöka igen vid specifika fel och returnera även en lista över fel till användaren som kan försöka igen.

2.9.3

  • Uppdatering för Azure Cosmos DB SDK version 2.4.7.

2.9.2

  • Korrigering för "mergeAll" för att fortsätta på "id" och partitionsnyckelvärde så att alla korrigerade dokumentegenskaper som placeras efter "ID" och partitionsnyckelvärdet läggs till i den uppdaterade objektlistan.

2.9.1

  • Uppdatera startgraden av samtidighet till 1 och lade till felsökningsloggar för minibatch.