DataLakeFileClient Clase
- java.
lang. Object - com.
azure. storage. file. datalake. DataLakePathClient - com.
azure. storage. file. datalake. DataLakeFileClient
- com.
- com.
public class DataLakeFileClient
extends DataLakePathClient
Esta clase proporciona un cliente que contiene operaciones de archivo para Azure Storage Data Lake. Las operaciones proporcionadas por este cliente incluyen crear un archivo, eliminar un archivo, cambiar el nombre de un archivo, establecer metadatos y encabezados http, establecer y recuperar el control de acceso, obtener propiedades, leer un archivo y anexar y vaciar datos para escribir en un archivo.
Se crea una instancia de este cliente a través DataLakePathClientBuilder de o se recupera a través de getFileClient(String fileName).
Consulte Azure Docs para más información.
Resumen del método
Métodos heredados de DataLakePathClient
Métodos heredados de java.lang.Object
Detalles del método
append
public void append(BinaryData data, long fileOffset)
Anexa datos al recurso especificado para vaciarlos (escritos) más adelante mediante una llamada al vaciado.
Ejemplos de código
client.append(binaryData, offset);
System.out.println("Append data completed");
Para más información, consulte Azure Docs.
Parameters:
append
public void append(InputStream data, long fileOffset, long length)
Anexa datos al recurso especificado para vaciarlos (escritos) más adelante mediante una llamada al vaciado.
Ejemplos de código
client.append(data, offset, length);
System.out.println("Append data completed");
Para más información, consulte Azure Docs.
Parameters:
appendWithResponse
public Response
Anexa datos al recurso especificado para vaciarlos (escritos) más adelante mediante una llamada al vaciado.
Ejemplos de código
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
Response<Void> response = client.appendWithResponse(binaryData, offset, contentMd5, leaseId, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
appendWithResponse
public Response
Anexa datos al recurso especificado para vaciarlos (escritos) más adelante mediante una llamada al vaciado.
Ejemplos de código
BinaryData binaryData = BinaryData.fromStream(data, length);
FileRange range = new FileRange(1024, 2048L);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
.setLeaseId(leaseId)
.setContentHash(contentMd5)
.setFlush(true);
Response<Void> response = client.appendWithResponse(binaryData, offset, appendOptions, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
appendWithResponse
public Response
Anexa datos al recurso especificado para vaciarlos (escritos) más adelante mediante una llamada al vaciado.
Ejemplos de código
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
Response<Void> response = client.appendWithResponse(data, offset, length, contentMd5, leaseId, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
appendWithResponse
public Response
Anexa datos al recurso especificado para vaciarlos (escritos) más adelante mediante una llamada al vaciado.
Ejemplos de código
FileRange range = new FileRange(1024, 2048L);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
.setLeaseId(leaseId)
.setContentHash(contentMd5)
.setFlush(true);
Response<Void> response = client.appendWithResponse(data, offset, length, appendOptions, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
delete
public void delete()
Elimina un archivo.
Ejemplos de código
client.delete();
System.out.println("Delete request completed");
Para más información, consulte Azure Docs.
deleteIfExists
public boolean deleteIfExists()
Elimina un archivo si existe.
Ejemplos de código
client.deleteIfExists();
System.out.println("Delete request completed");
Para más información, consulte Azure Docs.
Overrides:
DataLakeFileClient.deleteIfExists()Returns:
true
si el archivo se elimina correctamente, false
si el archivo no existe.deleteIfExistsWithResponse
public Response
Elimina un archivo si existe.
Ejemplos de código
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
DataLakePathDeleteOptions options = new DataLakePathDeleteOptions().setIsRecursive(false)
.setRequestConditions(requestConditions);
Response<Boolean> response = client.deleteIfExistsWithResponse(options, timeout, new Context(key1, value1));
if (response.getStatusCode() == 404) {
System.out.println("Does not exist.");
} else {
System.out.printf("Delete completed with status %d%n", response.getStatusCode());
}
Para más información, consulte Azure Docs.
Overrides:
DataLakeFileClient.deleteIfExistsWithResponse(DataLakePathDeleteOptions options, Duration timeout, Context context)Parameters:
Returns:
deleteWithResponse
public Response
Elimina un archivo.
Ejemplos de código
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
client.deleteWithResponse(requestConditions, timeout, new Context(key1, value1));
System.out.println("Delete request completed");
Para más información, consulte Azure Docs.
Parameters:
Returns:
flush
@Deprecated
public PathInfo flush(long position)
Obsoleto
Vacía los datos (escrituras) previamente anexados al archivo a través de una llamada para anexar. Los datos cargados anteriormente deben ser contiguos.
De forma predeterminada, este método no sobrescribirá los datos existentes.
Ejemplos de código
client.flush(position);
System.out.println("Flush data completed");
Para más información, consulte Azure Docs.
Parameters:
Returns:
flush
public PathInfo flush(long position, boolean overwrite)
Vacía los datos (escrituras) previamente anexados al archivo a través de una llamada para anexar. Los datos cargados anteriormente deben ser contiguos.
Ejemplos de código
boolean overwrite = true;
client.flush(position, overwrite);
System.out.println("Flush data completed");
Para más información, consulte Azure Docs.
Parameters:
Returns:
flushWithResponse
public Response
Vacía (escribe) los datos previamente anexados al archivo a través de una llamada a append. Los datos cargados anteriormente deben ser contiguos.
Ejemplos de código
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
boolean retainUncommittedData = false;
boolean close = false;
PathHttpHeaders httpHeaders = new PathHttpHeaders()
.setContentLanguage("en-US")
.setContentType("binary");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
Response<PathInfo> response = client.flushWithResponse(position, retainUncommittedData, close, httpHeaders,
requestConditions, timeout, new Context(key1, value1));
System.out.printf("Flush data completed with status %d%n", response.getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
flushWithResponse
public Response
Vacía (escribe) los datos previamente anexados al archivo a través de una llamada a append. Los datos cargados anteriormente deben ser contiguos.
Ejemplos de código
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
boolean retainUncommittedData = false;
boolean close = false;
PathHttpHeaders httpHeaders = new PathHttpHeaders()
.setContentLanguage("en-US")
.setContentType("binary");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
Integer leaseDuration = 15;
DataLakeFileFlushOptions flushOptions = new DataLakeFileFlushOptions()
.setUncommittedDataRetained(retainUncommittedData)
.setClose(close)
.setPathHttpHeaders(httpHeaders)
.setRequestConditions(requestConditions)
.setLeaseAction(LeaseAction.ACQUIRE)
.setLeaseDuration(leaseDuration)
.setProposedLeaseId(leaseId);
Response<PathInfo> response = client.flushWithResponse(position, flushOptions, timeout,
new Context(key1, value1));
System.out.printf("Flush data completed with status %d%n", response.getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
getCustomerProvidedKeyClient
public DataLakeFileClient getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)
Crea un nuevo DataLakeFileClient con el customerProvidedKey
especificado.
Overrides:
DataLakeFileClient.getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)Parameters:
null
para que no use ninguna clave proporcionada por el cliente.
Returns:
customerProvidedKey
.getFileName
public String getFileName()
Obtiene el nombre de este archivo, no incluida su ruta de acceso completa.
Returns:
getFilePath
public String getFilePath()
Obtiene la ruta de acceso de este archivo, sin incluir el nombre del propio recurso.
Returns:
getFileUrl
public String getFileUrl()
Obtiene la dirección URL del archivo representado por este cliente en el servicio Data Lake.
Returns:
getOutputStream
public OutputStream getOutputStream()
Crea y abre un flujo de salida para escribir datos en el archivo. Si el archivo ya existe en el servicio, se sobrescribirá.
Returns:
getOutputStream
public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options)
Crea y abre un flujo de salida para escribir datos en el archivo. Si el archivo ya existe en el servicio, se sobrescribirá.
Para evitar sobrescribir, pase "*" a setIfNoneMatch(String ifNoneMatch).
Parameters:
Returns:
getOutputStream
public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options, Context context)
Crea y abre un flujo de salida para escribir datos en el archivo. Si el archivo ya existe en el servicio, se sobrescribirá.
Para evitar sobrescribir, pase "*" a setIfNoneMatch(String ifNoneMatch).
Parameters:
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream()
Abre un flujo de entrada de archivo para descargar el archivo. Bloqueos en ETags.
DataLakeFileOpenInputStreamResult inputStream = client.openInputStream();
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options)
Abre un flujo de entrada de archivo para descargar el intervalo especificado del archivo. El valor predeterminado es bloquear ETag si no se especifica la opción .
DataLakeFileInputStreamOptions options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
.setRequestConditions(new DataLakeRequestConditions());
DataLakeFileOpenInputStreamResult streamResult = client.openInputStream(options);
Parameters:
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options, Context context)
Abre un flujo de entrada de archivo para descargar el intervalo especificado del archivo. El valor predeterminado es bloquear ETag si no se especifica la opción .
options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
.setRequestConditions(new DataLakeRequestConditions());
DataLakeFileOpenInputStreamResult stream = client.openInputStream(options, new Context(key1, value1));
Parameters:
Returns:
openQueryInputStream
public InputStream openQueryInputStream(String expression)
Abre un flujo de entrada para consultar el archivo.
Para más información, consulte Azure Docs.
Ejemplos de código
String expression = "SELECT * from BlobStorage";
InputStream inputStream = client.openQueryInputStream(expression);
// Now you can read from the input stream like you would normally.
Parameters:
Returns:
InputStream
que representa la secuencia que se va a usar para leer la respuesta de la consulta.openQueryInputStreamWithResponse
public Response
Abre un flujo de entrada para consultar el archivo.
Para más información, consulte Azure Docs.
Ejemplos de código
String expression = "SELECT * from BlobStorage";
FileQuerySerialization input = new FileQueryDelimitedSerialization()
.setColumnSeparator(',')
.setEscapeChar('\n')
.setRecordSeparator('\n')
.setHeadersPresent(true)
.setFieldQuote('"');
FileQuerySerialization output = new FileQueryJsonSerialization()
.setRecordSeparator('\n');
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId("leaseId");
Consumer<FileQueryError> errorConsumer = System.out::println;
Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
+ progress.getBytesScanned());
FileQueryOptions queryOptions = new FileQueryOptions(expression)
.setInputSerialization(input)
.setOutputSerialization(output)
.setRequestConditions(requestConditions)
.setErrorConsumer(errorConsumer)
.setProgressConsumer(progressConsumer);
InputStream inputStream = client.openQueryInputStreamWithResponse(queryOptions).getValue();
// Now you can read from the input stream like you would normally.
Parameters:
Returns:
InputStream
objeto que representa la secuencia que se va a usar para leer la respuesta de la consulta.query
public void query(OutputStream stream, String expression)
Consulta un archivo completo en un flujo de salida.
Para más información, consulte Azure Docs.
Ejemplos de código
ByteArrayOutputStream queryData = new ByteArrayOutputStream();
String expression = "SELECT * from BlobStorage";
client.query(queryData, expression);
System.out.println("Query completed.");
Parameters:
queryWithResponse
public FileQueryResponse queryWithResponse(FileQueryOptions queryOptions, Duration timeout, Context context)
Consulta un archivo completo en un flujo de salida.
Para más información, consulte Azure Docs.
Ejemplos de código
ByteArrayOutputStream queryData = new ByteArrayOutputStream();
String expression = "SELECT * from BlobStorage";
FileQueryJsonSerialization input = new FileQueryJsonSerialization()
.setRecordSeparator('\n');
FileQueryDelimitedSerialization output = new FileQueryDelimitedSerialization()
.setEscapeChar('\0')
.setColumnSeparator(',')
.setRecordSeparator('\n')
.setFieldQuote('\'')
.setHeadersPresent(true);
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions().setLeaseId(leaseId);
Consumer<FileQueryError> errorConsumer = System.out::println;
Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
+ progress.getBytesScanned());
FileQueryOptions queryOptions = new FileQueryOptions(expression, queryData)
.setInputSerialization(input)
.setOutputSerialization(output)
.setRequestConditions(requestConditions)
.setErrorConsumer(errorConsumer)
.setProgressConsumer(progressConsumer);
System.out.printf("Query completed with status %d%n",
client.queryWithResponse(queryOptions, timeout, new Context(key1, value1))
.getStatusCode());
Parameters:
Returns:
read
public void read(OutputStream stream)
Lee todo el archivo en un flujo de salida.
Ejemplos de código
client.read(new ByteArrayOutputStream());
System.out.println("Download completed.");
Para más información, consulte Azure Docs.
Parameters:
readToFile
public PathProperties readToFile(String filePath)
Lee todo el archivo en un archivo especificado por la ruta de acceso.
El archivo se creará y no debe existir, si el archivo ya existe, se producirá una FileAlreadyExistsException excepción .
Ejemplos de código
client.readToFile(file);
System.out.println("Completed download to file");
Para más información, consulte Azure Docs.
Parameters:
Returns:
readToFile
public PathProperties readToFile(String filePath, boolean overwrite)
Lee todo el archivo en un archivo especificado por la ruta de acceso.
Si la sobrescritura se establece en false, se creará el archivo y no debe existir, si el archivo ya existe, se producirá una FileAlreadyExistsException excepción .
Ejemplos de código
boolean overwrite = false; // Default value
client.readToFile(file, overwrite);
System.out.println("Completed download to file");
Para más información, consulte Azure Docs.
Parameters:
Returns:
readToFileWithResponse
public Response
Lee todo el archivo en un archivo especificado por la ruta de acceso.
De forma predeterminada, el archivo se creará y no debe existir, si el archivo ya existe, se producirá un FileAlreadyExistsException . Para invalidar este comportamiento, proporcione lo adecuado. OpenOptions
Ejemplos de código
FileRange fileRange = new FileRange(1024, 2048L);
DownloadRetryOptions downloadRetryOptions = new DownloadRetryOptions().setMaxRetryRequests(5);
Set<OpenOption> openOptions = new HashSet<>(Arrays.asList(StandardOpenOption.CREATE_NEW,
StandardOpenOption.WRITE, StandardOpenOption.READ)); // Default options
client.readToFileWithResponse(file, fileRange, new ParallelTransferOptions().setBlockSizeLong(4L * Constants.MB),
downloadRetryOptions, null, false, openOptions, timeout, new Context(key2, value2));
System.out.println("Completed download to file");
Para más información, consulte Azure Docs.
Parameters:
Returns:
readWithResponse
public FileReadResponse readWithResponse(OutputStream stream, FileRange range, DownloadRetryOptions options, DataLakeRequestConditions requestConditions, boolean getRangeContentMd5, Duration timeout, Context context)
Lee un intervalo de bytes de un archivo en un flujo de salida.
Ejemplos de código
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
System.out.printf("Download completed with status %d%n",
client.readWithResponse(new ByteArrayOutputStream(), range, options, null, false,
timeout, new Context(key2, value2)).getStatusCode());
Para más información, consulte Azure Docs.
Parameters:
Returns:
rename
public DataLakeFileClient rename(String destinationFileSystem, String destinationPath)
Mueve el archivo a otra ubicación dentro del sistema de archivos. Para más información, consulte Azure Docs.
Ejemplos de código
DataLakeDirectoryAsyncClient renamedClient = client.rename(fileSystemName, destinationPath).block();
System.out.println("Directory Client has been renamed");
Parameters:
null
para el sistema de archivos actual.
Returns:
renameWithResponse
public Response
Mueve el archivo a otra ubicación dentro del sistema de archivos. Para más información, consulte Azure Docs.
Ejemplos de código
DataLakeRequestConditions sourceRequestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
DataLakeRequestConditions destinationRequestConditions = new DataLakeRequestConditions();
DataLakeFileClient newRenamedClient = client.renameWithResponse(fileSystemName, destinationPath,
sourceRequestConditions, destinationRequestConditions, timeout, new Context(key1, value1)).getValue();
System.out.println("Directory Client has been renamed");
Parameters:
null
para el sistema de archivos actual.
Returns:
scheduleDeletion
public void scheduleDeletion(FileScheduleDeletionOptions options)
Programa el archivo para su eliminación.
Ejemplos de código
FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
client.scheduleDeletion(options);
System.out.println("File deletion has been scheduled");
Parameters:
scheduleDeletionWithResponse
public Response
Programa el archivo para su eliminación.
Ejemplos de código
FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
Context context = new Context("key", "value");
client.scheduleDeletionWithResponse(options, timeout, context);
System.out.println("File deletion has been scheduled");
Parameters:
Returns:
upload
public PathInfo upload(BinaryData data)
Crea un nuevo archivo. De forma predeterminada, este método no sobrescribirá un archivo existente.
Ejemplos de código
try {
client.upload(binaryData);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(BinaryData data, boolean overwrite)
Crea un nuevo archivo o actualiza el contenido de un archivo existente.
Ejemplos de código
try {
boolean overwrite = false;
client.upload(binaryData, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(InputStream data, long length)
Crea un nuevo archivo. De forma predeterminada, este método no sobrescribirá un archivo existente.
Ejemplos de código
try {
client.upload(data, length);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(InputStream data, long length, boolean overwrite)
Crea un nuevo archivo o actualiza el contenido de un archivo existente.
Ejemplos de código
try {
boolean overwrite = false;
client.upload(data, length, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
uploadFromFile
public void uploadFromFile(String filePath)
Crea un archivo, con el contenido del archivo especificado. De forma predeterminada, este método no sobrescribirá un archivo existente.
Ejemplos de código
try {
client.uploadFromFile(filePath);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFile
public void uploadFromFile(String filePath, boolean overwrite)
Crea un archivo, con el contenido del archivo especificado.
Ejemplos de código
try {
boolean overwrite = false;
client.uploadFromFile(filePath, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFile
public void uploadFromFile(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map
Crea un archivo, con el contenido del archivo especificado.
Para evitar sobrescribir, pase "*" a setIfNoneMatch(String ifNoneMatch).
Ejemplos de código
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
client.uploadFromFile(filePath, parallelTransferOptions, headers, metadata, requestConditions, timeout);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFileWithResponse
public Response
Crea un archivo, con el contenido del archivo especificado.
Para evitar sobrescribir, pase "*" a setIfNoneMatch(String ifNoneMatch).
Ejemplos de código
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
Response<PathInfo> response = client.uploadFromFileWithResponse(filePath, parallelTransferOptions, headers,
metadata, requestConditions, timeout, new Context("key", "value"));
System.out.printf("Upload from file succeeded with status %d%n", response.getStatusCode());
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
uploadWithResponse
public Response
Crea un nuevo archivo. Para evitar sobrescribir, pase "*" a setIfNoneMatch(String ifNoneMatch).
Ejemplos de código
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
client.uploadWithResponse(new FileParallelUploadOptions(data, length)
.setParallelTransferOptions(parallelTransferOptions).setHeaders(headers)
.setMetadata(metadata).setRequestConditions(requestConditions)
.setPermissions("permissions").setUmask("umask"), timeout, new Context("key", "value"));
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
Se aplica a
Azure SDK for Java