Freigeben über


DataLakeFileClient Klasse

public class DataLakeFileClient
extends DataLakePathClient

Diese Klasse stellt einen Client bereit, der Dateivorgänge für Azure Storage Data Lake enthält. Zu den von diesem Client bereitgestellten Vorgängen gehören das Erstellen einer Datei, das Löschen einer Datei, das Umbenennen einer Datei, das Festlegen von Metadaten und HTTP-Headern, das Festlegen und Abrufen der Zugriffssteuerung, das Abrufen von Eigenschaften, das Lesen einer Datei sowie das Anfügen und Leeren von Daten zum Schreiben in eine Datei.

Dieser Client wird über DataLakePathClientBuilder instanziiert oder über getFileClient(String fileName)abgerufen.

Weitere Informationen finden Sie in der Azure-Dokumentation .

Methodenzusammenfassung

Modifizierer und Typ Methode und Beschreibung
void append(BinaryData data, long fileOffset)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

void append(InputStream data, long fileOffset, long length)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Response<Void> appendWithResponse(BinaryData data, long fileOffset, byte[] contentMd5, String leaseId, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Response<Void> appendWithResponse(BinaryData data, long fileOffset, DataLakeFileAppendOptions appendOptions, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Response<Void> appendWithResponse(InputStream data, long fileOffset, long length, byte[] contentMd5, String leaseId, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Response<Void> appendWithResponse(InputStream data, long fileOffset, long length, DataLakeFileAppendOptions appendOptions, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

void delete()

Löscht eine Datei.

boolean deleteIfExists()

Löscht eine Datei, sofern sie vorhanden ist.

Response<Boolean> deleteIfExistsWithResponse(DataLakePathDeleteOptions options, Duration timeout, Context context)

Löscht eine Datei, sofern sie vorhanden ist.

Response<Void> deleteWithResponse(DataLakeRequestConditions requestConditions, Duration timeout, Context context)

Löscht eine Datei.

PathInfo flush(long position)

Als veraltet markiert

Lesen Sie stattdessen die Informationen unter flush(long position, boolean overwrite).

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden.

PathInfo flush(long position, boolean overwrite)

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden.

Response<PathInfo> flushWithResponse(long position, boolean retainUncommittedData, boolean close, PathHttpHeaders httpHeaders, DataLakeRequestConditions requestConditions, Duration timeout, Context context)

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden.

Response<PathInfo> flushWithResponse(long position, DataLakeFileFlushOptions flushOptions, Duration timeout, Context context)

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden.

DataLakeFileClient getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)

Erstellt einen neuen DataLakeFileClient mit dem angegebenen customerProvidedKey.

String getFileName()

Ruft den Namen dieser Datei ab, ohne den vollständigen Pfad zu enthalten.

String getFilePath()

Ruft den Pfad dieser Datei ab, ohne den Namen der Ressource selbst.

String getFileUrl()

Ruft die URL der Datei ab, die von diesem Client im Data Lake-Dienst dargestellt wird.

OutputStream getOutputStream()

Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben.

OutputStream getOutputStream(DataLakeFileOutputStreamOptions options)

Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben.

OutputStream getOutputStream(DataLakeFileOutputStreamOptions options, Context context)

Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben.

DataLakeFileOpenInputStreamResult openInputStream()

Öffnet einen Dateieingabestream, um die Datei herunterzuladen.

DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options)

Öffnet einen Dateieingabestream, um den angegebenen Bereich der Datei herunterzuladen.

DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options, Context context)

Öffnet einen Dateieingabestream, um den angegebenen Bereich der Datei herunterzuladen.

InputStream openQueryInputStream(String expression)

Öffnet einen Eingabestream, um die Datei abzufragen.

Response<InputStream> openQueryInputStreamWithResponse(FileQueryOptions queryOptions)

Öffnet einen Eingabestream, um die Datei abzufragen.

void query(OutputStream stream, String expression)

Fragt eine gesamte Datei in einen Ausgabedatenstrom ab.

FileQueryResponse queryWithResponse(FileQueryOptions queryOptions, Duration timeout, Context context)

Fragt eine gesamte Datei in einen Ausgabedatenstrom ab.

void read(OutputStream stream)

Liest die gesamte Datei in einen Ausgabestream.

PathProperties readToFile(String filePath)

Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.

PathProperties readToFile(String filePath, boolean overwrite)

Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.

Response<PathProperties> readToFileWithResponse(String filePath, FileRange range, ParallelTransferOptions parallelTransferOptions, DownloadRetryOptions downloadRetryOptions, DataLakeRequestConditions requestConditions, boolean rangeGetContentMd5, Set<OpenOption> openOptions, Duration timeout, Context context)

Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.

FileReadResponse readWithResponse(OutputStream stream, FileRange range, DownloadRetryOptions options, DataLakeRequestConditions requestConditions, boolean getRangeContentMd5, Duration timeout, Context context)

Liest einen Bytebereich aus einer Datei in einen Ausgabestream.

DataLakeFileClient rename(String destinationFileSystem, String destinationPath)

Verschiebt die Datei an einen anderen Speicherort im Dateisystem.

Response<DataLakeFileClient> renameWithResponse(String destinationFileSystem, String destinationPath, DataLakeRequestConditions sourceRequestConditions, DataLakeRequestConditions destinationRequestConditions, Duration timeout, Context context)

Verschiebt die Datei an einen anderen Speicherort im Dateisystem.

void scheduleDeletion(FileScheduleDeletionOptions options)

Plant das Löschen der Datei.

Response<Void> scheduleDeletionWithResponse(FileScheduleDeletionOptions options, Duration timeout, Context context)

Plant das Löschen der Datei.

PathInfo upload(BinaryData data)

Erstellt eine neue Datei.

PathInfo upload(BinaryData data, boolean overwrite)

Erstellt eine neue Datei oder aktualisiert den Inhalt einer vorhandenen Datei.

PathInfo upload(InputStream data, long length)

Erstellt eine neue Datei.

PathInfo upload(InputStream data, long length, boolean overwrite)

Erstellt eine neue Datei oder aktualisiert den Inhalt einer vorhandenen Datei.

void uploadFromFile(String filePath)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

void uploadFromFile(String filePath, boolean overwrite)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

void uploadFromFile(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map<String,String> metadata, DataLakeRequestConditions requestConditions, Duration timeout)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

Response<PathInfo> uploadFromFileWithResponse(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map<String,String> metadata, DataLakeRequestConditions requestConditions, Duration timeout, Context context)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

Response<PathInfo> uploadWithResponse(FileParallelUploadOptions options, Duration timeout, Context context)

Erstellt eine neue Datei.

Geerbte Methoden von DataLakePathClient

Geerbte Methoden von java.lang.Object

Details zur Methode

append

public void append(BinaryData data, long fileOffset)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Codebeispiele

client.append(binaryData, offset);
 System.out.println("Append data completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

data - Die Daten, die in die Datei geschrieben werden sollen.
fileOffset - Die Position, an der die Daten angefügt werden sollen.

append

public void append(InputStream data, long fileOffset, long length)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Codebeispiele

client.append(data, offset, length);
 System.out.println("Append data completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

data - Die Daten, die in die Datei geschrieben werden sollen.
fileOffset - Die Position, an der die Daten angefügt werden sollen.
length - Die genaue Länge der Daten.

appendWithResponse

public Response appendWithResponse(BinaryData data, long fileOffset, byte[] contentMd5, String leaseId, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Codebeispiele

FileRange range = new FileRange(1024, 2048L);
 DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
 byte[] contentMd5 = new byte[0]; // Replace with valid md5

 Response<Void> response = client.appendWithResponse(binaryData, offset, contentMd5, leaseId, timeout,
     new Context(key1, value1));
 System.out.printf("Append data completed with status %d%n", response.getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

data - Die Daten, die in die Datei geschrieben werden sollen.
fileOffset - Die Position, an der die Daten angefügt werden sollen.
contentMd5 - Ein MD5-Hash des Inhalts der Daten. Wenn angegeben, berechnet der Dienst den MD5 der empfangenen Daten und schlägt die Anforderung fehl, wenn sie nicht mit dem bereitgestellten MD5 übereinstimmt.
leaseId - Durch Festlegen der Lease-ID schlagen Anforderungen fehl, wenn die bereitgestellte Lease nicht mit der aktiven Lease für die Datei übereinstimmt.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwortsignal-Vervollständigung.

appendWithResponse

public Response appendWithResponse(BinaryData data, long fileOffset, DataLakeFileAppendOptions appendOptions, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Codebeispiele

BinaryData binaryData = BinaryData.fromStream(data, length);
 FileRange range = new FileRange(1024, 2048L);
 byte[] contentMd5 = new byte[0]; // Replace with valid md5
 DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
     .setLeaseId(leaseId)
     .setContentHash(contentMd5)
     .setFlush(true);
 Response<Void> response = client.appendWithResponse(binaryData, offset, appendOptions, timeout,
     new Context(key1, value1));
 System.out.printf("Append data completed with status %d%n", response.getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

data - Die Daten, die in die Datei geschrieben werden sollen.
fileOffset - Die Position, an der die Daten angefügt werden sollen.
appendOptions - DataLakeFileAppendOptions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwortsignal-Vervollständigung.

appendWithResponse

public Response appendWithResponse(InputStream data, long fileOffset, long length, byte[] contentMd5, String leaseId, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Codebeispiele

FileRange range = new FileRange(1024, 2048L);
 DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
 byte[] contentMd5 = new byte[0]; // Replace with valid md5

 Response<Void> response = client.appendWithResponse(data, offset, length, contentMd5, leaseId, timeout,
     new Context(key1, value1));
 System.out.printf("Append data completed with status %d%n", response.getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

data - Die Daten, die in die Datei geschrieben werden sollen.
fileOffset - Die Position, an der die Daten angefügt werden sollen.
length - Die genaue Länge der Daten.
contentMd5 - Ein MD5-Hash des Inhalts der Daten. Wenn angegeben, berechnet der Dienst den MD5 der empfangenen Daten und schlägt die Anforderung fehl, wenn sie nicht mit dem bereitgestellten MD5 übereinstimmt.
leaseId - Durch Festlegen der Lease-ID schlagen Anforderungen fehl, wenn die bereitgestellte Lease nicht mit der aktiven Lease für die Datei übereinstimmt.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwortsignal-Vervollständigung.

appendWithResponse

public Response appendWithResponse(InputStream data, long fileOffset, long length, DataLakeFileAppendOptions appendOptions, Duration timeout, Context context)

Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.

Codebeispiele

FileRange range = new FileRange(1024, 2048L);
 byte[] contentMd5 = new byte[0]; // Replace with valid md5
 DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
     .setLeaseId(leaseId)
     .setContentHash(contentMd5)
     .setFlush(true);
 Response<Void> response = client.appendWithResponse(data, offset, length, appendOptions, timeout,
     new Context(key1, value1));
 System.out.printf("Append data completed with status %d%n", response.getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

data - Die Daten, die in die Datei geschrieben werden sollen.
fileOffset - Die Position, an der die Daten angefügt werden sollen.
length - Die genaue Länge der Daten.
appendOptions - DataLakeFileAppendOptions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwortsignal-Vervollständigung.

delete

public void delete()

Löscht eine Datei.

Codebeispiele

client.delete();
 System.out.println("Delete request completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

deleteIfExists

public boolean deleteIfExists()

Löscht eine Datei, sofern sie vorhanden ist.

Codebeispiele

client.deleteIfExists();
 System.out.println("Delete request completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Overrides:

DataLakeFileClient.deleteIfExists()

Returns:

true , wenn die Datei erfolgreich gelöscht wurde, false wenn die Datei nicht vorhanden ist.

deleteIfExistsWithResponse

public Response deleteIfExistsWithResponse(DataLakePathDeleteOptions options, Duration timeout, Context context)

Löscht eine Datei, sofern sie vorhanden ist.

Codebeispiele

DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId);
 DataLakePathDeleteOptions options = new DataLakePathDeleteOptions().setIsRecursive(false)
     .setRequestConditions(requestConditions);

 Response<Boolean> response = client.deleteIfExistsWithResponse(options, timeout, new Context(key1, value1));
 if (response.getStatusCode() == 404) {
     System.out.println("Does not exist.");
 } else {
     System.out.printf("Delete completed with status %d%n", response.getStatusCode());
 }

Weitere Informationen finden Sie in der Azure-Dokumentation.

Overrides:

DataLakeFileClient.deleteIfExistsWithResponse(DataLakePathDeleteOptions options, Duration timeout, Context context)

Parameters:

timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die status Code und HTTP-Header enthält. Wenn Response<T>'s status Code 200 ist, wurde die Datei erfolgreich gelöscht. Wenn status Code 404 ist, ist die Datei nicht vorhanden.

deleteWithResponse

public Response deleteWithResponse(DataLakeRequestConditions requestConditions, Duration timeout, Context context)

Löscht eine Datei.

Codebeispiele

DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId);

 client.deleteWithResponse(requestConditions, timeout, new Context(key1, value1));
 System.out.println("Delete request completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

requestConditions - DataLakeRequestConditions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die status Code und HTTP-Header enthält.

flush

@Deprecated
public PathInfo flush(long position)

Als veraltet markiert

Lesen Sie stattdessen die Informationen unter flush(long position, boolean overwrite).

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.

Standardmäßig überschreibt diese Methode vorhandene Daten nicht.

Codebeispiele

client.flush(position);
 System.out.println("Flush data completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

position - Die Länge der Datei, nachdem alle Daten geschrieben wurden.

Returns:

Informationen zur erstellten Ressource.

flush

public PathInfo flush(long position, boolean overwrite)

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.

Codebeispiele

boolean overwrite = true;
 client.flush(position, overwrite);
 System.out.println("Flush data completed");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

position - Die Länge der Datei, nachdem alle Daten geschrieben wurden.
overwrite - Ob überschrieben werden soll, sollten Daten in der Datei vorhanden sein.

Returns:

Informationen zur erstellten Ressource.

flushWithResponse

public Response flushWithResponse(long position, boolean retainUncommittedData, boolean close, PathHttpHeaders httpHeaders, DataLakeRequestConditions requestConditions, Duration timeout, Context context)

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.

Codebeispiele

FileRange range = new FileRange(1024, 2048L);
 DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
 byte[] contentMd5 = new byte[0]; // Replace with valid md5
 boolean retainUncommittedData = false;
 boolean close = false;
 PathHttpHeaders httpHeaders = new PathHttpHeaders()
     .setContentLanguage("en-US")
     .setContentType("binary");
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId);

 Response<PathInfo> response = client.flushWithResponse(position, retainUncommittedData, close, httpHeaders,
     requestConditions, timeout, new Context(key1, value1));
 System.out.printf("Flush data completed with status %d%n", response.getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

position - Die Länge der Datei, nachdem alle Daten geschrieben wurden.
retainUncommittedData - Gibt an, ob nicht festgeschriebene Daten nach dem Vorgang aufbewahrt werden sollen.
close - Gibt an, ob ein ausgelöstes Dateiänderungsereignis eine Vervollständigung (true) oder eine Änderung (false) angibt.
httpHeaders - PathHttpHeaders
requestConditions - DataLakeRequestConditions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die die Informationen der erstellten Ressource enthält.

flushWithResponse

public Response flushWithResponse(long position, DataLakeFileFlushOptions flushOptions, Duration timeout, Context context)

Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.

Codebeispiele

FileRange range = new FileRange(1024, 2048L);
 DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
 byte[] contentMd5 = new byte[0]; // Replace with valid md5
 boolean retainUncommittedData = false;
 boolean close = false;
 PathHttpHeaders httpHeaders = new PathHttpHeaders()
     .setContentLanguage("en-US")
     .setContentType("binary");
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId);

 Integer leaseDuration = 15;

 DataLakeFileFlushOptions flushOptions = new DataLakeFileFlushOptions()
     .setUncommittedDataRetained(retainUncommittedData)
     .setClose(close)
     .setPathHttpHeaders(httpHeaders)
     .setRequestConditions(requestConditions)
     .setLeaseAction(LeaseAction.ACQUIRE)
     .setLeaseDuration(leaseDuration)
     .setProposedLeaseId(leaseId);

 Response<PathInfo> response = client.flushWithResponse(position, flushOptions, timeout,
     new Context(key1, value1));
 System.out.printf("Flush data completed with status %d%n", response.getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

position - Die Länge der Datei, nachdem alle Daten geschrieben wurden.
flushOptions - DataLakeFileFlushOptions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die die Informationen der erstellten Ressource enthält.

getCustomerProvidedKeyClient

public DataLakeFileClient getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)

Erstellt einen neuen DataLakeFileClient mit dem angegebenen customerProvidedKey.

Overrides:

DataLakeFileClient.getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)

Parameters:

customerProvidedKey - für CustomerProvidedKey das Blob übergeben null , um keinen vom Kunden bereitgestellten Schlüssel zu verwenden.

Returns:

a DataLakeFileClient mit dem angegebenen customerProvidedKey.

getFileName

public String getFileName()

Ruft den Namen dieser Datei ab, ohne den vollständigen Pfad zu enthalten.

Returns:

Der Name der Datei.

getFilePath

public String getFilePath()

Ruft den Pfad dieser Datei ab, ohne den Namen der Ressource selbst.

Returns:

Der Pfad der Datei.

getFileUrl

public String getFileUrl()

Ruft die URL der Datei ab, die von diesem Client im Data Lake-Dienst dargestellt wird.

Returns:

die URL.

getOutputStream

public OutputStream getOutputStream()

Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben. Wenn die Datei bereits im Dienst vorhanden ist, wird sie überschrieben.

Returns:

Die OutputStream , die zum Schreiben in die Datei verwendet werden kann.

getOutputStream

public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options)

Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben. Wenn die Datei bereits im Dienst vorhanden ist, wird sie überschrieben.

Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).

Parameters:

Returns:

Die OutputStream , die zum Schreiben in die Datei verwendet werden kann.

getOutputStream

public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options, Context context)

Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben. Wenn die Datei bereits im Dienst vorhanden ist, wird sie überschrieben.

Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).

Parameters:

context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Die OutputStream , die zum Schreiben in die Datei verwendet werden kann.

openInputStream

public DataLakeFileOpenInputStreamResult openInputStream()

Öffnet einen Dateieingabestream, um die Datei herunterzuladen. Sperren für ETags.

DataLakeFileOpenInputStreamResult inputStream = client.openInputStream();

Returns:

Ein InputStream -Objekt, das den Stream darstellt, der zum Lesen aus der Datei verwendet werden soll.

openInputStream

public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options)

Öffnet einen Dateieingabestream, um den angegebenen Bereich der Datei herunterzuladen. Standardmäßig wird die ETag-Sperrung verwendet, wenn die Option nicht angegeben ist.

DataLakeFileInputStreamOptions options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
     .setRequestConditions(new DataLakeRequestConditions());
 DataLakeFileOpenInputStreamResult streamResult = client.openInputStream(options);

Parameters:

Returns:

Ein DataLakeFileOpenInputStreamResult -Objekt, das den Stream enthält, der zum Lesen aus der Datei verwendet werden soll.

openInputStream

public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options, Context context)

Öffnet einen Dateieingabestream, um den angegebenen Bereich der Datei herunterzuladen. Standardmäßig wird die ETag-Sperrung verwendet, wenn die Option nicht angegeben ist.

options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
     .setRequestConditions(new DataLakeRequestConditions());
 DataLakeFileOpenInputStreamResult stream = client.openInputStream(options, new Context(key1, value1));

Parameters:

context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Ein DataLakeFileOpenInputStreamResult -Objekt, das den Stream enthält, der zum Lesen aus der Datei verwendet werden soll.

openQueryInputStream

public InputStream openQueryInputStream(String expression)

Öffnet einen Eingabestream, um die Datei abzufragen.

Weitere Informationen finden Sie in der Azure-Dokumentation.

Codebeispiele

String expression = "SELECT * from BlobStorage";
 InputStream inputStream = client.openQueryInputStream(expression);
 // Now you can read from the input stream like you would normally.

Parameters:

expression - Der Abfrageausdruck.

Returns:

Ein InputStream -Objekt, das den Stream darstellt, der zum Lesen der Abfrageantwort verwendet werden soll.

openQueryInputStreamWithResponse

public Response openQueryInputStreamWithResponse(FileQueryOptions queryOptions)

Öffnet einen Eingabestream, um die Datei abzufragen.

Weitere Informationen finden Sie in der Azure-Dokumentation.

Codebeispiele

String expression = "SELECT * from BlobStorage";
 FileQuerySerialization input = new FileQueryDelimitedSerialization()
     .setColumnSeparator(',')
     .setEscapeChar('\n')
     .setRecordSeparator('\n')
     .setHeadersPresent(true)
     .setFieldQuote('"');
 FileQuerySerialization output = new FileQueryJsonSerialization()
     .setRecordSeparator('\n');
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId("leaseId");
 Consumer<FileQueryError> errorConsumer = System.out::println;
 Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
     + progress.getBytesScanned());
 FileQueryOptions queryOptions = new FileQueryOptions(expression)
     .setInputSerialization(input)
     .setOutputSerialization(output)
     .setRequestConditions(requestConditions)
     .setErrorConsumer(errorConsumer)
     .setProgressConsumer(progressConsumer);

 InputStream inputStream = client.openQueryInputStreamWithResponse(queryOptions).getValue();
 // Now you can read from the input stream like you would normally.

Parameters:

queryOptions - FileQueryOptions.

Returns:

Eine Antwort, die status Code und HTTP-Header enthält, einschließlich eines InputStream Objekts, das den Stream darstellt, der zum Lesen der Abfrageantwort verwendet werden soll.

query

public void query(OutputStream stream, String expression)

Fragt eine gesamte Datei in einen Ausgabedatenstrom ab.

Weitere Informationen finden Sie in der Azure-Dokumentation.

Codebeispiele

ByteArrayOutputStream queryData = new ByteArrayOutputStream();
 String expression = "SELECT * from BlobStorage";
 client.query(queryData, expression);
 System.out.println("Query completed.");

Parameters:

stream - Ein ungleich NULL-instance OutputStream , in dem die heruntergeladenen Daten geschrieben werden.
expression - Der Abfrageausdruck.

queryWithResponse

public FileQueryResponse queryWithResponse(FileQueryOptions queryOptions, Duration timeout, Context context)

Fragt eine gesamte Datei in einen Ausgabedatenstrom ab.

Weitere Informationen finden Sie in der Azure-Dokumentation.

Codebeispiele

ByteArrayOutputStream queryData = new ByteArrayOutputStream();
 String expression = "SELECT * from BlobStorage";
 FileQueryJsonSerialization input = new FileQueryJsonSerialization()
     .setRecordSeparator('\n');
 FileQueryDelimitedSerialization output = new FileQueryDelimitedSerialization()
     .setEscapeChar('\0')
     .setColumnSeparator(',')
     .setRecordSeparator('\n')
     .setFieldQuote('\'')
     .setHeadersPresent(true);
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions().setLeaseId(leaseId);
 Consumer<FileQueryError> errorConsumer = System.out::println;
 Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
     + progress.getBytesScanned());
 FileQueryOptions queryOptions = new FileQueryOptions(expression, queryData)
     .setInputSerialization(input)
     .setOutputSerialization(output)
     .setRequestConditions(requestConditions)
     .setErrorConsumer(errorConsumer)
     .setProgressConsumer(progressConsumer);
 System.out.printf("Query completed with status %d%n",
     client.queryWithResponse(queryOptions, timeout, new Context(key1, value1))
         .getStatusCode());

Parameters:

queryOptions - FileQueryOptions.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die status Code und HTTP-Header enthält.

read

public void read(OutputStream stream)

Liest die gesamte Datei in einen Ausgabestream.

Codebeispiele

client.read(new ByteArrayOutputStream());
 System.out.println("Download completed.");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

stream - Ein ungleich NULL-instance OutputStream , in dem die heruntergeladenen Daten geschrieben werden.

readToFile

public PathProperties readToFile(String filePath)

Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.

Die Datei wird erstellt und darf nicht vorhanden sein, wenn die Datei bereits vorhanden ist, wird ein FileAlreadyExistsException ausgelöst.

Codebeispiele

client.readToFile(file);
 System.out.println("Completed download to file");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

filePath - Ein String , der den FilePath darstellt, in den die heruntergeladenen Daten geschrieben werden.

Returns:

Die Dateieigenschaften und Metadaten.

readToFile

public PathProperties readToFile(String filePath, boolean overwrite)

Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.

Wenn das Überschreiben auf false festgelegt ist, wird die Datei erstellt und darf nicht vorhanden sein. Wenn die Datei bereits vorhanden ist, wird ein FileAlreadyExistsException ausgelöst.

Codebeispiele

boolean overwrite = false; // Default value
 client.readToFile(file, overwrite);
 System.out.println("Completed download to file");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

filePath - Ein String , der den FilePath darstellt, in den die heruntergeladenen Daten geschrieben werden.
overwrite - Gibt an, ob die Datei überschrieben werden soll, falls die Datei vorhanden ist.

Returns:

Die Dateieigenschaften und Metadaten.

readToFileWithResponse

public Response readToFileWithResponse(String filePath, FileRange range, ParallelTransferOptions parallelTransferOptions, DownloadRetryOptions downloadRetryOptions, DataLakeRequestConditions requestConditions, boolean rangeGetContentMd5, Set openOptions, Duration timeout, Context context)

Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.

Standardmäßig wird die Datei erstellt und darf nicht vorhanden sein, wenn die Datei bereits vorhanden ist, wird ein FileAlreadyExistsException ausgelöst. Um dieses Verhalten zu überschreiben, geben Sie geeignete OpenOptions

Codebeispiele

FileRange fileRange = new FileRange(1024, 2048L);
 DownloadRetryOptions downloadRetryOptions = new DownloadRetryOptions().setMaxRetryRequests(5);
 Set<OpenOption> openOptions = new HashSet<>(Arrays.asList(StandardOpenOption.CREATE_NEW,
     StandardOpenOption.WRITE, StandardOpenOption.READ)); // Default options

 client.readToFileWithResponse(file, fileRange, new ParallelTransferOptions().setBlockSizeLong(4L * Constants.MB),
     downloadRetryOptions, null, false, openOptions, timeout, new Context(key2, value2));
 System.out.println("Completed download to file");

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

filePath - Ein String , der den FilePath darstellt, in den die heruntergeladenen Daten geschrieben werden.
range - FileRange
parallelTransferOptions - ParallelTransferOptions zum Herunterladen in eine Datei verwenden. Die Anzahl der Parallelübertragungsparameter wird ignoriert.
downloadRetryOptions - DownloadRetryOptions
requestConditions - DataLakeRequestConditions
rangeGetContentMd5 - Gibt an, ob der contentMD5 für den angegebenen Dateibereich zurückgegeben werden soll.
openOptions - OpenOptions , um zu konfigurieren, wie die Datei geöffnet oder erstellt werden soll.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die die Dateieigenschaften und Metadaten enthält.

readWithResponse

public FileReadResponse readWithResponse(OutputStream stream, FileRange range, DownloadRetryOptions options, DataLakeRequestConditions requestConditions, boolean getRangeContentMd5, Duration timeout, Context context)

Liest einen Bytebereich aus einer Datei in einen Ausgabestream.

Codebeispiele

FileRange range = new FileRange(1024, 2048L);
 DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);

 System.out.printf("Download completed with status %d%n",
     client.readWithResponse(new ByteArrayOutputStream(), range, options, null, false,
         timeout, new Context(key2, value2)).getStatusCode());

Weitere Informationen finden Sie in der Azure-Dokumentation.

Parameters:

stream - Ein ungleich NULL-instance OutputStream , in dem die heruntergeladenen Daten geschrieben werden.
range - FileRange
requestConditions - DataLakeRequestConditions
getRangeContentMd5 - Gibt an, ob der contentMD5 für den angegebenen Dateibereich zurückgegeben werden soll.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die status Code und HTTP-Header enthält.

rename

public DataLakeFileClient rename(String destinationFileSystem, String destinationPath)

Verschiebt die Datei an einen anderen Speicherort im Dateisystem. Weitere Informationen finden Sie in der Azure-Dokumentation.

Codebeispiele

DataLakeDirectoryAsyncClient renamedClient = client.rename(fileSystemName, destinationPath).block();
 System.out.println("Directory Client has been renamed");

Parameters:

destinationFileSystem - Das Dateisystem des Ziels innerhalb des Kontos. null für das aktuelle Dateisystem.
destinationPath - Der relative Pfad aus dem Dateisystem, in das die Datei umbenannt werden soll, schließt den Dateisystemnamen aus. Wenn Sie beispielsweise eine Datei mit fileSystem = "myfilesystem", path = "mydir/hello.txt" in einen anderen Pfad im myfilesystem (z. B. newdir/hi.txt) verschieben möchten, legen Sie den destinationPath = "newdir/hi.txt" fest.

Returns:

Ein DataLakeFileClient , der verwendet wird, um mit der neu erstellten Datei zu interagieren.

renameWithResponse

public Response renameWithResponse(String destinationFileSystem, String destinationPath, DataLakeRequestConditions sourceRequestConditions, DataLakeRequestConditions destinationRequestConditions, Duration timeout, Context context)

Verschiebt die Datei an einen anderen Speicherort im Dateisystem. Weitere Informationen finden Sie in der Azure-Dokumentation.

Codebeispiele

DataLakeRequestConditions sourceRequestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId);
 DataLakeRequestConditions destinationRequestConditions = new DataLakeRequestConditions();

 DataLakeFileClient newRenamedClient = client.renameWithResponse(fileSystemName, destinationPath,
     sourceRequestConditions, destinationRequestConditions, timeout, new Context(key1, value1)).getValue();
 System.out.println("Directory Client has been renamed");

Parameters:

destinationFileSystem - Das Dateisystem des Ziels innerhalb des Kontos. null für das aktuelle Dateisystem.
destinationPath - Der relative Pfad aus dem Dateisystem, in das die Datei umbenannt werden soll, schließt den Dateisystemnamen aus. Wenn Sie beispielsweise eine Datei mit fileSystem = "myfilesystem", path = "mydir/hello.txt" in einen anderen Pfad im myfilesystem (z. B. newdir/hi.txt) verschieben möchten, legen Sie den destinationPath = "newdir/hi.txt" fest.
sourceRequestConditions - DataLakeRequestConditions für die Quelle.
destinationRequestConditions - DataLakeRequestConditions für das Ziel.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Response<T> , der eine valueDataLakeFileClient enthält, die verwendet wird, um mit der erstellten Datei zu interagieren.

scheduleDeletion

public void scheduleDeletion(FileScheduleDeletionOptions options)

Plant das Löschen der Datei.

Codebeispiele

FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
 client.scheduleDeletion(options);
 System.out.println("File deletion has been scheduled");

Parameters:

options - Planen von Löschparametern.

scheduleDeletionWithResponse

public Response scheduleDeletionWithResponse(FileScheduleDeletionOptions options, Duration timeout, Context context)

Plant das Löschen der Datei.

Codebeispiele

FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
 Context context = new Context("key", "value");

 client.scheduleDeletionWithResponse(options, timeout, context);
 System.out.println("File deletion has been scheduled");

Parameters:

options - Planen von Löschparametern.
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Eine Antwort, die status Code und HTTP-Header enthält.

upload

public PathInfo upload(BinaryData data)

Erstellt eine neue Datei. Standardmäßig überschreibt diese Methode keine vorhandene Datei.

Codebeispiele

try {
     client.upload(binaryData);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

data - Die Daten, die in das Blob geschrieben werden sollen. Die Daten müssen markierbar sein. Dies ist, um Wiederholungen zu unterstützen. Wenn die Daten nicht markiert werden können, erwägen Sie, Ihre Datenquelle in einen BufferedInputStream einzuschließen, um Markierungsunterstützung hinzuzufügen.

Returns:

Informationen zum hochgeladenen Pfad.

upload

public PathInfo upload(BinaryData data, boolean overwrite)

Erstellt eine neue Datei oder aktualisiert den Inhalt einer vorhandenen Datei.

Codebeispiele

try {
     boolean overwrite = false;
     client.upload(binaryData, overwrite);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

data - Die Daten, die in das Blob geschrieben werden sollen. Die Daten müssen markierbar sein. Dies ist, um Wiederholungen zu unterstützen. Wenn die Daten nicht markiert werden können, erwägen Sie, Ihre Datenquelle in einen BufferedInputStream einzuschließen, um Markierungsunterstützung hinzuzufügen.
overwrite - Ob überschrieben werden soll, sollten Daten in der Datei vorhanden sein.

Returns:

Informationen zum hochgeladenen Pfad.

upload

public PathInfo upload(InputStream data, long length)

Erstellt eine neue Datei. Standardmäßig überschreibt diese Methode keine vorhandene Datei.

Codebeispiele

try {
     client.upload(data, length);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

data - Die Daten, die in das Blob geschrieben werden sollen. Die Daten müssen markierbar sein. Dies ist, um Wiederholungen zu unterstützen. Wenn die Daten nicht markiert werden können, erwägen Sie, Ihre Datenquelle in einen BufferedInputStream einzuschließen, um Markierungsunterstützung hinzuzufügen.
length - Die genaue Länge der Daten. Es ist wichtig, dass dieser Wert genau mit der Länge der in bereitgestellten InputStreamDaten übereinstimmt.

Returns:

Informationen zum hochgeladenen Pfad.

upload

public PathInfo upload(InputStream data, long length, boolean overwrite)

Erstellt eine neue Datei oder aktualisiert den Inhalt einer vorhandenen Datei.

Codebeispiele

try {
     boolean overwrite = false;
     client.upload(data, length, overwrite);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

data - Die Daten, die in das Blob geschrieben werden sollen. Die Daten müssen markierbar sein. Dies ist, um Wiederholungen zu unterstützen. Wenn die Daten nicht markiert werden können, erwägen Sie, Ihre Datenquelle in einen BufferedInputStream einzuschließen, um Markierungsunterstützung hinzuzufügen.
length - Die genaue Länge der Daten. Es ist wichtig, dass dieser Wert genau mit der Länge der in bereitgestellten InputStreamDaten übereinstimmt.
overwrite - Ob überschrieben werden soll, sollten Daten in der Datei vorhanden sein.

Returns:

Informationen zum hochgeladenen Pfad.

uploadFromFile

public void uploadFromFile(String filePath)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei. Standardmäßig überschreibt diese Methode keine vorhandene Datei.

Codebeispiele

try {
     client.uploadFromFile(filePath);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

filePath - Pfad der hochzuladenden Datei

uploadFromFile

public void uploadFromFile(String filePath, boolean overwrite)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

Codebeispiele

try {
     boolean overwrite = false;
     client.uploadFromFile(filePath, overwrite);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

filePath - Pfad der hochzuladenden Datei
overwrite - Ob überschrieben werden soll, sollte die Datei bereits vorhanden sein

uploadFromFile

public void uploadFromFile(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map metadata, DataLakeRequestConditions requestConditions, Duration timeout)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).

Codebeispiele

PathHttpHeaders headers = new PathHttpHeaders()
     .setContentMd5("data".getBytes(StandardCharsets.UTF_8))
     .setContentLanguage("en-US")
     .setContentType("binary");

 Map<String, String> metadata = Collections.singletonMap("metadata", "value");
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId)
     .setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
 Long blockSize = 100L * 1024L * 1024L; // 100 MB;
 ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);

 try {
     client.uploadFromFile(filePath, parallelTransferOptions, headers, metadata, requestConditions, timeout);
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

filePath - Pfad der hochzuladenden Datei
parallelTransferOptions - ParallelTransferOptions wird zum Konfigurieren des gepufferten Uploads verwendet.
headers - PathHttpHeaders
metadata - Metadaten, die der Ressource zugeordnet werden sollen. Wenn in einem Metadatenschlüssel oder -wert führende oder nachfolgende Leerzeichen vorhanden sind, muss er entfernt oder codiert werden.
requestConditions - DataLakeRequestConditions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.

uploadFromFileWithResponse

public Response uploadFromFileWithResponse(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map metadata, DataLakeRequestConditions requestConditions, Duration timeout, Context context)

Erstellt eine Datei mit dem Inhalt der angegebenen Datei.

Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).

Codebeispiele

PathHttpHeaders headers = new PathHttpHeaders()
     .setContentMd5("data".getBytes(StandardCharsets.UTF_8))
     .setContentLanguage("en-US")
     .setContentType("binary");

 Map<String, String> metadata = Collections.singletonMap("metadata", "value");
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId)
     .setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
 Long blockSize = 100L * 1024L * 1024L; // 100 MB;
 ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);

 try {
     Response<PathInfo> response = client.uploadFromFileWithResponse(filePath, parallelTransferOptions, headers,
         metadata, requestConditions, timeout, new Context("key", "value"));
     System.out.printf("Upload from file succeeded with status %d%n", response.getStatusCode());
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

filePath - Pfad der hochzuladenden Datei
parallelTransferOptions - ParallelTransferOptions wird zum Konfigurieren des gepufferten Uploads verwendet.
headers - PathHttpHeaders
metadata - Metadaten, die der Ressource zugeordnet werden sollen. Wenn in einem Metadatenschlüssel oder -wert führende oder nachfolgende Leerzeichen vorhanden sind, muss er entfernt oder codiert werden.
requestConditions - DataLakeRequestConditions
timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Antwort, die Informationen zum hochgeladenen Pfad enthält.

uploadWithResponse

public Response uploadWithResponse(FileParallelUploadOptions options, Duration timeout, Context context)

Erstellt eine neue Datei. Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).

Codebeispiele

PathHttpHeaders headers = new PathHttpHeaders()
     .setContentMd5("data".getBytes(StandardCharsets.UTF_8))
     .setContentLanguage("en-US")
     .setContentType("binary");

 Map<String, String> metadata = Collections.singletonMap("metadata", "value");
 DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
     .setLeaseId(leaseId)
     .setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
 Long blockSize = 100L * 1024L * 1024L; // 100 MB;
 ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);

 try {
     client.uploadWithResponse(new FileParallelUploadOptions(data, length)
         .setParallelTransferOptions(parallelTransferOptions).setHeaders(headers)
         .setMetadata(metadata).setRequestConditions(requestConditions)
         .setPermissions("permissions").setUmask("umask"), timeout, new Context("key", "value"));
     System.out.println("Upload from file succeeded");
 } catch (UncheckedIOException ex) {
     System.err.printf("Failed to upload from file %s%n", ex.getMessage());
 }

Parameters:

timeout - Ein optionaler Timeoutwert, über den ein RuntimeException ausgelöst wird.
context - Zusätzlicher Kontext, der während des Dienstaufrufs über die HTTP-Pipeline übergeben wird.

Returns:

Informationen zum hochgeladenen Pfad.

Gilt für: