Freigeben über


DataLakeFileClient class

Ein DataLakeFileClient stellt eine URL zur Azure Storage-Datei dar.

Extends

Konstruktoren

DataLakeFileClient(string, Pipeline)

Erstellt eine Instanz von DataLakeFileClient aus URL und Pipeline.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Erstellt eine Instanz von DataLakeFileClient aus URL und Anmeldeinformationen.

Eigenschaften

fileSystemName

Name des aktuellen Dateisystems.

name

Name des aktuellen Pfads (Verzeichnis oder Datei).

Geerbte Eigenschaften

accountName
credential

Beispielsweise AnonymousCredential, StorageSharedKeyCredential oder alle Anmeldeinformationen aus dem @azure/identity Paket, um Anforderungen an den Dienst zu authentifizieren. Sie können auch ein -Objekt bereitstellen, das die TokenCredential-Schnittstelle implementiert. Wenn nicht angegeben, wird AnonymousCredential verwendet.

url

Codierter URL-Zeichenfolgenwert.

Methoden

append(HttpRequestBody, number, number, FileAppendOptions)

Lädt Daten hoch, die an eine Datei angefügt werden sollen. Daten können nur an eine Datei angefügt werden. Um pervious hochgeladene Daten auf eine Datei anzuwenden, rufen Sie flush auf.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

create(FileCreateOptions)

Erstellen Sie eine Datei.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

create(PathResourceTypeModel, PathCreateOptions)

Erstellen Sie eine Datei.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

createIfNotExists(FileCreateIfNotExistsOptions)

Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

flush(number, FileFlushOptions)

Leert (schreibt) zuvor an eine Datei angefügte Daten.

generateSasUrl(FileGenerateSasUrlOptions)

Nur für Clients verfügbar, die mit Anmeldeinformationen für gemeinsam genutzte Schlüssel erstellt wurden.

Generiert einen SAS-URI (Service Shared Access Signature) basierend auf den übergebenen Clienteigenschaften und Parametern. Die SAS wird von den Anmeldeinformationen für gemeinsam genutzte Schlüssel des Clients signiert.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas.

query(string, FileQueryOptions)

Schnelle Abfrage für eine JSON- oder CSV-formatierte Datei.

Beispielverwendung (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
read(number, number, FileReadOptions)

Lädt eine Datei aus dem Dienst herunter, einschließlich der Metadaten und Eigenschaften.

  • In Node.js werden Daten in einem lesbaren Stream zurückgegeben.
  • In Browsern werden Daten in einer Zusage "contentAsBlob" zurückgegeben.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob.

  • Beispielverwendung (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Beispielverwendung (Browser):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
readToBuffer(Buffer, number, number, FileReadToBufferOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Count sind optional. Übergeben Sie 0 für beide, um die gesamte Datei zu lesen.

Warnung: Puffer können aufgrund von Einschränkungen der Node.js/V8 nur Dateien bis zu etwa einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen. Für Dateien, die größer als diese Größe sind, sollten Sie readToFile in Betracht ziehen.

readToBuffer(number, number, FileReadToBufferOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR

Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Count sind optional. Übergeben Sie 0 für beide, um die gesamte Datei zu lesen.

Warnung: Puffer können aufgrund von Einschränkungen der Node.js/V8 nur Dateien bis zu etwa einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen. Für Dateien, die größer als diese Größe sind, sollten Sie readToFile in Betracht ziehen.

readToFile(string, number, number, FileReadOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Lädt eine Data Lake-Datei in eine lokale Datei herunter. Schlägt fehl, wenn der angegebene Dateipfad bereits beendet wird. Offset und Count sind optional, übergeben 0 bzw. undefiniert, um die gesamte Datei herunterzuladen.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Legt eine Ablaufzeit für eine Datei fest, sobald diese Zeit erreicht ist, wird die Datei gelöscht.

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Lädt einen Buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView in eine Datei hoch.

uploadFile(string, FileParallelUploadOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Lädt eine lokale Datei in eine Data Lake-Datei hoch.

uploadStream(Readable, FileParallelUploadOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Lädt einen Node.js lesbaren Stream in eine Data Lake-Datei hoch. Diese Methode versucht, eine Datei zu erstellen, und beginnt dann mit dem Hochladen von Blöcken für Blöcke. Stellen Sie sicher, dass die potenzielle Größe des Streams nicht FILE_MAX_SIZE_BYTES überschreitet und die potenzielle Anzahl von Blöcken nicht BLOCK_BLOB_MAX_BLOCKS überschreitet.

TIPPS ZUR LEISTUNGSVERBESSERUNG:

  • Eingabestream highWaterMark ist besser, einen gleichen Wert mit dem Parameter options.chunkSize festzulegen, wodurch Buffer.concat()-Vorgänge vermieden werden.

Geerbte Methoden

delete(boolean, PathDeleteOptions)

Löschen Sie den aktuellen Pfad (Verzeichnis oder Datei).

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

deleteIfExists(boolean, PathDeleteOptions)

Löschen Sie den aktuellen Pfad (Verzeichnis oder Datei), sofern vorhanden.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

exists(PathExistsOptions)

Gibt true zurück, wenn die von diesem Client dargestellte Data Lake-Datei vorhanden ist. Andernfalls false.

HINWEIS: Verwenden Sie diese Funktion mit Bedacht, da eine vorhandene Datei möglicherweise von anderen Clients oder Anwendungen gelöscht wird. Umgekehrt können neue Dateien von anderen Clients oder Anwendungen hinzugefügt werden, nachdem diese Funktion abgeschlossen ist.

getAccessControl(PathGetAccessControlOptions)

Gibt die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) zurück.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties.

getDataLakeLeaseClient(string)

Rufen Sie einen DataLakeLeaseClient ab, der Leases für den Pfad (Verzeichnis oder Datei) verwaltet.

getProperties(PathGetPropertiesOptions)

Gibt alle benutzerdefinierten Metadaten, HTTP-Standardeigenschaften und Systemeigenschaften für den Pfad (Verzeichnis oder Datei) zurück.

WARNUNG: Das metadata in der Antwort zurückgegebene Objekt weist seine Schlüssel in Kleinbuchstaben auf, auch wenn sie ursprünglich Großbuchstaben enthielten. Dies unterscheidet sich von den Metadatenschlüsseln, die von den Methoden von DataLakeFileSystemClient zurückgegeben werden, die Pfade mithilfe der includeMetadata Option auflisten, die ihre ursprüngliche Groß- und Kleinschreibung beibehalten.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties.

move(string, PathMoveOptions)

Verschieben sie das Verzeichnis oder die Datei innerhalb desselben Dateisystems.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

move(string, string, PathMoveOptions)

Verschieben sie das Verzeichnis oder die Datei in ein anderes Dateisystem.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Entfernt die Access Control für einen Pfad und untere Pfade.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Legen Sie die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) fest.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Legt die Access Control für einen Pfad und untere Pfade fest.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Legt Systemeigenschaften für den Pfad (Verzeichnis oder Datei) fest.

Wenn kein Wert oder kein Wert für die angegebenen Blob-HTTP-Header bereitgestellt wird, werden diese Blob-HTTP-Header ohne Wert gelöscht.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties.

setMetadata(Metadata, PathSetMetadataOptions)

Legt benutzerdefinierte Metadaten für den angegebenen Pfad (Verzeichnis der Datei) als mindestens ein Name-Wert-Paar fest.

Wenn keine Option oder keine im Parameter definierten Metadaten angegeben sind, werden die Pfadmetadaten entfernt.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata.

setPermissions(PathPermissions, PathSetPermissionsOptions)

Legt die Dateiberechtigungen für einen Pfad fest.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

toDirectoryClient()

Konvertieren Sie den aktuellen DataLakePathClient in DataLakeDirectoryClient, wenn der aktuelle Pfad ein Verzeichnis ist.

toFileClient()

Konvertieren Sie den aktuellen DataLakePathClient in DataLakeFileClient, wenn der aktuelle Pfad eine Datei ist.

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Ändert die Access Control für einen Pfad und untere Pfade.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

Details zum Konstruktor

DataLakeFileClient(string, Pipeline)

Erstellt eine Instanz von DataLakeFileClient aus URL und Pipeline.

new DataLakeFileClient(url: string, pipeline: Pipeline)

Parameter

url

string

Eine Clientzeichenfolge, die auf die Data Lake-Datei von Azure Storage verweist, z. B. "https://myaccount.dfs.core.windows.net/filesystem/file"". Sie können eine SAS anfügen, wenn Sie AnonymousCredential verwenden, z. B. "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

pipeline
Pipeline

Rufen Sie newPipeline() auf, um eine Standardpipeline zu erstellen, oder stellen Sie eine benutzerdefinierte Pipeline bereit.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Erstellt eine Instanz von DataLakeFileClient aus URL und Anmeldeinformationen.

new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)

Parameter

url

string

Eine Clientzeichenfolge, die auf die Data Lake-Datei von Azure Storage verweist, z. B. "https://myaccount.dfs.core.windows.net/filesystem/file"". Sie können eine SAS anfügen, wenn Sie AnonymousCredential verwenden, z. B. "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

credential

StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Beispielsweise AnonymousCredential, StorageSharedKeyCredential oder alle Anmeldeinformationen aus dem @azure/identity Paket, um Anforderungen an den Dienst zu authentifizieren. Sie können auch ein -Objekt bereitstellen, das die TokenCredential-Schnittstelle implementiert. Wenn nicht angegeben, wird AnonymousCredential verwendet.

options
StoragePipelineOptions

Dies ist optional. Optionen zum Konfigurieren der HTTP-Pipeline.

Details zur Eigenschaft

fileSystemName

Name des aktuellen Dateisystems.

string fileSystemName

Eigenschaftswert

string

name

Name des aktuellen Pfads (Verzeichnis oder Datei).

string name

Eigenschaftswert

string

Geerbte Eigenschaftsdetails

accountName

accountName: string

Eigenschaftswert

string

Geerbt vonDataLakePathClient.accountName

credential

Beispielsweise AnonymousCredential, StorageSharedKeyCredential oder alle Anmeldeinformationen aus dem @azure/identity Paket, um Anforderungen an den Dienst zu authentifizieren. Sie können auch ein -Objekt bereitstellen, das die TokenCredential-Schnittstelle implementiert. Wenn nicht angegeben, wird AnonymousCredential verwendet.

credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Eigenschaftswert

Geerbt vonDataLakePathClient.credential

url

Codierter URL-Zeichenfolgenwert.

url: string

Eigenschaftswert

string

Geerbt vonDataLakePathClient.url

Details zur Methode

append(HttpRequestBody, number, number, FileAppendOptions)

Lädt Daten hoch, die an eine Datei angefügt werden sollen. Daten können nur an eine Datei angefügt werden. Um pervious hochgeladene Daten auf eine Datei anzuwenden, rufen Sie flush auf.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function append(body: HttpRequestBody, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>

Parameter

body
HttpRequestBody

Inhalte, die hochgeladen werden sollen.

offset

number

Fügen Sie Offset in Bytes an.

length

number

Länge des Inhalts, der in Bytes angefügt werden soll.

options
FileAppendOptions

Dies ist optional. Optionen beim Anfügen von Daten.

Gibt zurück

create(FileCreateOptions)

Erstellen Sie eine Datei.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function create(options?: FileCreateOptions): Promise<FileCreateResponse>

Parameter

options
FileCreateOptions

Dies ist optional. Optionen beim Erstellen einer Datei.

Gibt zurück

create(PathResourceTypeModel, PathCreateOptions)

Erstellen Sie eine Datei.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>

Parameter

resourceType
PathResourceTypeModel

Ressourcentyp muss für DataLakeFileClient "datei" sein.

options
PathCreateOptions

Dies ist optional. Optionen beim Erstellen einer Datei.

Gibt zurück

createIfNotExists(FileCreateIfNotExistsOptions)

Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>

Parameter

options
FileCreateIfNotExistsOptions

Dies ist optional. Optionen beim Erstellen einer Datei.

Gibt zurück

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Erstellen Sie eine Datei, wenn sie noch nicht vorhanden ist.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>

Parameter

resourceType
PathResourceTypeModel

Ressourcentyp muss für DataLakeFileClient "datei" sein.

Gibt zurück

flush(number, FileFlushOptions)

Leert (schreibt) zuvor an eine Datei angefügte Daten.

function flush(position: number, options?: FileFlushOptions): Promise<PathFlushDataResponse>

Parameter

position

number

Dateiposition, die geleert werden soll. Dieser Parameter ermöglicht es dem Aufrufer, Daten parallel hochzuladen und die Reihenfolge zu steuern, in der sie an die Datei angefügt werden. Dies ist beim Hochladen von Daten erforderlich, die an die Datei angefügt werden müssen, und wenn zuvor hochgeladene Daten in die Datei geleert werden. Der Wert muss die Position sein, an der die Daten angefügt werden sollen. Hochgeladene Daten werden nicht sofort geleert oder in die Datei geschrieben. Zum Leeren müssen die zuvor hochgeladenen Daten zusammenhängend sein, der Positionsparameter muss angegeben werden und der Länge der Datei entsprechen, nachdem alle Daten geschrieben wurden, und es darf kein Anforderungsentitätstext in der Anforderung enthalten sein.

options
FileFlushOptions

Dies ist optional. Optionen beim Leeren von Daten.

Gibt zurück

generateSasUrl(FileGenerateSasUrlOptions)

Nur für Clients verfügbar, die mit Anmeldeinformationen für gemeinsam genutzte Schlüssel erstellt wurden.

Generiert einen SAS-URI (Service Shared Access Signature) basierend auf den übergebenen Clienteigenschaften und Parametern. Die SAS wird von den Anmeldeinformationen für gemeinsam genutzte Schlüssel des Clients signiert.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas.

function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>

Parameter

options
FileGenerateSasUrlOptions

Optionale Parameter.

Gibt zurück

Promise<string>

Der SAS-URI, der aus dem URI für die von diesem Client dargestellte Ressource besteht, gefolgt vom generierten SAS-Token.

query(string, FileQueryOptions)

Schnelle Abfrage für eine JSON- oder CSV-formatierte Datei.

Beispielverwendung (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>

Parameter

query

string

Gibt zurück

Promise<FileReadResponse>

read(number, number, FileReadOptions)

Lädt eine Datei aus dem Dienst herunter, einschließlich der Metadaten und Eigenschaften.

  • In Node.js werden Daten in einem lesbaren Stream zurückgegeben.
  • In Browsern werden Daten in einer Zusage "contentAsBlob" zurückgegeben.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob.

  • Beispielverwendung (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Beispielverwendung (Browser):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parameter

offset

number

Dies ist optional. Offset zum Lesen der Datei, Standardwert ist 0.

count

number

Dies ist optional. Wie viele Bytes gelesen werden sollen, wird standardmäßig vom Offset bis zum Ende gelesen.

options
FileReadOptions

Dies ist optional. Optionen beim Lesen der Datei.

Gibt zurück

Promise<FileReadResponse>

readToBuffer(Buffer, number, number, FileReadToBufferOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Count sind optional. Übergeben Sie 0 für beide, um die gesamte Datei zu lesen.

Warnung: Puffer können aufgrund von Einschränkungen der Node.js/V8 nur Dateien bis zu etwa einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen. Für Dateien, die größer als diese Größe sind, sollten Sie readToFile in Betracht ziehen.

function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parameter

buffer

Buffer

Puffer, der gefüllt werden soll, muss eine Länge haben, die größer als die Anzahl ist

offset

number

Von welcher Position der Data Lake-Datei gelesen werden soll

count

number

Wie viele Daten gelesen werden sollen. Wird bis zum Ende gelesen, wenn undefined übergeben wird

Gibt zurück

Promise<Buffer>

readToBuffer(number, number, FileReadToBufferOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR

Liest eine Data Lake-Datei parallel zu einem Puffer. Offset und Count sind optional. Übergeben Sie 0 für beide, um die gesamte Datei zu lesen.

Warnung: Puffer können aufgrund von Einschränkungen der Node.js/V8 nur Dateien bis zu etwa einem Gigabyte auf 32-Bit-Systemen oder etwa zwei Gigabyte auf 64-Bit-Systemen unterstützen. Für Dateien, die größer als diese Größe sind, sollten Sie readToFile in Betracht ziehen.

function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parameter

offset

number

Von welcher Position der Data Lake-Datei (in Bytes) gelesen werden soll

count

number

Wie viele Daten (in Bytes) gelesen werden sollen. Wird bis zum Ende gelesen, wenn undefined übergeben wird

Gibt zurück

Promise<Buffer>

readToFile(string, number, number, FileReadOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Lädt eine Data Lake-Datei in eine lokale Datei herunter. Schlägt fehl, wenn der angegebene Dateipfad bereits beendet wird. Offset und Count sind optional, übergeben 0 bzw. undefiniert, um die gesamte Datei herunterzuladen.

function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parameter

filePath

string

offset

number

Von welcher Position der Datei heruntergeladen werden soll.

count

number

Wie viele Daten heruntergeladen werden sollen. Wird bis zum Ende heruntergeladen, wenn undefined übergeben wird.

options
FileReadOptions

Optionen zum Lesen der Data Lake-Datei.

Gibt zurück

Promise<FileReadResponse>

Die Antwortdaten für den Dateilesevorgang, aber mit readableStreamBody, der auf undefiniert festgelegt ist, da der Inhalt bereits gelesen und im angegebenen Pfad in eine lokale Datei geschrieben wird.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Legt eine Ablaufzeit für eine Datei fest, sobald diese Zeit erreicht ist, wird die Datei gelöscht.

function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>

Parameter

Gibt zurück

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Lädt einen Buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView in eine Datei hoch.

function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<PathFlushDataResponse>

Parameter

data

Blob | ArrayBuffer | ArrayBufferView | Buffer

Buffer(Node), Blob, ArrayBuffer oder ArrayBufferView

Gibt zurück

uploadFile(string, FileParallelUploadOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Lädt eine lokale Datei in eine Data Lake-Datei hoch.

function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<PathFlushDataResponse>

Parameter

filePath

string

Vollständiger Pfad der lokalen Datei

Gibt zurück

uploadStream(Readable, FileParallelUploadOptions)

NUR IN NODE.JS RUNTIME VERFÜGBAR.

Lädt einen Node.js lesbaren Stream in eine Data Lake-Datei hoch. Diese Methode versucht, eine Datei zu erstellen, und beginnt dann mit dem Hochladen von Blöcken für Blöcke. Stellen Sie sicher, dass die potenzielle Größe des Streams nicht FILE_MAX_SIZE_BYTES überschreitet und die potenzielle Anzahl von Blöcken nicht BLOCK_BLOB_MAX_BLOCKS überschreitet.

TIPPS ZUR LEISTUNGSVERBESSERUNG:

  • Eingabestream highWaterMark ist besser, einen gleichen Wert mit dem Parameter options.chunkSize festzulegen, wodurch Buffer.concat()-Vorgänge vermieden werden.
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<PathFlushDataResponse>

Parameter

stream

Readable

Node.js lesbarer Stream.

Gibt zurück

Details zur geerbten Methode

delete(boolean, PathDeleteOptions)

Löschen Sie den aktuellen Pfad (Verzeichnis oder Datei).

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>

Parameter

recursive

boolean

Erforderlich und gültig nur, wenn die Ressource ein Verzeichnis ist. Bei "true" werden alle Pfade unter dem Verzeichnis gelöscht.

options
PathDeleteOptions

Dies ist optional. Optionen beim Löschen des Pfads.

Gibt zurück

Geerbt vonDataLakePathClient.delete

deleteIfExists(boolean, PathDeleteOptions)

Löschen Sie den aktuellen Pfad (Verzeichnis oder Datei), sofern vorhanden.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>

Parameter

recursive

boolean

Erforderlich und gültig nur, wenn die Ressource ein Verzeichnis ist. Bei "true" werden alle Pfade unter dem Verzeichnis gelöscht.

Gibt zurück

Geerbt vonDataLakePathClient.deleteIfExists

exists(PathExistsOptions)

Gibt true zurück, wenn die von diesem Client dargestellte Data Lake-Datei vorhanden ist. Andernfalls false.

HINWEIS: Verwenden Sie diese Funktion mit Bedacht, da eine vorhandene Datei möglicherweise von anderen Clients oder Anwendungen gelöscht wird. Umgekehrt können neue Dateien von anderen Clients oder Anwendungen hinzugefügt werden, nachdem diese Funktion abgeschlossen ist.

function exists(options?: PathExistsOptions): Promise<boolean>

Parameter

options
PathExistsOptions

Optionen zum Exists-Vorgang.

Gibt zurück

Promise<boolean>

Geerbt vonDataLakePathClient.exists

getAccessControl(PathGetAccessControlOptions)

Gibt die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) zurück.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties.

function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>

Parameter

options
PathGetAccessControlOptions

Dies ist optional. Optionen beim Abrufen der Dateizugriffssteuerung.

Gibt zurück

Geerbt vonDataLakePathClient.getAccessControl

getDataLakeLeaseClient(string)

Rufen Sie einen DataLakeLeaseClient ab, der Leases für den Pfad (Verzeichnis oder Datei) verwaltet.

function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient

Parameter

proposeLeaseId

string

Dies ist optional. Anfängliche vorgeschlagene Lease-ID.

Gibt zurück

Geerbt vonDataLakePathClient.getDataLakeLeaseClient

getProperties(PathGetPropertiesOptions)

Gibt alle benutzerdefinierten Metadaten, HTTP-Standardeigenschaften und Systemeigenschaften für den Pfad (Verzeichnis oder Datei) zurück.

WARNUNG: Das metadata in der Antwort zurückgegebene Objekt weist seine Schlüssel in Kleinbuchstaben auf, auch wenn sie ursprünglich Großbuchstaben enthielten. Dies unterscheidet sich von den Metadatenschlüsseln, die von den Methoden von DataLakeFileSystemClient zurückgegeben werden, die Pfade mithilfe der includeMetadata Option auflisten, die ihre ursprüngliche Groß- und Kleinschreibung beibehalten.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties.

function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>

Parameter

options
PathGetPropertiesOptions

Dies ist optional. Optionen beim Abrufen von Pfadeigenschaften.

Gibt zurück

Geerbt vonDataLakePathClient.getProperties

move(string, PathMoveOptions)

Verschieben sie das Verzeichnis oder die Datei innerhalb desselben Dateisystems.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parameter

destinationPath

string

Zielverzeichnispfad wie "Directory" oder Dateipfad "directory/file". Wenn der destinationPath mit SAS authentifiziert ist, fügen Sie die SAS dem Zielpfad hinzu, z. B. "directory/file?sasToken".

options
PathMoveOptions

Dies ist optional. Optionen beim Verschieben des Verzeichnisses oder der Datei.

Gibt zurück

Promise<PathMoveResponse>

Geerbt vonDataLakePathClient.move

move(string, string, PathMoveOptions)

Verschieben sie das Verzeichnis oder die Datei in ein anderes Dateisystem.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parameter

destinationFileSystem

string

Zieldateisystem wie "Dateisystem".

destinationPath

string

Zielverzeichnispfad wie "Verzeichnis" oder Dateipfad "Verzeichnis/Datei" Wenn der destinationPath mit SAS authentifiziert ist, fügen Sie die SAS dem Zielpfad hinzu, z. B. "directory/file?sasToken".

options
PathMoveOptions

Dies ist optional. Optionen beim Verschieben des Verzeichnisses oder der Datei.

Gibt zurück

Promise<PathMoveResponse>

Geerbt vonDataLakePathClient.move

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Entfernt die Access Control für einen Pfad und untere Pfade.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parameter

acl

RemovePathAccessControlItem[]

Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.

options
PathChangeAccessControlRecursiveOptions

Dies ist optional. Optionen

Gibt zurück

Geerbt vonDataLakePathClient.removeAccessControlRecursive

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Legen Sie die Zugriffssteuerungsdaten für einen Pfad (Verzeichnis der Datei) fest.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>

Parameter

acl

PathAccessControlItem[]

Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.

options
PathSetAccessControlOptions

Dies ist optional. Optionen beim Festlegen der Pfadzugriffssteuerung.

Gibt zurück

Geerbt vonDataLakePathClient.setAccessControl

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Legt die Access Control für einen Pfad und untere Pfade fest.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parameter

acl

PathAccessControlItem[]

Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.

options
PathChangeAccessControlRecursiveOptions

Dies ist optional. Optionen

Gibt zurück

Geerbt vonDataLakePathClient.setAccessControlRecursive

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Legt Systemeigenschaften für den Pfad (Verzeichnis oder Datei) fest.

Wenn kein Wert oder kein Wert für die angegebenen Blob-HTTP-Header bereitgestellt wird, werden diese Blob-HTTP-Header ohne Wert gelöscht.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties.

function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>

Parameter

httpHeaders
PathHttpHeaders

Gibt zurück

Geerbt vonDataLakePathClient.setHttpHeaders

setMetadata(Metadata, PathSetMetadataOptions)

Legt benutzerdefinierte Metadaten für den angegebenen Pfad (Verzeichnis der Datei) als mindestens ein Name-Wert-Paar fest.

Wenn keine Option oder keine im Parameter definierten Metadaten angegeben sind, werden die Pfadmetadaten entfernt.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata.

function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>

Parameter

metadata
Metadata

Dies ist optional. Ersetzen Sie vorhandene Metadaten durch diesen Wert. Wenn kein Wert angegeben ist, werden die vorhandenen Metadaten entfernt.

options
PathSetMetadataOptions

Dies ist optional. Optionen beim Festlegen von Pfadmetadaten.

Gibt zurück

Geerbt vonDataLakePathClient.setMetadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Legt die Dateiberechtigungen für einen Pfad fest.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetAccessControlResponse>

Parameter

permissions
PathPermissions

Die POSIX-Zugriffsberechtigungen für den Dateibesitzer, die Dateibesitzergruppe und andere.

options
PathSetPermissionsOptions

Dies ist optional. Optionen beim Festlegen von Pfadberechtigungen.

Gibt zurück

Geerbt vonDataLakePathClient.setPermissions

toDirectoryClient()

Konvertieren Sie den aktuellen DataLakePathClient in DataLakeDirectoryClient, wenn der aktuelle Pfad ein Verzeichnis ist.

function toDirectoryClient(): DataLakeDirectoryClient

Gibt zurück

Geerbt vonDataLakePathClient.toDirectoryClient

toFileClient()

Konvertieren Sie den aktuellen DataLakePathClient in DataLakeFileClient, wenn der aktuelle Pfad eine Datei ist.

function toFileClient(): DataLakeFileClient

Gibt zurück

Geerbt vonDataLakePathClient.toFileClient

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Ändert die Access Control für einen Pfad und untere Pfade.

Siehe https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parameter

acl

PathAccessControlItem[]

Die POSIX-Zugriffssteuerungsliste für die Datei oder das Verzeichnis.

options
PathChangeAccessControlRecursiveOptions

Dies ist optional. Optionen

Gibt zurück

Geerbt vonDataLakePathClient.updateAccessControlRecursive