Partilhar via


DataLakeFileClient class

Um DataLakeFileClient representa um URL para o ficheiro de Armazenamento do Azure.

Extends

Construtores

DataLakeFileClient(string, Pipeline)

Cria uma instância de DataLakeFileClient a partir do URL e do pipeline.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Cria uma instância de DataLakeFileClient a partir do URL e da credencial.

Propriedades

fileSystemName

Nome do sistema de ficheiros atual.

name

Nome do caminho atual (diretório ou ficheiro).

Propriedades Herdadas

accountName
credential

Tal como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do @azure/identity pacote para autenticar pedidos para o serviço. Também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, é utilizado AnonymousCredential.

url

Valor da cadeia de URL codificado.

Métodos

append(RequestBodyType, number, number, FileAppendOptions)

Carrega dados para serem anexados a um ficheiro. Os dados só podem ser anexados a um ficheiro. Para aplicar dados carregados perviosamente a um ficheiro, chame flush.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

create(FileCreateOptions)

Crie um ficheiro.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

create(PathResourceTypeModel, PathCreateOptions)

Crie um ficheiro.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(FileCreateIfNotExistsOptions)

Crie um ficheiro se ainda não existir.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Crie um ficheiro se ainda não existir.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

flush(number, FileFlushOptions)

Remove (escreve) dados anexados anteriormente a um ficheiro.

generateSasUrl(FileGenerateSasUrlOptions)

Disponível apenas para clientes criados com uma credencial de chave partilhada.

Gera um URI de Assinatura de Acesso Partilhado do Serviço (SAS) com base nas propriedades e parâmetros do cliente transmitidos. A SAS é assinada pela credencial de chave partilhada do cliente.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

query(string, FileQueryOptions)

Consulta rápida para um ficheiro com formato JSON ou CSV.

Utilização de exemplo (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
read(number, number, FileReadOptions)

Transfere um ficheiro do serviço, incluindo os respetivos metadados e propriedades.

  • No Node.js, os dados são devolvidos num fluxo legível legívelStreamBody
  • Nos browsers, os dados são devolvidos num contentAsBlob de promessa

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Utilização de exemplo (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Utilização de exemplo (browser):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. O deslocamento e a contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro.

Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile.

readToBuffer(number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME

Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. Desvio e contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro

Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile.

readToFile(string, number, number, FileReadOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Transfere um ficheiro do Data Lake para um ficheiro local. Falha se o caminho de ficheiro especificado já sair. O deslocamento e a contagem são opcionais, passam 0 e não são definidos, respetivamente, para transferir todo o ficheiro.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Define uma hora de expiração num ficheiro, uma vez que essa hora é cumprida, o ficheiro é eliminado.

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carrega uma Memória Intermédia (Node.js)/Blob/ArrayBuffer/ArrayBufferView para um Ficheiro.

uploadFile(string, FileParallelUploadOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Carrega um ficheiro local para um ficheiro do Data Lake.

uploadStream(Readable, FileParallelUploadOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Carrega um Node.js fluxo Legível para um ficheiro do Data Lake. Este método tentará criar um ficheiro e, em seguida, iniciará o carregamento segmento a segmento. Certifique-se de que o tamanho potencial do fluxo não excede FILE_MAX_SIZE_BYTES e que o número potencial de segmentos não excede BLOCK_BLOB_MAX_BLOCKS.

SUGESTÕES DE MELHORIA DE DESEMPENHO:

  • O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações Buffer.concat().

Métodos Herdados

delete(boolean, PathDeleteOptions)

Eliminar caminho atual (diretório ou ficheiro).

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

deleteIfExists(boolean, PathDeleteOptions)

Elimine o caminho atual (diretório ou ficheiro) se existir.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

exists(PathExistsOptions)

Devolve true se o ficheiro do Data Lake representado por este cliente existir; falso, caso contrário.

NOTA: utilize esta função com cuidado, uma vez que um ficheiro existente pode ser eliminado por outros clientes ou aplicações. Os novos ficheiros vice-versa podem ser adicionados por outros clientes ou aplicações após a conclusão desta função.

getAccessControl(PathGetAccessControlOptions)

Devolve os dados de controlo de acesso de um caminho (diretório de ficheiro).

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

getDataLakeLeaseClient(string)

Obtenha um DataLakeLeaseClient que gere as concessões no caminho (diretório ou ficheiro).

getProperties(PathGetPropertiesOptions)

Devolve todos os metadados definidos pelo utilizador, propriedades HTTP padrão e propriedades do sistema para o caminho (diretório ou ficheiro).

AVISO: O metadata objeto devolvido na resposta terá as respetivas teclas em minúsculas, mesmo que tenham originalmente carateres em maiúsculas. Isto difere das chaves de metadados devolvidas pelos métodos de DataLakeFileSystemClient que listam caminhos com a opção includeMetadata , que irá manter a sua caixa original.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

move(string, PathMoveOptions)

Mover o diretório ou ficheiro no mesmo sistema de ficheiros.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

move(string, string, PathMoveOptions)

Mover o diretório ou ficheiro para outro sistema de ficheiros.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Remove o Controlo de Acesso num caminho e sub caminhos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Defina os dados de controlo de acesso para um caminho (diretório de ficheiro).

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Define o Controlo de Acesso num caminho e sub caminhos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Define as propriedades do sistema no caminho (diretório ou ficheiro).

Se não for fornecido nenhum valor ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, estes cabeçalhos HTTP de blob sem um valor serão limpos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

setMetadata(Metadata, PathSetMetadataOptions)

Define metadados definidos pelo utilizador para o caminho especificado (diretório de ficheiro) como um ou mais pares nome-valor.

Se não for fornecida nenhuma opção ou se não forem definidos metadados no parâmetro, os metadados do caminho serão removidos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Define as permissões de ficheiro num caminho.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

toDirectoryClient()

Converta dataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.

toFileClient()

Converta dataLakePathClient atual em DataLakeFileClient se o caminho atual for um ficheiro.

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica o Controlo de Acesso num caminho e sub caminhos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

Detalhes do Construtor

DataLakeFileClient(string, Pipeline)

Cria uma instância de DataLakeFileClient a partir do URL e do pipeline.

new DataLakeFileClient(url: string, pipeline: Pipeline)

Parâmetros

url

string

Uma Cadeia de cliente a apontar para o ficheiro data lake do Armazenamento do Microsoft Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Pode acrescentar uma SAS se utilizar AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

pipeline
Pipeline

Chame newPipeline() para criar um pipeline predefinido ou forneça um pipeline personalizado.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Cria uma instância de DataLakeFileClient a partir do URL e da credencial.

new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)

Parâmetros

url

string

Uma Cadeia de cliente a apontar para o ficheiro data lake do Armazenamento do Microsoft Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Pode acrescentar uma SAS se utilizar AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

credential

StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Tal como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do @azure/identity pacote para autenticar pedidos para o serviço. Também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, é utilizado AnonymousCredential.

options
StoragePipelineOptions

Opcional. Opções para configurar o pipeline HTTP.

Detalhes de Propriedade

fileSystemName

Nome do sistema de ficheiros atual.

string fileSystemName

Valor de Propriedade

string

name

Nome do caminho atual (diretório ou ficheiro).

string name

Valor de Propriedade

string

Detalhes da Propriedade Herdada

accountName

accountName: string

Valor de Propriedade

string

Herdado deDataLakePathClient.accountName

credential

Tal como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do @azure/identity pacote para autenticar pedidos para o serviço. Também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, é utilizado AnonymousCredential.

credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Valor de Propriedade

Herdado deDataLakePathClient.credential

url

Valor da cadeia de URL codificado.

url: string

Valor de Propriedade

string

Herdado deDataLakePathClient.url

Detalhes de Método

append(RequestBodyType, number, number, FileAppendOptions)

Carrega dados para serem anexados a um ficheiro. Os dados só podem ser anexados a um ficheiro. Para aplicar dados carregados perviosamente a um ficheiro, chame flush.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>

Parâmetros

body
HttpRequestBody

Conteúdo a carregar.

offset

number

Acrescentar desvio em bytes.

length

number

Comprimento do conteúdo a acrescentar em bytes.

options
FileAppendOptions

Opcional. Opções ao acrescentar dados.

Devoluções

create(FileCreateOptions)

Crie um ficheiro.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(options?: FileCreateOptions): Promise<FileCreateResponse>

Parâmetros

options
FileCreateOptions

Opcional. Opções ao criar o ficheiro.

Devoluções

create(PathResourceTypeModel, PathCreateOptions)

Crie um ficheiro.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>

Parâmetros

resourceType
PathResourceTypeModel

O tipo de recurso tem de ser "ficheiro" para DataLakeFileClient.

options
PathCreateOptions

Opcional. Opções ao criar o ficheiro.

Devoluções

createIfNotExists(FileCreateIfNotExistsOptions)

Crie um ficheiro se ainda não existir.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>

Parâmetros

options
FileCreateIfNotExistsOptions

Opcional. Opções ao criar o ficheiro.

Devoluções

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Crie um ficheiro se ainda não existir.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>

Parâmetros

resourceType
PathResourceTypeModel

O tipo de recurso tem de ser "ficheiro" para DataLakeFileClient.

Devoluções

flush(number, FileFlushOptions)

Remove (escreve) dados anexados anteriormente a um ficheiro.

function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>

Parâmetros

position

number

Posição do ficheiro a remover. Este parâmetro permite que o autor da chamada carregue dados em paralelo e controle a ordem pela qual são anexados ao ficheiro. É necessário ao carregar dados para serem anexados ao ficheiro e ao remover dados carregados anteriormente para o ficheiro. O valor tem de ser a posição onde os dados devem ser acrescentados. Os dados carregados não são imediatamente descarregados ou escritos no ficheiro. Para remover a cache, os dados carregados anteriormente têm de ser contíguos, o parâmetro de posição tem de ser especificado e igual ao comprimento do ficheiro depois de todos os dados terem sido escritos e não pode haver um corpo de entidade de pedido incluído no pedido.

options
FileFlushOptions

Opcional. Opções ao remover dados.

Devoluções

generateSasUrl(FileGenerateSasUrlOptions)

Disponível apenas para clientes criados com uma credencial de chave partilhada.

Gera um URI de Assinatura de Acesso Partilhado do Serviço (SAS) com base nas propriedades e parâmetros do cliente transmitidos. A SAS é assinada pela credencial de chave partilhada do cliente.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>

Parâmetros

options
FileGenerateSasUrlOptions

Parâmetros opcionais.

Devoluções

Promise<string>

O URI de SAS que consiste no URI para o recurso representado por este cliente, seguido do token de SAS gerado.

query(string, FileQueryOptions)

Consulta rápida para um ficheiro com formato JSON ou CSV.

Utilização de exemplo (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>

Parâmetros

query

string

Devoluções

Promise<FileReadResponse>

read(number, number, FileReadOptions)

Transfere um ficheiro do serviço, incluindo os respetivos metadados e propriedades.

  • No Node.js, os dados são devolvidos num fluxo legível legívelStreamBody
  • Nos browsers, os dados são devolvidos num contentAsBlob de promessa

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Utilização de exemplo (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Utilização de exemplo (browser):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parâmetros

offset

number

Opcional. Desfasamento para ficheiro de leitura, o valor predefinido é 0.

count

number

Opcional. Quantos bytes ler, a predefinição será lida de desfasamento até ao fim.

options
FileReadOptions

Opcional. Opções ao ler o ficheiro.

Devoluções

Promise<FileReadResponse>

readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. O deslocamento e a contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro.

Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile.

function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parâmetros

buffer

Buffer

Memória intermédia a preencher, tem de ter um comprimento superior à contagem

offset

number

A partir da posição do ficheiro do Data Lake a ler

count

number

A quantidade de dados a ler. Irá ler para o fim ao passar indefinidamente

Devoluções

Promise<Buffer>

readToBuffer(number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME

Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. Desvio e contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro

Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile.

function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parâmetros

offset

number

A partir da posição do ficheiro do Data Lake a ler(em bytes)

count

number

A quantidade de dados (em bytes) a ler. Irá ler para o fim ao passar indefinidamente

Devoluções

Promise<Buffer>

readToFile(string, number, number, FileReadOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Transfere um ficheiro do Data Lake para um ficheiro local. Falha se o caminho de ficheiro especificado já sair. O deslocamento e a contagem são opcionais, passam 0 e não são definidos, respetivamente, para transferir todo o ficheiro.

function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parâmetros

filePath

string

offset

number

A partir da posição do ficheiro a transferir.

count

number

A quantidade de dados a transferir. Será transferido para o fim ao passar indefinido.

options
FileReadOptions

Opções para ler o ficheiro do Data Lake.

Devoluções

Promise<FileReadResponse>

Os dados de resposta para a operação de leitura de ficheiros, mas com readableStreamBody definido como indefinido, uma vez que o respetivo conteúdo já é lido e escrito num ficheiro local no caminho especificado.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Define uma hora de expiração num ficheiro, uma vez que essa hora é cumprida, o ficheiro é eliminado.

function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>

Parâmetros

Devoluções

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carrega uma Memória Intermédia (Node.js)/Blob/ArrayBuffer/ArrayBufferView para um Ficheiro.

function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

data

Blob | ArrayBuffer | ArrayBufferView | Buffer

Buffer(Node), Blob, ArrayBuffer ou ArrayBufferView

Devoluções

uploadFile(string, FileParallelUploadOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Carrega um ficheiro local para um ficheiro do Data Lake.

function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

filePath

string

Caminho completo do ficheiro local

Devoluções

uploadStream(Readable, FileParallelUploadOptions)

DISPONÍVEL APENAS NO NODE.JS RUNTIME.

Carrega um Node.js fluxo Legível para um ficheiro do Data Lake. Este método tentará criar um ficheiro e, em seguida, iniciará o carregamento segmento a segmento. Certifique-se de que o tamanho potencial do fluxo não excede FILE_MAX_SIZE_BYTES e que o número potencial de segmentos não excede BLOCK_BLOB_MAX_BLOCKS.

SUGESTÕES DE MELHORIA DE DESEMPENHO:

  • O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações Buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

stream

Readable

Node.js fluxo legível.

Devoluções

Detalhes do Método Herdado

delete(boolean, PathDeleteOptions)

Eliminar caminho atual (diretório ou ficheiro).

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>

Parâmetros

recursive

boolean

Obrigatório e válido apenas quando o recurso é um diretório. Se for "verdadeiro", todos os caminhos abaixo do diretório serão eliminados.

options
PathDeleteOptions

Opcional. Opções ao eliminar o caminho.

Devoluções

Herdado deDataLakePathClient.delete

deleteIfExists(boolean, PathDeleteOptions)

Elimine o caminho atual (diretório ou ficheiro) se existir.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>

Parâmetros

recursive

boolean

Obrigatório e válido apenas quando o recurso é um diretório. Se for "verdadeiro", todos os caminhos abaixo do diretório serão eliminados.

Devoluções

Herdado deDataLakePathClient.deleteIfExists

exists(PathExistsOptions)

Devolve true se o ficheiro do Data Lake representado por este cliente existir; falso, caso contrário.

NOTA: utilize esta função com cuidado, uma vez que um ficheiro existente pode ser eliminado por outros clientes ou aplicações. Os novos ficheiros vice-versa podem ser adicionados por outros clientes ou aplicações após a conclusão desta função.

function exists(options?: PathExistsOptions): Promise<boolean>

Parâmetros

options
PathExistsOptions

opções para a operação Existe.

Devoluções

Promise<boolean>

Herdado deDataLakePathClient.exists

getAccessControl(PathGetAccessControlOptions)

Devolve os dados de controlo de acesso de um caminho (diretório de ficheiro).

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>

Parâmetros

options
PathGetAccessControlOptions

Opcional. Opções ao obter o controlo de acesso a ficheiros.

Devoluções

Herdado deDataLakePathClient.getAccessControl

getDataLakeLeaseClient(string)

Obtenha um DataLakeLeaseClient que gere as concessões no caminho (diretório ou ficheiro).

function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient

Parâmetros

proposeLeaseId

string

Opcional. ID de concessão proposta inicial.

Devoluções

Herdado deDataLakePathClient.getDataLakeLeaseClient

getProperties(PathGetPropertiesOptions)

Devolve todos os metadados definidos pelo utilizador, propriedades HTTP padrão e propriedades do sistema para o caminho (diretório ou ficheiro).

AVISO: O metadata objeto devolvido na resposta terá as respetivas teclas em minúsculas, mesmo que tenham originalmente carateres em maiúsculas. Isto difere das chaves de metadados devolvidas pelos métodos de DataLakeFileSystemClient que listam caminhos com a opção includeMetadata , que irá manter a sua caixa original.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>

Parâmetros

options
PathGetPropertiesOptions

Opcional. Opções ao obter as propriedades do caminho.

Devoluções

Herdado deDataLakePathClient.getProperties

move(string, PathMoveOptions)

Mover o diretório ou ficheiro no mesmo sistema de ficheiros.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parâmetros

destinationPath

string

Caminho do diretório de destino, como "diretório" ou caminho de ficheiro "diretório/ficheiro". Se o destinationPath estiver autenticado com SAS, adicione a SAS ao caminho de destino, como "diretório/ficheiro?sasToken".

options
PathMoveOptions

Opcional. Opções ao mover o diretório ou ficheiro.

Devoluções

Promise<PathMoveResponse>

Herdado deDataLakePathClient.move

move(string, string, PathMoveOptions)

Mover o diretório ou ficheiro para outro sistema de ficheiros.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parâmetros

destinationFileSystem

string

Sistema de ficheiros de destino, como "sistema de ficheiros".

destinationPath

string

Caminho do diretório de destino, como "diretório" ou caminho de ficheiro "diretório/ficheiro" Se o destinationPath estiver autenticado com SAS, adicione a SAS ao caminho de destino, como "diretório/ficheiro?sasToken".

options
PathMoveOptions

Opcional. Opções ao mover o diretório ou ficheiro.

Devoluções

Promise<PathMoveResponse>

Herdado deDataLakePathClient.move

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Remove o Controlo de Acesso num caminho e sub caminhos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

RemovePathAccessControlItem[]

A lista de controlo de acesso POSIX para o ficheiro ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Devoluções

Herdado deDataLakePathClient.removeAccessControlRecursive

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Defina os dados de controlo de acesso para um caminho (diretório de ficheiro).

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controlo de acesso POSIX para o ficheiro ou diretório.

options
PathSetAccessControlOptions

Opcional. Opções ao definir o controlo de acesso ao caminho.

Devoluções

Herdado deDataLakePathClient.setAccessControl

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Define o Controlo de Acesso num caminho e sub caminhos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controlo de acesso POSIX para o ficheiro ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Devoluções

Herdado deDataLakePathClient.setAccessControlRecursive

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Define as propriedades do sistema no caminho (diretório ou ficheiro).

Se não for fornecido nenhum valor ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, estes cabeçalhos HTTP de blob sem um valor serão limpos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>

Parâmetros

httpHeaders
PathHttpHeaders

Devoluções

Herdado deDataLakePathClient.setHttpHeaders

setMetadata(Metadata, PathSetMetadataOptions)

Define metadados definidos pelo utilizador para o caminho especificado (diretório de ficheiro) como um ou mais pares nome-valor.

Se não for fornecida nenhuma opção ou se não forem definidos metadados no parâmetro, os metadados do caminho serão removidos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>

Parâmetros

metadata
Metadata

Opcional. Substitua os metadados existentes por este valor. Se não for fornecido nenhum valor, os metadados existentes serão removidos.

options
PathSetMetadataOptions

Opcional. Opções ao definir metadados de caminho.

Devoluções

Herdado deDataLakePathClient.setMetadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Define as permissões de ficheiro num caminho.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>

Parâmetros

permissions
PathPermissions

As permissões de acesso POSIX para o proprietário do ficheiro, o grupo proprietário do ficheiro, entre outros.

options
PathSetPermissionsOptions

Opcional. Opções ao definir permissões de caminho.

Devoluções

Herdado deDataLakePathClient.setPermissions

toDirectoryClient()

Converta dataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.

function toDirectoryClient(): DataLakeDirectoryClient

Devoluções

Herdado deDataLakePathClient.toDirectoryClient

toFileClient()

Converta dataLakePathClient atual em DataLakeFileClient se o caminho atual for um ficheiro.

function toFileClient(): DataLakeFileClient

Devoluções

Herdado deDataLakePathClient.toFileClient

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica o Controlo de Acesso num caminho e sub caminhos.

Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controlo de acesso POSIX para o ficheiro ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Devoluções

Herdado deDataLakePathClient.updateAccessControlRecursive