Partilhar via


DataLakeFileClient class

Um DataLakeFileClient representa uma URL para o arquivo de Armazenamento do Azure.

Extends

Construtores

DataLakeFileClient(string, Pipeline)

Cria uma instância de DataLakeFileClient a partir de url e pipeline.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Cria uma instância de DataLakeFileClient a partir de url e credencial.

Propriedades

fileSystemName

Nome do sistema de arquivos atual.

name

Nome do caminho atual (diretório ou arquivo).

Propriedades Herdadas

accountName
credential

Como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do pacote @azure/identity para autenticar solicitações para o serviço. Você também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, AnonymousCredential será usado.

url

Valor da cadeia de caracteres de URL codificada.

Métodos

append(RequestBodyType, number, number, FileAppendOptions)

Carrega dados para serem anexados a um arquivo. Os dados só podem ser anexados a um ficheiro. Para aplicar dados carregados permanentemente a um arquivo, chame flush.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

create(FileCreateOptions)

Crie um arquivo.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

create(PathResourceTypeModel, PathCreateOptions)

Crie um arquivo.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(FileCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

flush(number, FileFlushOptions)

Libera (grava) dados anexados anteriormente a um arquivo.

generateSasUrl(FileGenerateSasUrlOptions)

Disponível apenas para clientes construídos com uma credencial de chave compartilhada.

Gera um URI SAS (Service Shared Access Signature) com base nas propriedades do cliente e nos parâmetros passados. O SAS é assinado pela credencial de chave compartilhada do cliente.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

query(string, FileQueryOptions)

Consulta rápida para um arquivo formatado em JSON ou CSV.

Exemplo de utilização (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
read(number, number, FileReadOptions)

Baixa um arquivo do serviço, incluindo seus metadados e propriedades.

  • No Node.js, os dados retornam em um fluxo legível readableStreamBody
  • Em navegadores, os dados retornam em um conteúdo prometidoAsBlob

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Exemplo de utilização (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Exemplo de utilização (browser):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Lê um arquivo Data Lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro.

Aviso: Os buffers só podem suportar arquivos de até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile.

readToBuffer(number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS

Lê um arquivo Data Lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro

Aviso: Os buffers só podem suportar arquivos de até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile.

readToFile(string, number, number, FileReadOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Baixa um arquivo Data Lake para um arquivo local. Falhará se o caminho do arquivo fornecido já for encerrado. Deslocamento e contagem são opcionais, passe 0 e indefinido, respectivamente, para baixar o arquivo inteiro.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Define um tempo de expiração em um arquivo, uma vez que esse tempo é cumprido, o arquivo é excluído.

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carrega um Buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView para um arquivo.

uploadFile(string, FileParallelUploadOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Carrega um arquivo local em um arquivo Data Lake.

uploadStream(Readable, FileParallelUploadOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Carrega um fluxo legível Node.js em um arquivo Data Lake. Este método tentará criar um arquivo e, em seguida, começará a carregar bloco por bloco. Certifique-se de que o tamanho potencial do fluxo não exceda FILE_MAX_SIZE_BYTES e o número potencial de blocos não exceda BLOCK_BLOB_MAX_BLOCKS.

DICAS DE MELHORIA DE DESEMPENHO:

  • O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações Buffer.concat().

Métodos Herdados

delete(boolean, PathDeleteOptions)

Exclua o caminho atual (diretório ou arquivo).

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

deleteIfExists(boolean, PathDeleteOptions)

Exclua o caminho atual (diretório ou arquivo), se existir.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

exists(PathExistsOptions)

Retorna true se o arquivo Data Lake representado por este cliente existir; falso caso contrário.

NOTA: utilize esta função com cuidado, uma vez que um ficheiro existente pode ser eliminado por outros clientes ou aplicações. Vice-versa, novos arquivos podem ser adicionados por outros clientes ou aplicativos após a conclusão dessa função.

getAccessControl(PathGetAccessControlOptions)

Retorna os dados de controle de acesso para um caminho (diretório de arquivo).

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

getDataLakeLeaseClient(string)

Obtenha um DataLakeLeaseClient que gerencia concessões no caminho (diretório ou arquivo).

getProperties(PathGetPropertiesOptions)

Retorna todos os metadados definidos pelo usuário, propriedades HTTP padrão e propriedades do sistema para o caminho (diretório ou arquivo).

AVISO: O objeto metadata retornado na resposta terá suas teclas em minúsculas, mesmo que originalmente contivessem caracteres maiúsculos. Isso difere das chaves de metadados retornadas pelos métodos de DataLakeFileSystemClient que listam caminhos usando a opção includeMetadata, que manterá seu invólucro original.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

move(string, PathMoveOptions)

Mova o diretório ou arquivo dentro do mesmo sistema de arquivos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

move(string, string, PathMoveOptions)

Mova o diretório ou arquivo para outro sistema de arquivos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Remove o Controle de Acesso em um caminho e subcaminhos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Defina os dados de controle de acesso para um caminho (diretório de arquivo).

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Define o Controle de Acesso em um caminho e subcaminhos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Define as propriedades do sistema no caminho (diretório ou arquivo).

Se nenhum valor fornecido, ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, esses cabeçalhos HTTP de blob sem um valor serão limpos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

setMetadata(Metadata, PathSetMetadataOptions)

Define metadados definidos pelo usuário para o caminho especificado (diretório de arquivo) como um ou mais pares nome-valor.

Se nenhuma opção for fornecida, ou nenhum metadados definido no parâmetro, os metadados do caminho serão removidos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Define as permissões de arquivo em um caminho.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

toDirectoryClient()

Converta DataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.

toFileClient()

Converta DataLakePathClient atual em DataLakeFileClient se o caminho atual for um arquivo.

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica o Controle de Acesso em um caminho e subcaminhos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

Detalhes do Construtor

DataLakeFileClient(string, Pipeline)

Cria uma instância de DataLakeFileClient a partir de url e pipeline.

new DataLakeFileClient(url: string, pipeline: Pipeline)

Parâmetros

url

string

Uma cadeia de caracteres de cliente apontando para o arquivo data lake do Armazenamento do Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Você pode acrescentar uma SAS se estiver usando AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

pipeline
Pipeline

Chame newPipeline() para criar um pipeline padrão ou forneça um pipeline personalizado.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Cria uma instância de DataLakeFileClient a partir de url e credencial.

new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)

Parâmetros

url

string

Uma cadeia de caracteres de cliente apontando para o arquivo data lake do Armazenamento do Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Você pode acrescentar uma SAS se estiver usando AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

credential

StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do pacote @azure/identity para autenticar solicitações para o serviço. Você também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, AnonymousCredential será usado.

options
StoragePipelineOptions

Opcional. Opções para configurar o pipeline HTTP.

Detalhes de Propriedade

fileSystemName

Nome do sistema de arquivos atual.

string fileSystemName

Valor de Propriedade

string

name

Nome do caminho atual (diretório ou arquivo).

string name

Valor de Propriedade

string

Detalhes da Propriedade Herdada

accountName

accountName: string

Valor de Propriedade

string

herdado de DataLakePathClient.accountName

credential

Como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do pacote @azure/identity para autenticar solicitações para o serviço. Você também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, AnonymousCredential será usado.

credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Valor de Propriedade

herdado de DataLakePathClient.credential

url

Valor da cadeia de caracteres de URL codificada.

url: string

Valor de Propriedade

string

herdado de DataLakePathClient.url

Detalhes de Método

append(RequestBodyType, number, number, FileAppendOptions)

Carrega dados para serem anexados a um arquivo. Os dados só podem ser anexados a um ficheiro. Para aplicar dados carregados permanentemente a um arquivo, chame flush.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>

Parâmetros

body
HttpRequestBody

Conteúdo a carregar.

offset

number

Acrescentar deslocamento em bytes.

length

number

Comprimento do conteúdo a acrescentar em bytes.

options
FileAppendOptions

Opcional. Opções ao anexar dados.

Devoluções

create(FileCreateOptions)

Crie um arquivo.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(options?: FileCreateOptions): Promise<FileCreateResponse>

Parâmetros

options
FileCreateOptions

Opcional. Opções ao criar ficheiros.

Devoluções

create(PathResourceTypeModel, PathCreateOptions)

Crie um arquivo.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>

Parâmetros

resourceType
PathResourceTypeModel

Tipo de recurso, deve ser "arquivo" para DataLakeFileClient.

options
PathCreateOptions

Opcional. Opções ao criar ficheiros.

Devoluções

createIfNotExists(FileCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>

Parâmetros

options
FileCreateIfNotExistsOptions

Opcional. Opções ao criar ficheiros.

Devoluções

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Crie um arquivo se ele ainda não existir.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>

Parâmetros

resourceType
PathResourceTypeModel

Tipo de recurso, deve ser "arquivo" para DataLakeFileClient.

Devoluções

flush(number, FileFlushOptions)

Libera (grava) dados anexados anteriormente a um arquivo.

function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>

Parâmetros

position

number

Posição do ficheiro a descarregar. Este parâmetro permite que o chamador carregue dados em paralelo e controle a ordem em que eles são anexados ao arquivo. É necessário ao carregar dados a serem anexados ao arquivo e ao liberar dados carregados anteriormente para o arquivo. O valor deve ser a posição onde os dados devem ser acrescentados. Os dados carregados não são imediatamente liberados ou gravados no arquivo. Para liberar, os dados carregados anteriormente devem ser contíguos, o parâmetro position deve ser especificado e igual ao comprimento do arquivo depois que todos os dados tiverem sido gravados e não deve haver um corpo de entidade de solicitação incluído com a solicitação.

options
FileFlushOptions

Opcional. Opções ao liberar dados.

Devoluções

generateSasUrl(FileGenerateSasUrlOptions)

Disponível apenas para clientes construídos com uma credencial de chave compartilhada.

Gera um URI SAS (Service Shared Access Signature) com base nas propriedades do cliente e nos parâmetros passados. O SAS é assinado pela credencial de chave compartilhada do cliente.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas

function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>

Parâmetros

options
FileGenerateSasUrlOptions

Parâmetros opcionais.

Devoluções

Promise<string>

O URI SAS que consiste no URI para o recurso representado por este cliente, seguido pelo token SAS gerado.

query(string, FileQueryOptions)

Consulta rápida para um arquivo formatado em JSON ou CSV.

Exemplo de utilização (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>

Parâmetros

query

string

Devoluções

Promise<FileReadResponse>

read(number, number, FileReadOptions)

Baixa um arquivo do serviço, incluindo seus metadados e propriedades.

  • No Node.js, os dados retornam em um fluxo legível readableStreamBody
  • Em navegadores, os dados retornam em um conteúdo prometidoAsBlob

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob

  • Exemplo de utilização (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Exemplo de utilização (browser):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parâmetros

offset

number

Opcional. Deslocamento para arquivo de leitura, o valor padrão é 0.

count

number

Opcional. Quantos bytes ler, o padrão será lido do deslocamento até o final.

options
FileReadOptions

Opcional. Opções ao ler o arquivo.

Devoluções

Promise<FileReadResponse>

readToBuffer(Buffer, number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Lê um arquivo Data Lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro.

Aviso: Os buffers só podem suportar arquivos de até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile.

function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parâmetros

buffer

Buffer

Buffer para ser preenchido, deve ter comprimento maior do que contagem

offset

number

A partir de qual posição do arquivo Data Lake ler

count

number

Quantos dados devem ser lidos. Vai ler até o final quando passar indefinido

Devoluções

Promise<Buffer>

readToBuffer(number, number, FileReadToBufferOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS

Lê um arquivo Data Lake em paralelo a um buffer. Deslocamento e contagem são opcionais, passe 0 para ambos lerem o arquivo inteiro

Aviso: Os buffers só podem suportar arquivos de até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para arquivos maiores que esse tamanho, considere readToFile.

function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parâmetros

offset

number

A partir de qual posição do arquivo Data Lake para leitura (em bytes)

count

number

Quantos dados (em bytes) devem ser lidos. Vai ler até o final quando passar indefinido

Devoluções

Promise<Buffer>

readToFile(string, number, number, FileReadOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Baixa um arquivo Data Lake para um arquivo local. Falhará se o caminho do arquivo fornecido já for encerrado. Deslocamento e contagem são opcionais, passe 0 e indefinido, respectivamente, para baixar o arquivo inteiro.

function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parâmetros

filePath

string

offset

number

A partir de qual posição do arquivo para download.

count

number

Quantos dados serão baixados. Fará o download até o final ao passar indefinido.

options
FileReadOptions

Opções para ler o arquivo Data Lake.

Devoluções

Promise<FileReadResponse>

Os dados de resposta para a operação de leitura de arquivo, mas com readableStreamBody definido como undefined uma vez que seu conteúdo já é lido e gravado em um arquivo local no caminho especificado.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Define um tempo de expiração em um arquivo, uma vez que esse tempo é cumprido, o arquivo é excluído.

function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>

Parâmetros

Devoluções

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carrega um Buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView para um arquivo.

function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

data

Blob | ArrayBuffer | ArrayBufferView | Buffer

Buffer(Nó), Blob, ArrayBuffer ou ArrayBufferView

Devoluções

uploadFile(string, FileParallelUploadOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Carrega um arquivo local em um arquivo Data Lake.

function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

filePath

string

Caminho completo do arquivo local

Devoluções

uploadStream(Readable, FileParallelUploadOptions)

DISPONÍVEL APENAS EM TEMPO DE EXECUÇÃO NODE.JS.

Carrega um fluxo legível Node.js em um arquivo Data Lake. Este método tentará criar um arquivo e, em seguida, começará a carregar bloco por bloco. Certifique-se de que o tamanho potencial do fluxo não exceda FILE_MAX_SIZE_BYTES e o número potencial de blocos não exceda BLOCK_BLOB_MAX_BLOCKS.

DICAS DE MELHORIA DE DESEMPENHO:

  • O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações Buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parâmetros

stream

Readable

Node.js Fluxo legível.

Devoluções

Detalhes do Método Herdado

delete(boolean, PathDeleteOptions)

Exclua o caminho atual (diretório ou arquivo).

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>

Parâmetros

recursive

boolean

Obrigatório e válido somente quando o recurso é um diretório. Se "true", todos os caminhos abaixo do diretório serão excluídos.

options
PathDeleteOptions

Opcional. Opções ao excluir caminho.

Devoluções

herdado deDataLakePathClient.delete

deleteIfExists(boolean, PathDeleteOptions)

Exclua o caminho atual (diretório ou arquivo), se existir.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete

function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>

Parâmetros

recursive

boolean

Obrigatório e válido somente quando o recurso é um diretório. Se "true", todos os caminhos abaixo do diretório serão excluídos.

Devoluções

herdado deDataLakePathClient.deleteIfExists

exists(PathExistsOptions)

Retorna true se o arquivo Data Lake representado por este cliente existir; falso caso contrário.

NOTA: utilize esta função com cuidado, uma vez que um ficheiro existente pode ser eliminado por outros clientes ou aplicações. Vice-versa, novos arquivos podem ser adicionados por outros clientes ou aplicativos após a conclusão dessa função.

function exists(options?: PathExistsOptions): Promise<boolean>

Parâmetros

options
PathExistsOptions

opções para a operação Existe.

Devoluções

Promise<boolean>

herdado deDataLakePathClient.exists

getAccessControl(PathGetAccessControlOptions)

Retorna os dados de controle de acesso para um caminho (diretório de arquivo).

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties

function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>

Parâmetros

options
PathGetAccessControlOptions

Opcional. Opções ao obter controle de acesso a arquivos.

Devoluções

herdado de DataLakePathClient.getAccessControl

getDataLakeLeaseClient(string)

Obtenha um DataLakeLeaseClient que gerencia concessões no caminho (diretório ou arquivo).

function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient

Parâmetros

proposeLeaseId

string

Opcional. Proposta inicial de arrendamento Id.

Devoluções

herdado de DataLakePathClient.getDataLakeLeaseClient

getProperties(PathGetPropertiesOptions)

Retorna todos os metadados definidos pelo usuário, propriedades HTTP padrão e propriedades do sistema para o caminho (diretório ou arquivo).

AVISO: O objeto metadata retornado na resposta terá suas teclas em minúsculas, mesmo que originalmente contivessem caracteres maiúsculos. Isso difere das chaves de metadados retornadas pelos métodos de DataLakeFileSystemClient que listam caminhos usando a opção includeMetadata, que manterá seu invólucro original.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties

function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>

Parâmetros

options
PathGetPropertiesOptions

Opcional. Opções ao obter propriedades de caminho.

Devoluções

herdado de DataLakePathClient.getProperties

move(string, PathMoveOptions)

Mova o diretório ou arquivo dentro do mesmo sistema de arquivos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parâmetros

destinationPath

string

Caminho do diretório de destino como "diretório" ou caminho do arquivo "diretório/arquivo". Se destinationPath for autenticado com SAS, adicione o SAS ao caminho de destino como "directory/file?sasToken".

options
PathMoveOptions

Opcional. Opções ao mover diretório ou arquivo.

Devoluções

Promise<PathMoveResponse>

herdado deDataLakePathClient.move

move(string, string, PathMoveOptions)

Mova o diretório ou arquivo para outro sistema de arquivos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create

function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parâmetros

destinationFileSystem

string

Sistema de arquivos de destino como "sistema de arquivos".

destinationPath

string

Caminho do diretório de destino como "diretório" ou caminho do arquivo "diretório/arquivo" Se o destinationPath for autenticado com SAS, adicione o SAS ao caminho de destino como "directory/file?sasToken".

options
PathMoveOptions

Opcional. Opções ao mover diretório ou arquivo.

Devoluções

Promise<PathMoveResponse>

herdado deDataLakePathClient.move

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Remove o Controle de Acesso em um caminho e subcaminhos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

RemovePathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Devoluções

herdado de DataLakePathClient.removeAccessControlRecursive

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Defina os dados de controle de acesso para um caminho (diretório de arquivo).

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathSetAccessControlOptions

Opcional. Opções ao definir o controle de acesso de caminho.

Devoluções

herdado de DataLakePathClient.setAccessControl

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Define o Controle de Acesso em um caminho e subcaminhos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Devoluções

herdado de DataLakePathClient.setAccessControlRecursive

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Define as propriedades do sistema no caminho (diretório ou arquivo).

Se nenhum valor fornecido, ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, esses cabeçalhos HTTP de blob sem um valor serão limpos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties

function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>

Parâmetros

httpHeaders
PathHttpHeaders

Devoluções

herdado deDataLakePathClient.setHttpHeaders

setMetadata(Metadata, PathSetMetadataOptions)

Define metadados definidos pelo usuário para o caminho especificado (diretório de arquivo) como um ou mais pares nome-valor.

Se nenhuma opção for fornecida, ou nenhum metadados definido no parâmetro, os metadados do caminho serão removidos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata

function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>

Parâmetros

metadata
Metadata

Opcional. Substitua os metadados existentes por esse valor. Se nenhum valor for fornecido, os metadados existentes serão removidos.

options
PathSetMetadataOptions

Opcional. Opções ao definir metadados de caminho.

Devoluções

herdado de DataLakePathClient.setMetadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Define as permissões de arquivo em um caminho.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>

Parâmetros

permissions
PathPermissions

As permissões de acesso POSIX para o proprietário do arquivo, o grupo proprietário do arquivo e outros.

options
PathSetPermissionsOptions

Opcional. Opções ao definir permissões de caminho.

Devoluções

herdado deDataLakePathClient.setPermissions

toDirectoryClient()

Converta DataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.

function toDirectoryClient(): DataLakeDirectoryClient

Devoluções

herdado de DataLakePathClient.toDirectoryClient

toFileClient()

Converta DataLakePathClient atual em DataLakeFileClient se o caminho atual for um arquivo.

function toFileClient(): DataLakeFileClient

Devoluções

herdado deDataLakePathClient.toFileClient

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica o Controle de Acesso em um caminho e subcaminhos.

Visualizar https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update

function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parâmetros

acl

PathAccessControlItem[]

A lista de controle de acesso POSIX para o arquivo ou diretório.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opções

Devoluções

herdado de DataLakePathClient.updateAccessControlRecursive