DataLakeFileClient class
Um DataLakeFileClient representa um URL para o ficheiro de Armazenamento do Azure.
- Extends
Construtores
Data |
Cria uma instância de DataLakeFileClient a partir do URL e do pipeline. |
Data |
Cria uma instância de DataLakeFileClient a partir do URL e da credencial. |
Propriedades
file |
Nome do sistema de ficheiros atual. |
name | Nome do caminho atual (diretório ou ficheiro). |
Propriedades Herdadas
account |
|
credential | Tal como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do |
url | Valor da cadeia de URL codificado. |
Métodos
append(Request |
Carrega dados para serem anexados a um ficheiro. Os dados só podem ser anexados a um ficheiro. Para aplicar dados carregados perviosamente a um ficheiro, chame flush. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
create(File |
Crie um ficheiro. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create(Path |
Crie um ficheiro. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create |
Crie um ficheiro se ainda não existir. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
create |
Crie um ficheiro se ainda não existir. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
flush(number, File |
Remove (escreve) dados anexados anteriormente a um ficheiro. |
generate |
Disponível apenas para clientes criados com uma credencial de chave partilhada. Gera um URI de Assinatura de Acesso Partilhado do Serviço (SAS) com base nas propriedades e parâmetros do cliente transmitidos. A SAS é assinada pela credencial de chave partilhada do cliente. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas |
query(string, File |
Consulta rápida para um ficheiro com formato JSON ou CSV. Utilização de exemplo (Node.js):
|
read(number, number, File |
Transfere um ficheiro do serviço, incluindo os respetivos metadados e propriedades.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob
Utilização de exemplo (browser):
|
read |
DISPONÍVEL APENAS NO NODE.JS RUNTIME. Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. O deslocamento e a contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro. Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile. |
read |
DISPONÍVEL APENAS NO NODE.JS RUNTIME Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. Desvio e contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile. |
read |
DISPONÍVEL APENAS NO NODE.JS RUNTIME. Transfere um ficheiro do Data Lake para um ficheiro local. Falha se o caminho de ficheiro especificado já sair. O deslocamento e a contagem são opcionais, passam 0 e não são definidos, respetivamente, para transferir todo o ficheiro. |
set |
Define uma hora de expiração num ficheiro, uma vez que essa hora é cumprida, o ficheiro é eliminado. |
upload(Blob | Array |
Carrega uma Memória Intermédia (Node.js)/Blob/ArrayBuffer/ArrayBufferView para um Ficheiro. |
upload |
DISPONÍVEL APENAS NO NODE.JS RUNTIME. Carrega um ficheiro local para um ficheiro do Data Lake. |
upload |
DISPONÍVEL APENAS NO NODE.JS RUNTIME. Carrega um Node.js fluxo Legível para um ficheiro do Data Lake. Este método tentará criar um ficheiro e, em seguida, iniciará o carregamento segmento a segmento. Certifique-se de que o tamanho potencial do fluxo não excede FILE_MAX_SIZE_BYTES e que o número potencial de segmentos não excede BLOCK_BLOB_MAX_BLOCKS. SUGESTÕES DE MELHORIA DE DESEMPENHO:
|
Métodos Herdados
delete(boolean, Path |
Eliminar caminho atual (diretório ou ficheiro). Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete |
delete |
Elimine o caminho atual (diretório ou ficheiro) se existir. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete |
exists(Path |
Devolve true se o ficheiro do Data Lake representado por este cliente existir; falso, caso contrário. NOTA: utilize esta função com cuidado, uma vez que um ficheiro existente pode ser eliminado por outros clientes ou aplicações. Os novos ficheiros vice-versa podem ser adicionados por outros clientes ou aplicações após a conclusão desta função. |
get |
Devolve os dados de controlo de acesso de um caminho (diretório de ficheiro). Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties |
get |
Obtenha um DataLakeLeaseClient que gere as concessões no caminho (diretório ou ficheiro). |
get |
Devolve todos os metadados definidos pelo utilizador, propriedades HTTP padrão e propriedades do sistema para o caminho (diretório ou ficheiro). AVISO: O Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties |
move(string, Path |
Mover o diretório ou ficheiro no mesmo sistema de ficheiros. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
move(string, string, Path |
Mover o diretório ou ficheiro para outro sistema de ficheiros. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create |
remove |
Remove o Controlo de Acesso num caminho e sub caminhos. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Defina os dados de controlo de acesso para um caminho (diretório de ficheiro). Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Define o Controlo de Acesso num caminho e sub caminhos. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
set |
Define as propriedades do sistema no caminho (diretório ou ficheiro). Se não for fornecido nenhum valor ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, estes cabeçalhos HTTP de blob sem um valor serão limpos. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties |
set |
Define metadados definidos pelo utilizador para o caminho especificado (diretório de ficheiro) como um ou mais pares nome-valor. Se não for fornecida nenhuma opção ou se não forem definidos metadados no parâmetro, os metadados do caminho serão removidos. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata |
set |
Define as permissões de ficheiro num caminho. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
to |
Converta dataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório. |
to |
Converta dataLakePathClient atual em DataLakeFileClient se o caminho atual for um ficheiro. |
update |
Modifica o Controlo de Acesso num caminho e sub caminhos. Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update |
Detalhes do Construtor
DataLakeFileClient(string, Pipeline)
Cria uma instância de DataLakeFileClient a partir do URL e do pipeline.
new DataLakeFileClient(url: string, pipeline: Pipeline)
Parâmetros
- url
-
string
Uma Cadeia de cliente a apontar para o ficheiro data lake do Armazenamento do Microsoft Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Pode acrescentar uma SAS se utilizar AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".
- pipeline
- Pipeline
Chame newPipeline() para criar um pipeline predefinido ou forneça um pipeline personalizado.
DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)
Cria uma instância de DataLakeFileClient a partir do URL e da credencial.
new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)
Parâmetros
- url
-
string
Uma Cadeia de cliente a apontar para o ficheiro data lake do Armazenamento do Microsoft Azure, como "https://myaccount.dfs.core.windows.net/filesystem/file". Pode acrescentar uma SAS se utilizar AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".
- credential
-
StorageSharedKeyCredential | AnonymousCredential | TokenCredential
Tal como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do @azure/identity
pacote para autenticar pedidos para o serviço. Também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, é utilizado AnonymousCredential.
- options
- StoragePipelineOptions
Opcional. Opções para configurar o pipeline HTTP.
Detalhes de Propriedade
fileSystemName
Nome do sistema de ficheiros atual.
string fileSystemName
Valor de Propriedade
string
name
Nome do caminho atual (diretório ou ficheiro).
string name
Valor de Propriedade
string
Detalhes da Propriedade Herdada
accountName
credential
Tal como AnonymousCredential, StorageSharedKeyCredential ou qualquer credencial do @azure/identity
pacote para autenticar pedidos para o serviço. Também pode fornecer um objeto que implementa a interface TokenCredential. Se não for especificado, é utilizado AnonymousCredential.
credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential
Valor de Propriedade
Herdado deDataLakePathClient.credential
url
Valor da cadeia de URL codificado.
url: string
Valor de Propriedade
string
Herdado deDataLakePathClient.url
Detalhes de Método
append(RequestBodyType, number, number, FileAppendOptions)
Carrega dados para serem anexados a um ficheiro. Os dados só podem ser anexados a um ficheiro. Para aplicar dados carregados perviosamente a um ficheiro, chame flush.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>
Parâmetros
- body
- HttpRequestBody
Conteúdo a carregar.
- offset
-
number
Acrescentar desvio em bytes.
- length
-
number
Comprimento do conteúdo a acrescentar em bytes.
- options
- FileAppendOptions
Opcional. Opções ao acrescentar dados.
Devoluções
Promise<FileAppendResponse>
create(FileCreateOptions)
Crie um ficheiro.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function create(options?: FileCreateOptions): Promise<FileCreateResponse>
Parâmetros
- options
- FileCreateOptions
Opcional. Opções ao criar o ficheiro.
Devoluções
Promise<FileCreateResponse>
create(PathResourceTypeModel, PathCreateOptions)
Crie um ficheiro.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>
Parâmetros
- resourceType
- PathResourceTypeModel
O tipo de recurso tem de ser "ficheiro" para DataLakeFileClient.
- options
- PathCreateOptions
Opcional. Opções ao criar o ficheiro.
Devoluções
Promise<PathCreateResponse>
createIfNotExists(FileCreateIfNotExistsOptions)
Crie um ficheiro se ainda não existir.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>
Parâmetros
- options
- FileCreateIfNotExistsOptions
Opcional. Opções ao criar o ficheiro.
Devoluções
Promise<FileCreateIfNotExistsResponse>
createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)
Crie um ficheiro se ainda não existir.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>
Parâmetros
- resourceType
- PathResourceTypeModel
O tipo de recurso tem de ser "ficheiro" para DataLakeFileClient.
- options
- PathCreateIfNotExistsOptions
Devoluções
Promise<PathCreateIfNotExistsResponse>
flush(number, FileFlushOptions)
Remove (escreve) dados anexados anteriormente a um ficheiro.
function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>
Parâmetros
- position
-
number
Posição do ficheiro a remover. Este parâmetro permite que o autor da chamada carregue dados em paralelo e controle a ordem pela qual são anexados ao ficheiro. É necessário ao carregar dados para serem anexados ao ficheiro e ao remover dados carregados anteriormente para o ficheiro. O valor tem de ser a posição onde os dados devem ser acrescentados. Os dados carregados não são imediatamente descarregados ou escritos no ficheiro. Para remover a cache, os dados carregados anteriormente têm de ser contíguos, o parâmetro de posição tem de ser especificado e igual ao comprimento do ficheiro depois de todos os dados terem sido escritos e não pode haver um corpo de entidade de pedido incluído no pedido.
- options
- FileFlushOptions
Opcional. Opções ao remover dados.
Devoluções
Promise<FileFlushResponse>
generateSasUrl(FileGenerateSasUrlOptions)
Disponível apenas para clientes criados com uma credencial de chave partilhada.
Gera um URI de Assinatura de Acesso Partilhado do Serviço (SAS) com base nas propriedades e parâmetros do cliente transmitidos. A SAS é assinada pela credencial de chave partilhada do cliente.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas
function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>
Parâmetros
- options
- FileGenerateSasUrlOptions
Parâmetros opcionais.
Devoluções
Promise<string>
O URI de SAS que consiste no URI para o recurso representado por este cliente, seguido do token de SAS gerado.
query(string, FileQueryOptions)
Consulta rápida para um ficheiro com formato JSON ou CSV.
Utilização de exemplo (Node.js):
// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);
async function streamToBuffer(readableStream) {
return new Promise((resolve, reject) => {
const chunks = [];
readableStream.on("data", (data) => {
chunks.push(data instanceof Buffer ? data : Buffer.from(data));
});
readableStream.on("end", () => {
resolve(Buffer.concat(chunks));
});
readableStream.on("error", reject);
});
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>
Parâmetros
- query
-
string
- options
- FileQueryOptions
Devoluções
Promise<FileReadResponse>
read(number, number, FileReadOptions)
Transfere um ficheiro do serviço, incluindo os respetivos metadados e propriedades.
- No Node.js, os dados são devolvidos num fluxo legível legívelStreamBody
- Nos browsers, os dados são devolvidos num contentAsBlob de promessa
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob
- Utilização de exemplo (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());
async function streamToBuffer(readableStream) {
return new Promise((resolve, reject) => {
const chunks = [];
readableStream.on("data", (data) => {
chunks.push(data instanceof Buffer ? data : Buffer.from(data));
});
readableStream.on("end", () => {
resolve(Buffer.concat(chunks));
});
readableStream.on("error", reject);
});
}
Utilização de exemplo (browser):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);
async function blobToString(blob: Blob): Promise<string> {
const fileReader = new FileReader();
return new Promise<string>((resolve, reject) => {
fileReader.onloadend = (ev: any) => {
resolve(ev.target!.result);
};
fileReader.onerror = reject;
fileReader.readAsText(blob);
});
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>
Parâmetros
- offset
-
number
Opcional. Desfasamento para ficheiro de leitura, o valor predefinido é 0.
- count
-
number
Opcional. Quantos bytes ler, a predefinição será lida de desfasamento até ao fim.
- options
- FileReadOptions
Opcional. Opções ao ler o ficheiro.
Devoluções
Promise<FileReadResponse>
readToBuffer(Buffer, number, number, FileReadToBufferOptions)
DISPONÍVEL APENAS NO NODE.JS RUNTIME.
Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. O deslocamento e a contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro.
Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile.
function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>
Parâmetros
- buffer
-
Buffer
Memória intermédia a preencher, tem de ter um comprimento superior à contagem
- offset
-
number
A partir da posição do ficheiro do Data Lake a ler
- count
-
number
A quantidade de dados a ler. Irá ler para o fim ao passar indefinidamente
- options
- FileReadToBufferOptions
Devoluções
Promise<Buffer>
readToBuffer(number, number, FileReadToBufferOptions)
DISPONÍVEL APENAS NO NODE.JS RUNTIME
Lê um ficheiro do Data Lake em paralelo para uma memória intermédia. Desvio e contagem são opcionais, passe 0 para ambos lerem o ficheiro inteiro
Aviso: As memórias intermédias só podem suportar ficheiros até cerca de um gigabyte em sistemas de 32 bits ou cerca de dois gigabytes em sistemas de 64 bits devido a limitações de Node.js/V8. Para ficheiros maiores do que este tamanho, considere readToFile.
function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>
Parâmetros
- offset
-
number
A partir da posição do ficheiro do Data Lake a ler(em bytes)
- count
-
number
A quantidade de dados (em bytes) a ler. Irá ler para o fim ao passar indefinidamente
- options
- FileReadToBufferOptions
Devoluções
Promise<Buffer>
readToFile(string, number, number, FileReadOptions)
DISPONÍVEL APENAS NO NODE.JS RUNTIME.
Transfere um ficheiro do Data Lake para um ficheiro local. Falha se o caminho de ficheiro especificado já sair. O deslocamento e a contagem são opcionais, passam 0 e não são definidos, respetivamente, para transferir todo o ficheiro.
function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>
Parâmetros
- filePath
-
string
- offset
-
number
A partir da posição do ficheiro a transferir.
- count
-
number
A quantidade de dados a transferir. Será transferido para o fim ao passar indefinido.
- options
- FileReadOptions
Opções para ler o ficheiro do Data Lake.
Devoluções
Promise<FileReadResponse>
Os dados de resposta para a operação de leitura de ficheiros, mas com readableStreamBody definido como indefinido, uma vez que o respetivo conteúdo já é lido e escrito num ficheiro local no caminho especificado.
setExpiry(FileExpiryMode, FileSetExpiryOptions)
Define uma hora de expiração num ficheiro, uma vez que essa hora é cumprida, o ficheiro é eliminado.
function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>
Parâmetros
- mode
- FileExpiryMode
- options
- FileSetExpiryOptions
Devoluções
Promise<FileSetExpiryResponse>
upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)
Carrega uma Memória Intermédia (Node.js)/Blob/ArrayBuffer/ArrayBufferView para um Ficheiro.
function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Parâmetros
- data
-
Blob | ArrayBuffer | ArrayBufferView | Buffer
Buffer(Node), Blob, ArrayBuffer ou ArrayBufferView
- options
- FileParallelUploadOptions
Devoluções
Promise<FileUploadResponse>
uploadFile(string, FileParallelUploadOptions)
DISPONÍVEL APENAS NO NODE.JS RUNTIME.
Carrega um ficheiro local para um ficheiro do Data Lake.
function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Parâmetros
- filePath
-
string
Caminho completo do ficheiro local
- options
- FileParallelUploadOptions
Devoluções
Promise<FileUploadResponse>
uploadStream(Readable, FileParallelUploadOptions)
DISPONÍVEL APENAS NO NODE.JS RUNTIME.
Carrega um Node.js fluxo Legível para um ficheiro do Data Lake. Este método tentará criar um ficheiro e, em seguida, iniciará o carregamento segmento a segmento. Certifique-se de que o tamanho potencial do fluxo não excede FILE_MAX_SIZE_BYTES e que o número potencial de segmentos não excede BLOCK_BLOB_MAX_BLOCKS.
SUGESTÕES DE MELHORIA DE DESEMPENHO:
- O fluxo de entrada highWaterMark é melhor definir um mesmo valor com o parâmetro options.chunkSize, o que evitará operações Buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>
Parâmetros
- stream
-
Readable
Node.js fluxo legível.
- options
- FileParallelUploadOptions
Devoluções
Promise<FileUploadResponse>
Detalhes do Método Herdado
delete(boolean, PathDeleteOptions)
Eliminar caminho atual (diretório ou ficheiro).
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete
function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>
Parâmetros
- recursive
-
boolean
Obrigatório e válido apenas quando o recurso é um diretório. Se for "verdadeiro", todos os caminhos abaixo do diretório serão eliminados.
- options
- PathDeleteOptions
Opcional. Opções ao eliminar o caminho.
Devoluções
Promise<PathDeleteResponse>
Herdado deDataLakePathClient.delete
deleteIfExists(boolean, PathDeleteOptions)
Elimine o caminho atual (diretório ou ficheiro) se existir.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete
function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>
Parâmetros
- recursive
-
boolean
Obrigatório e válido apenas quando o recurso é um diretório. Se for "verdadeiro", todos os caminhos abaixo do diretório serão eliminados.
- options
- PathDeleteOptions
Devoluções
Promise<PathDeleteIfExistsResponse>
Herdado deDataLakePathClient.deleteIfExists
exists(PathExistsOptions)
Devolve true se o ficheiro do Data Lake representado por este cliente existir; falso, caso contrário.
NOTA: utilize esta função com cuidado, uma vez que um ficheiro existente pode ser eliminado por outros clientes ou aplicações. Os novos ficheiros vice-versa podem ser adicionados por outros clientes ou aplicações após a conclusão desta função.
function exists(options?: PathExistsOptions): Promise<boolean>
Parâmetros
- options
- PathExistsOptions
opções para a operação Existe.
Devoluções
Promise<boolean>
Herdado deDataLakePathClient.exists
getAccessControl(PathGetAccessControlOptions)
Devolve os dados de controlo de acesso de um caminho (diretório de ficheiro).
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties
function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>
Parâmetros
- options
- PathGetAccessControlOptions
Opcional. Opções ao obter o controlo de acesso a ficheiros.
Devoluções
Promise<PathGetAccessControlResponse>
Herdado deDataLakePathClient.getAccessControl
getDataLakeLeaseClient(string)
Obtenha um DataLakeLeaseClient que gere as concessões no caminho (diretório ou ficheiro).
function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient
Parâmetros
- proposeLeaseId
-
string
Opcional. ID de concessão proposta inicial.
Devoluções
getProperties(PathGetPropertiesOptions)
Devolve todos os metadados definidos pelo utilizador, propriedades HTTP padrão e propriedades do sistema para o caminho (diretório ou ficheiro).
AVISO: O metadata
objeto devolvido na resposta terá as respetivas teclas em minúsculas, mesmo que tenham originalmente carateres em maiúsculas. Isto difere das chaves de metadados devolvidas pelos métodos de DataLakeFileSystemClient que listam caminhos com a opção includeMetadata
, que irá manter a sua caixa original.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties
function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>
Parâmetros
- options
- PathGetPropertiesOptions
Opcional. Opções ao obter as propriedades do caminho.
Devoluções
Promise<PathGetPropertiesResponse>
Herdado deDataLakePathClient.getProperties
move(string, PathMoveOptions)
Mover o diretório ou ficheiro no mesmo sistema de ficheiros.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>
Parâmetros
- destinationPath
-
string
Caminho do diretório de destino, como "diretório" ou caminho de ficheiro "diretório/ficheiro". Se o destinationPath estiver autenticado com SAS, adicione a SAS ao caminho de destino, como "diretório/ficheiro?sasToken".
- options
- PathMoveOptions
Opcional. Opções ao mover o diretório ou ficheiro.
Devoluções
Promise<PathMoveResponse>
Herdado deDataLakePathClient.move
move(string, string, PathMoveOptions)
Mover o diretório ou ficheiro para outro sistema de ficheiros.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create
function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>
Parâmetros
- destinationFileSystem
-
string
Sistema de ficheiros de destino, como "sistema de ficheiros".
- destinationPath
-
string
Caminho do diretório de destino, como "diretório" ou caminho de ficheiro "diretório/ficheiro" Se o destinationPath estiver autenticado com SAS, adicione a SAS ao caminho de destino, como "diretório/ficheiro?sasToken".
- options
- PathMoveOptions
Opcional. Opções ao mover o diretório ou ficheiro.
Devoluções
Promise<PathMoveResponse>
Herdado deDataLakePathClient.move
removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Remove o Controlo de Acesso num caminho e sub caminhos.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Parâmetros
A lista de controlo de acesso POSIX para o ficheiro ou diretório.
Opcional. Opções
Devoluções
setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)
Defina os dados de controlo de acesso para um caminho (diretório de ficheiro).
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>
Parâmetros
- acl
A lista de controlo de acesso POSIX para o ficheiro ou diretório.
- options
- PathSetAccessControlOptions
Opcional. Opções ao definir o controlo de acesso ao caminho.
Devoluções
Promise<PathSetAccessControlResponse>
Herdado deDataLakePathClient.setAccessControl
setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Define o Controlo de Acesso num caminho e sub caminhos.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Parâmetros
- acl
A lista de controlo de acesso POSIX para o ficheiro ou diretório.
Opcional. Opções
Devoluções
setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)
Define as propriedades do sistema no caminho (diretório ou ficheiro).
Se não for fornecido nenhum valor ou nenhum valor fornecido para os cabeçalhos HTTP de blob especificados, estes cabeçalhos HTTP de blob sem um valor serão limpos.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties
function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>
Parâmetros
- httpHeaders
- PathHttpHeaders
- options
- PathSetHttpHeadersOptions
Devoluções
Promise<PathSetHttpHeadersResponse>
Herdado deDataLakePathClient.setHttpHeaders
setMetadata(Metadata, PathSetMetadataOptions)
Define metadados definidos pelo utilizador para o caminho especificado (diretório de ficheiro) como um ou mais pares nome-valor.
Se não for fornecida nenhuma opção ou se não forem definidos metadados no parâmetro, os metadados do caminho serão removidos.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata
function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>
Parâmetros
- metadata
- Metadata
Opcional. Substitua os metadados existentes por este valor. Se não for fornecido nenhum valor, os metadados existentes serão removidos.
- options
- PathSetMetadataOptions
Opcional. Opções ao definir metadados de caminho.
Devoluções
Promise<PathSetMetadataResponse>
Herdado deDataLakePathClient.setMetadata
setPermissions(PathPermissions, PathSetPermissionsOptions)
Define as permissões de ficheiro num caminho.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>
Parâmetros
- permissions
- PathPermissions
As permissões de acesso POSIX para o proprietário do ficheiro, o grupo proprietário do ficheiro, entre outros.
- options
- PathSetPermissionsOptions
Opcional. Opções ao definir permissões de caminho.
Devoluções
Promise<PathSetPermissionsResponse>
Herdado deDataLakePathClient.setPermissions
toDirectoryClient()
Converta dataLakePathClient atual em DataLakeDirectoryClient se o caminho atual for um diretório.
function toDirectoryClient(): DataLakeDirectoryClient
Devoluções
Herdado deDataLakePathClient.toDirectoryClient
toFileClient()
Converta dataLakePathClient atual em DataLakeFileClient se o caminho atual for um ficheiro.
function toFileClient(): DataLakeFileClient
Devoluções
Herdado deDataLakePathClient.toFileClient
updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)
Modifica o Controlo de Acesso num caminho e sub caminhos.
Veja https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update
function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>
Parâmetros
- acl
A lista de controlo de acesso POSIX para o ficheiro ou diretório.
Opcional. Opções