Compartir a través de


DataLakeFileClient class

DataLakeFileClient representa una dirección URL al archivo de Azure Storage.

Extends

Constructores

DataLakeFileClient(string, Pipeline)

Crea una instancia de DataLakeFileClient a partir de la dirección URL y la canalización.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Crea una instancia de DataLakeFileClient a partir de la dirección URL y las credenciales.

Propiedades

fileSystemName

Nombre del sistema de archivos actual.

name

Nombre de la ruta de acceso actual (directorio o archivo).

Propiedades heredadas

accountName
credential

Por ejemplo, AnonymousCredential, StorageSharedKeyCredential o cualquier credencial del @azure/identity paquete para autenticar las solicitudes en el servicio. También puede proporcionar un objeto que implemente la interfaz TokenCredential. Si no se especifica, se usa AnonymousCredential.

url

Valor de cadena de dirección URL codificada.

Métodos

append(RequestBodyType, number, number, FileAppendOptions)

Carga los datos que se van a anexar a un archivo. Los datos solo se pueden anexar a un archivo. Para aplicar datos cargados de forma perviosa en un archivo, llame al vaciado.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

create(FileCreateOptions)

Cree un archivo.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

create(PathResourceTypeModel, PathCreateOptions)

Cree un archivo.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

createIfNotExists(FileCreateIfNotExistsOptions)

Cree un archivo si aún no existe.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Cree un archivo si aún no existe.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

flush(number, FileFlushOptions)

Vacía (escrituras) datos anexados previamente a un archivo.

generateSasUrl(FileGenerateSasUrlOptions)

Solo está disponible para los clientes construidos con una credencial de clave compartida.

Genera un URI de firma de acceso compartido (SAS) de servicio basado en las propiedades y parámetros del cliente pasados. La SAS está firmada por la credencial de clave compartida del cliente.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas.

query(string, FileQueryOptions)

Consulta rápida para un archivo con formato JSON o CSV.

Ejemplo de uso (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
read(number, number, FileReadOptions)

Descarga un archivo del servicio, incluidos sus metadatos y propiedades.

  • En Node.js, los datos se devuelven en una secuencia legibleStreamBody legible
  • En los exploradores, los datos se devuelven en un contenido de promesaAsBlob

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob.

  • Ejemplo de uso (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Ejemplo de uso (explorador):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
readToBuffer(Buffer, number, number, FileReadToBufferOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Lee un archivo de Data Lake en paralelo a un búfer. El desplazamiento y el recuento son opcionales, pase 0 para que lea todo el archivo.

Advertencia: los búferes solo pueden admitir archivos de hasta un gigabyte en sistemas de 32 bits o aproximadamente dos gigabytes en sistemas de 64 bits debido a limitaciones de Node.js/V8. En el caso de los archivos mayores que este tamaño, considere la posibilidad de leerToFile.

readToBuffer(number, number, FileReadToBufferOptions)

SOLO DISPONIBLE EN NODE.JS RUNTIME

Lee un archivo de Data Lake en paralelo a un búfer. El desplazamiento y el recuento son opcionales, pase 0 para que lea todo el archivo.

Advertencia: los búferes solo pueden admitir archivos de hasta un gigabyte en sistemas de 32 bits o aproximadamente dos gigabytes en sistemas de 64 bits debido a limitaciones de Node.js/V8. En el caso de los archivos mayores que este tamaño, considere la posibilidad de leerToFile.

readToFile(string, number, number, FileReadOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Descarga un archivo de Data Lake en un archivo local. Se produce un error si la ruta de acceso del archivo especificada ya se cierra. El desplazamiento y el recuento son opcionales, pasan 0 y sin definir respectivamente para descargar todo el archivo.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Establece una hora de expiración en un archivo, una vez que se cumple la hora en que se elimina el archivo.

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carga un buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView en un archivo.

uploadFile(string, FileParallelUploadOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Carga un archivo local en un archivo de Data Lake.

uploadStream(Readable, FileParallelUploadOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Carga un flujo Node.js legible en un archivo de Data Lake. Este método intentará crear un archivo y, a continuación, empezará a cargar fragmentos por fragmento. Asegúrese de que el tamaño potencial de la secuencia no supere FILE_MAX_SIZE_BYTES y que el número potencial de fragmentos no supere BLOCK_BLOB_MAX_BLOCKS.

SUGERENCIAS PARA MEJORAR EL RENDIMIENTO:

  • HighWaterMark de flujo de entrada es mejor establecer un mismo valor con el parámetro options.chunkSize, que evitará las operaciones Buffer.concat().

Métodos heredados

delete(boolean, PathDeleteOptions)

Elimine la ruta de acceso actual (directorio o archivo).

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

deleteIfExists(boolean, PathDeleteOptions)

Elimine la ruta de acceso actual (directorio o archivo) si existe.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

exists(PathExistsOptions)

Devuelve true si el archivo de Data Lake representado por este cliente existe; False en caso contrario.

NOTA: use esta función con cuidado, ya que otros clientes o aplicaciones pueden eliminar un archivo existente. Viceversa, otros clientes o aplicaciones pueden agregar archivos nuevos viceversa una vez completada esta función.

getAccessControl(PathGetAccessControlOptions)

Devuelve los datos de control de acceso de una ruta de acceso (directorio de archivo).

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties.

getDataLakeLeaseClient(string)

Obtenga un DataLakeLeaseClient que administre concesiones en la ruta de acceso (directorio o archivo).

getProperties(PathGetPropertiesOptions)

Devuelve todos los metadatos definidos por el usuario, las propiedades HTTP estándar y las propiedades del sistema para la ruta de acceso (directorio o archivo).

ADVERTENCIA: El metadata objeto devuelto en la respuesta tendrá sus claves en minúsculas, incluso si contenían caracteres en mayúsculas originalmente. Esto difiere de las claves de metadatos devueltas por los métodos de DataLakeFileSystemClient que enumeran las rutas de acceso mediante la includeMetadata opción , que conservarán su mayúscula y minúscula original.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties.

move(string, PathMoveOptions)

Mueva el directorio o el archivo dentro del mismo sistema de archivos.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

move(string, string, PathMoveOptions)

Mueva el directorio o el archivo a otro sistema de archivos.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Quita el Access Control en una ruta de acceso y subrutas.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Establezca los datos de control de acceso para una ruta de acceso (directorio de archivo).

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Establece el Access Control en una ruta de acceso y subrutas.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Establece las propiedades del sistema en la ruta de acceso (directorio o archivo).

Si no se proporciona ningún valor o ningún valor proporcionado para los encabezados HTTP de blob especificados, estos encabezados HTTP de blob sin un valor se borrarán.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties.

setMetadata(Metadata, PathSetMetadataOptions)

Establece los metadatos definidos por el usuario para la ruta de acceso especificada (directorio de archivo) como uno o varios pares nombre-valor.

Si no se proporciona ninguna opción o no hay metadatos definidos en el parámetro , se quitarán los metadatos de la ruta de acceso.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata.

setPermissions(PathPermissions, PathSetPermissionsOptions)

Establece los permisos de archivo en una ruta de acceso.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

toDirectoryClient()

Convierta dataLakePathClient actual en DataLakeDirectoryClient si la ruta de acceso actual es un directorio.

toFileClient()

Convierta dataLakePathClient actual en DataLakeFileClient si la ruta de acceso actual es un archivo.

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica el Access Control en una ruta de acceso y subrutas.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

Detalles del constructor

DataLakeFileClient(string, Pipeline)

Crea una instancia de DataLakeFileClient a partir de la dirección URL y la canalización.

new DataLakeFileClient(url: string, pipeline: Pipeline)

Parámetros

url

string

Cadena de cliente que apunta al archivo de Lago de datos de Azure Storage, como "https://myaccount.dfs.core.windows.net/filesystem/file". Puede anexar una SAS si usa AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

pipeline
Pipeline

Llame a newPipeline() para crear una canalización predeterminada o proporcione una canalización personalizada.

DataLakeFileClient(string, StorageSharedKeyCredential | AnonymousCredential | TokenCredential, StoragePipelineOptions)

Crea una instancia de DataLakeFileClient a partir de la dirección URL y las credenciales.

new DataLakeFileClient(url: string, credential?: StorageSharedKeyCredential | AnonymousCredential | TokenCredential, options?: StoragePipelineOptions)

Parámetros

url

string

Cadena de cliente que apunta al archivo de Lago de datos de Azure Storage, como "https://myaccount.dfs.core.windows.net/filesystem/file". Puede anexar una SAS si usa AnonymousCredential, como "https://myaccount.dfs.core.windows.net/filesystem/directory/file?sasString".

credential

StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Por ejemplo, AnonymousCredential, StorageSharedKeyCredential o cualquier credencial del @azure/identity paquete para autenticar las solicitudes en el servicio. También puede proporcionar un objeto que implemente la interfaz TokenCredential. Si no se especifica, se usa AnonymousCredential.

options
StoragePipelineOptions

Opcional. Opciones para configurar la canalización HTTP.

Detalles de las propiedades

fileSystemName

Nombre del sistema de archivos actual.

string fileSystemName

Valor de propiedad

string

name

Nombre de la ruta de acceso actual (directorio o archivo).

string name

Valor de propiedad

string

Detalles de las propiedades heredadas

accountName

accountName: string

Valor de propiedad

string

Heredado deDataLakePathClient.accountName

credential

Por ejemplo, AnonymousCredential, StorageSharedKeyCredential o cualquier credencial del @azure/identity paquete para autenticar las solicitudes en el servicio. También puede proporcionar un objeto que implemente la interfaz TokenCredential. Si no se especifica, se usa AnonymousCredential.

credential: StorageSharedKeyCredential | AnonymousCredential | TokenCredential

Valor de propiedad

Heredado deDataLakePathClient.credential

url

Valor de cadena de dirección URL codificada.

url: string

Valor de propiedad

string

Heredado deDataLakePathClient.url

Detalles del método

append(RequestBodyType, number, number, FileAppendOptions)

Carga los datos que se van a anexar a un archivo. Los datos solo se pueden anexar a un archivo. Para aplicar datos cargados de forma perviosa en un archivo, llame al vaciado.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function append(body: RequestBodyType, offset: number, length: number, options?: FileAppendOptions): Promise<FileAppendResponse>

Parámetros

body
HttpRequestBody

Contenido que se va a cargar.

offset

number

Anexe desplazamiento en bytes.

length

number

Longitud del contenido que se va a anexar en bytes.

options
FileAppendOptions

Opcional. Opciones al anexar datos.

Devoluciones

create(FileCreateOptions)

Cree un archivo.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function create(options?: FileCreateOptions): Promise<FileCreateResponse>

Parámetros

options
FileCreateOptions

Opcional. Opciones al crear un archivo.

Devoluciones

create(PathResourceTypeModel, PathCreateOptions)

Cree un archivo.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function create(resourceType: PathResourceTypeModel, options?: PathCreateOptions): Promise<PathCreateResponse>

Parámetros

resourceType
PathResourceTypeModel

El tipo de recurso debe ser "file" para DataLakeFileClient.

options
PathCreateOptions

Opcional. Opciones al crear un archivo.

Devoluciones

createIfNotExists(FileCreateIfNotExistsOptions)

Cree un archivo si aún no existe.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function createIfNotExists(options?: FileCreateIfNotExistsOptions): Promise<FileCreateIfNotExistsResponse>

Parámetros

options
FileCreateIfNotExistsOptions

Opcional. Opciones al crear un archivo.

Devoluciones

createIfNotExists(PathResourceTypeModel, PathCreateIfNotExistsOptions)

Cree un archivo si aún no existe.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function createIfNotExists(resourceType: PathResourceTypeModel, options?: PathCreateIfNotExistsOptions): Promise<PathCreateIfNotExistsResponse>

Parámetros

resourceType
PathResourceTypeModel

El tipo de recurso debe ser "file" para DataLakeFileClient.

Devoluciones

flush(number, FileFlushOptions)

Vacía (escrituras) datos anexados previamente a un archivo.

function flush(position: number, options?: FileFlushOptions): Promise<FileFlushResponse>

Parámetros

position

number

Posición del archivo que se va a vaciar. Este parámetro permite al autor de la llamada cargar datos en paralelo y controlar el orden en el que se anexa al archivo. Es necesario al cargar datos que se van a anexar al archivo y al vaciar los datos cargados anteriormente en el archivo. El valor debe ser la posición donde se van a anexar los datos. Los datos cargados no se vacían ni se escriben inmediatamente en el archivo. Para vaciar, los datos cargados anteriormente deben ser contiguos, el parámetro position debe especificarse y ser igual a la longitud del archivo después de que se hayan escrito todos los datos y no debe haber un cuerpo de entidad de solicitud incluido con la solicitud.

options
FileFlushOptions

Opcional. Opciones al vaciar los datos.

Devoluciones

generateSasUrl(FileGenerateSasUrlOptions)

Solo está disponible para los clientes construidos con una credencial de clave compartida.

Genera un URI de firma de acceso compartido (SAS) de servicio basado en las propiedades y parámetros del cliente pasados. La SAS está firmada por la credencial de clave compartida del cliente.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/constructing-a-service-sas.

function generateSasUrl(options: FileGenerateSasUrlOptions): Promise<string>

Parámetros

options
FileGenerateSasUrlOptions

Parámetros opcionales.

Devoluciones

Promise<string>

El URI de SAS que consta del URI al recurso representado por este cliente, seguido del token de SAS generado.

query(string, FileQueryOptions)

Consulta rápida para un archivo con formato JSON o CSV.

Ejemplo de uso (Node.js):

// Query and convert a file to a string
const queryResponse = await fileClient.query("select * from BlobStorage");
const downloaded = (await streamToBuffer(queryResponse.readableStreamBody)).toString();
console.log("Query file content:", downloaded);

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}
function query(query: string, options?: FileQueryOptions): Promise<FileReadResponse>

Parámetros

query

string

Devoluciones

Promise<FileReadResponse>

read(number, number, FileReadOptions)

Descarga un archivo del servicio, incluidos sus metadatos y propiedades.

  • En Node.js, los datos se devuelven en una secuencia legibleStreamBody legible
  • En los exploradores, los datos se devuelven en un contenido de promesaAsBlob

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob.

  • Ejemplo de uso (Node.js):
// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await streamToBuffer(downloadResponse.readableStreamBody);
console.log("Downloaded file content:", downloaded.toString());

async function streamToBuffer(readableStream) {
  return new Promise((resolve, reject) => {
    const chunks = [];
    readableStream.on("data", (data) => {
      chunks.push(data instanceof Buffer ? data : Buffer.from(data));
    });
    readableStream.on("end", () => {
      resolve(Buffer.concat(chunks));
    });
    readableStream.on("error", reject);
  });
}

Ejemplo de uso (explorador):

// Download and convert a file to a string
const downloadResponse = await fileClient.read();
const downloaded = await blobToString(await downloadResponse.contentAsBlob);
console.log("Downloaded file content", downloaded);

async function blobToString(blob: Blob): Promise<string> {
  const fileReader = new FileReader();
  return new Promise<string>((resolve, reject) => {
    fileReader.onloadend = (ev: any) => {
      resolve(ev.target!.result);
    };
    fileReader.onerror = reject;
    fileReader.readAsText(blob);
  });
}
function read(offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parámetros

offset

number

Opcional. Desplazamiento para leer el archivo, el valor predeterminado es 0.

count

number

Opcional. Número de bytes que se van a leer, el valor predeterminado se leerá de desplazamiento al final.

options
FileReadOptions

Opcional. Opciones al leer el archivo.

Devoluciones

Promise<FileReadResponse>

readToBuffer(Buffer, number, number, FileReadToBufferOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Lee un archivo de Data Lake en paralelo a un búfer. El desplazamiento y el recuento son opcionales, pase 0 para que lea todo el archivo.

Advertencia: los búferes solo pueden admitir archivos de hasta un gigabyte en sistemas de 32 bits o aproximadamente dos gigabytes en sistemas de 64 bits debido a limitaciones de Node.js/V8. En el caso de los archivos mayores que este tamaño, considere la posibilidad de leerToFile.

function readToBuffer(buffer: Buffer, offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parámetros

buffer

Buffer

El búfer que se va a rellenar debe tener una longitud mayor que el recuento.

offset

number

Desde qué posición del archivo de Data Lake se va a leer

count

number

Cantidad de datos que se van a leer. Leerá al final al pasar undefined

Devoluciones

Promise<Buffer>

readToBuffer(number, number, FileReadToBufferOptions)

SOLO DISPONIBLE EN NODE.JS RUNTIME

Lee un archivo de Data Lake en paralelo a un búfer. El desplazamiento y el recuento son opcionales, pase 0 para que lea todo el archivo.

Advertencia: los búferes solo pueden admitir archivos de hasta un gigabyte en sistemas de 32 bits o aproximadamente dos gigabytes en sistemas de 64 bits debido a limitaciones de Node.js/V8. En el caso de los archivos mayores que este tamaño, considere la posibilidad de leerToFile.

function readToBuffer(offset?: number, count?: number, options?: FileReadToBufferOptions): Promise<Buffer>

Parámetros

offset

number

Desde qué posición del archivo de Data Lake se va a leer (en bytes)

count

number

Cantidad de datos (en bytes) que se van a leer. Leerá al final al pasar undefined

Devoluciones

Promise<Buffer>

readToFile(string, number, number, FileReadOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Descarga un archivo de Data Lake en un archivo local. Se produce un error si la ruta de acceso del archivo especificada ya se cierra. El desplazamiento y el recuento son opcionales, pasan 0 y sin definir respectivamente para descargar todo el archivo.

function readToFile(filePath: string, offset?: number, count?: number, options?: FileReadOptions): Promise<FileReadResponse>

Parámetros

filePath

string

offset

number

Desde qué posición del archivo se va a descargar.

count

number

Cantidad de datos que se van a descargar. Se descargará al final al pasar undefined.

options
FileReadOptions

Opciones para leer el archivo de Data Lake.

Devoluciones

Promise<FileReadResponse>

Los datos de respuesta de la operación de lectura de archivos, pero con readableStreamBody establecido en indefinido, ya que su contenido ya se ha leído y escrito en un archivo local en la ruta de acceso especificada.

setExpiry(FileExpiryMode, FileSetExpiryOptions)

Establece una hora de expiración en un archivo, una vez que se cumple la hora en que se elimina el archivo.

function setExpiry(mode: FileExpiryMode, options?: FileSetExpiryOptions): Promise<FileSetExpiryResponse>

Parámetros

Devoluciones

upload(Blob | ArrayBuffer | ArrayBufferView | Buffer, FileParallelUploadOptions)

Carga un buffer(Node.js)/Blob/ArrayBuffer/ArrayBufferView en un archivo.

function upload(data: Blob | ArrayBuffer | ArrayBufferView | Buffer, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parámetros

data

Blob | ArrayBuffer | ArrayBufferView | Buffer

Buffer(Node), Blob, ArrayBuffer o ArrayBufferView

Devoluciones

uploadFile(string, FileParallelUploadOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Carga un archivo local en un archivo de Data Lake.

function uploadFile(filePath: string, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parámetros

filePath

string

Ruta de acceso completa del archivo local

Devoluciones

uploadStream(Readable, FileParallelUploadOptions)

SOLO ESTÁ DISPONIBLE EN NODE.JS RUNTIME.

Carga un flujo Node.js legible en un archivo de Data Lake. Este método intentará crear un archivo y, a continuación, empezará a cargar fragmentos por fragmento. Asegúrese de que el tamaño potencial de la secuencia no supere FILE_MAX_SIZE_BYTES y que el número potencial de fragmentos no supere BLOCK_BLOB_MAX_BLOCKS.

SUGERENCIAS PARA MEJORAR EL RENDIMIENTO:

  • HighWaterMark de flujo de entrada es mejor establecer un mismo valor con el parámetro options.chunkSize, que evitará las operaciones Buffer.concat().
function uploadStream(stream: Readable, options?: FileParallelUploadOptions): Promise<FileUploadResponse>

Parámetros

stream

Readable

Node.js secuencia legible.

Devoluciones

Detalles de los métodos heredados

delete(boolean, PathDeleteOptions)

Elimine la ruta de acceso actual (directorio o archivo).

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

function delete(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteResponse>

Parámetros

recursive

boolean

Obligatorio y válido solo cuando el recurso es un directorio. Si es "true", se eliminarán todas las rutas de acceso debajo del directorio.

options
PathDeleteOptions

Opcional. Opciones al eliminar la ruta de acceso.

Devoluciones

Heredado deDataLakePathClient.delete

deleteIfExists(boolean, PathDeleteOptions)

Elimine la ruta de acceso actual (directorio o archivo) si existe.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/delete.

function deleteIfExists(recursive?: boolean, options?: PathDeleteOptions): Promise<PathDeleteIfExistsResponse>

Parámetros

recursive

boolean

Obligatorio y válido solo cuando el recurso es un directorio. Si es "true", se eliminarán todas las rutas de acceso debajo del directorio.

Devoluciones

Heredado deDataLakePathClient.deleteIfExists

exists(PathExistsOptions)

Devuelve true si el archivo de Data Lake representado por este cliente existe; False en caso contrario.

NOTA: use esta función con cuidado, ya que otros clientes o aplicaciones pueden eliminar un archivo existente. Viceversa, otros clientes o aplicaciones pueden agregar archivos nuevos viceversa una vez completada esta función.

function exists(options?: PathExistsOptions): Promise<boolean>

Parámetros

options
PathExistsOptions

opciones para la operación Exists.

Devoluciones

Promise<boolean>

Heredado deDataLakePathClient.exists

getAccessControl(PathGetAccessControlOptions)

Devuelve los datos de control de acceso de una ruta de acceso (directorio de archivo).

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/getproperties.

function getAccessControl(options?: PathGetAccessControlOptions): Promise<PathGetAccessControlResponse>

Parámetros

options
PathGetAccessControlOptions

Opcional. Opciones al obtener el control de acceso a archivos.

Devoluciones

Heredado deDataLakePathClient.getAccessControl

getDataLakeLeaseClient(string)

Obtenga un DataLakeLeaseClient que administre concesiones en la ruta de acceso (directorio o archivo).

function getDataLakeLeaseClient(proposeLeaseId?: string): DataLakeLeaseClient

Parámetros

proposeLeaseId

string

Opcional. Identificador de concesión propuesto inicial.

Devoluciones

Heredado deDataLakePathClient.getDataLakeLeaseClient

getProperties(PathGetPropertiesOptions)

Devuelve todos los metadatos definidos por el usuario, las propiedades HTTP estándar y las propiedades del sistema para la ruta de acceso (directorio o archivo).

ADVERTENCIA: El metadata objeto devuelto en la respuesta tendrá sus claves en minúsculas, incluso si contenían caracteres en mayúsculas originalmente. Esto difiere de las claves de metadatos devueltas por los métodos de DataLakeFileSystemClient que enumeran las rutas de acceso mediante la includeMetadata opción , que conservarán su mayúscula y minúscula original.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/get-blob-properties.

function getProperties(options?: PathGetPropertiesOptions): Promise<PathGetPropertiesResponse>

Parámetros

options
PathGetPropertiesOptions

Opcional. Opciones al obtener las propiedades de ruta de acceso.

Devoluciones

Heredado deDataLakePathClient.getProperties

move(string, PathMoveOptions)

Mueva el directorio o el archivo dentro del mismo sistema de archivos.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function move(destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parámetros

destinationPath

string

Ruta de acceso del directorio de destino, como "directorio" o ruta de acceso de archivo "directorio/archivo". Si destinationPath se autentica con SAS, agregue la SAS a la ruta de acceso de destino como "directory/file?sasToken".

options
PathMoveOptions

Opcional. Opciones al mover el directorio o archivo.

Devoluciones

Promise<PathMoveResponse>

Heredado deDataLakePathClient.move

move(string, string, PathMoveOptions)

Mueva el directorio o el archivo a otro sistema de archivos.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/create.

function move(destinationFileSystem: string, destinationPath: string, options?: PathMoveOptions): Promise<PathMoveResponse>

Parámetros

destinationFileSystem

string

Sistema de archivos de destino como "filesystem".

destinationPath

string

Ruta de acceso del directorio de destino, como "directorio" o ruta de acceso de archivo "directorio/archivo" Si destinationPath se autentica con SAS, agregue la SAS a la ruta de acceso de destino como "directory/file?sasToken".

options
PathMoveOptions

Opcional. Opciones al mover el directorio o archivo.

Devoluciones

Promise<PathMoveResponse>

Heredado deDataLakePathClient.move

removeAccessControlRecursive(RemovePathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Quita el Access Control en una ruta de acceso y subrutas.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function removeAccessControlRecursive(acl: RemovePathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parámetros

acl

RemovePathAccessControlItem[]

Lista de control de acceso POSIX para el archivo o directorio.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opciones

Devoluciones

Heredado deDataLakePathClient.removeAccessControlRecursive

setAccessControl(PathAccessControlItem[], PathSetAccessControlOptions)

Establezca los datos de control de acceso para una ruta de acceso (directorio de archivo).

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function setAccessControl(acl: PathAccessControlItem[], options?: PathSetAccessControlOptions): Promise<PathSetAccessControlResponse>

Parámetros

acl

PathAccessControlItem[]

Lista de control de acceso POSIX para el archivo o directorio.

options
PathSetAccessControlOptions

Opcional. Opciones al establecer el control de acceso de ruta de acceso.

Devoluciones

Heredado deDataLakePathClient.setAccessControl

setAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Establece el Access Control en una ruta de acceso y subrutas.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function setAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parámetros

acl

PathAccessControlItem[]

Lista de control de acceso POSIX para el archivo o directorio.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opciones

Devoluciones

Heredado deDataLakePathClient.setAccessControlRecursive

setHttpHeaders(PathHttpHeaders, PathSetHttpHeadersOptions)

Establece las propiedades del sistema en la ruta de acceso (directorio o archivo).

Si no se proporciona ningún valor o ningún valor proporcionado para los encabezados HTTP de blob especificados, estos encabezados HTTP de blob sin un valor se borrarán.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-properties.

function setHttpHeaders(httpHeaders: PathHttpHeaders, options?: PathSetHttpHeadersOptions): Promise<PathSetHttpHeadersResponse>

Parámetros

httpHeaders
PathHttpHeaders

Devoluciones

Heredado deDataLakePathClient.setHttpHeaders

setMetadata(Metadata, PathSetMetadataOptions)

Establece los metadatos definidos por el usuario para la ruta de acceso especificada (directorio de archivo) como uno o varios pares nombre-valor.

Si no se proporciona ninguna opción o no hay metadatos definidos en el parámetro , se quitarán los metadatos de la ruta de acceso.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/set-blob-metadata.

function setMetadata(metadata?: Metadata, options?: PathSetMetadataOptions): Promise<PathSetMetadataResponse>

Parámetros

metadata
Metadata

Opcional. Reemplace los metadatos existentes por este valor. Si no se quita ningún valor proporcionado, se quitarán los metadatos existentes.

options
PathSetMetadataOptions

Opcional. Opciones al establecer metadatos de ruta de acceso.

Devoluciones

Heredado deDataLakePathClient.setMetadata

setPermissions(PathPermissions, PathSetPermissionsOptions)

Establece los permisos de archivo en una ruta de acceso.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function setPermissions(permissions: PathPermissions, options?: PathSetPermissionsOptions): Promise<PathSetPermissionsResponse>

Parámetros

permissions
PathPermissions

Los permisos de acceso POSIX para el propietario del archivo, el grupo propietario del archivo y otros.

options
PathSetPermissionsOptions

Opcional. Opciones al establecer permisos de ruta de acceso.

Devoluciones

Heredado deDataLakePathClient.setPermissions

toDirectoryClient()

Convierta dataLakePathClient actual en DataLakeDirectoryClient si la ruta de acceso actual es un directorio.

function toDirectoryClient(): DataLakeDirectoryClient

Devoluciones

Heredado deDataLakePathClient.toDirectoryClient

toFileClient()

Convierta dataLakePathClient actual en DataLakeFileClient si la ruta de acceso actual es un archivo.

function toFileClient(): DataLakeFileClient

Devoluciones

Heredado deDataLakePathClient.toFileClient

updateAccessControlRecursive(PathAccessControlItem[], PathChangeAccessControlRecursiveOptions)

Modifica el Access Control en una ruta de acceso y subrutas.

Consulta https://docs.microsoft.com/en-us/rest/api/storageservices/datalakestoragegen2/path/update.

function updateAccessControlRecursive(acl: PathAccessControlItem[], options?: PathChangeAccessControlRecursiveOptions): Promise<PathChangeAccessControlRecursiveResponse>

Parámetros

acl

PathAccessControlItem[]

Lista de control de acceso POSIX para el archivo o directorio.

options
PathChangeAccessControlRecursiveOptions

Opcional. Opciones

Devoluciones

Heredado deDataLakePathClient.updateAccessControlRecursive