Compartir por


Traer o seu propio Azure Data Lake Storage Gen2

Power Automate A minería de procesos ofréceche a opción de almacenar e ler os datos do rexistro de eventos directamente desde *Gen2* Azure Data Lake Storage . Esta funcionalidade simplifica a xestión de extracción, transformación e carga (ETL) conectándose directamente á túa conta de almacenamento.

Esta funcionalidade admite actualmente a inxestión do seguinte:

Táboas

  • Táboas Delta
    • Mesa Delta individual en fabric Lakehouse.

Ficheiros e cartafoles

  • CSV
    • Ficheiro único CSV.
    • Cartafol con varios ficheiros CSV que teñen a mesma estrutura. Inxírense todos os ficheiros.
  • Parquet
    • Parquet dunha soa ficha.
    • Cartafol con varios arquivos de parqué que teñen a mesma estrutura. Inxírense todos os ficheiros.
  • Parquet Delta
    • Cartafol que contén unha estrutura delta-parquet .

Requisitos previos

  • A conta de almacenamento de Data Lake debe ser de segunda xeración. Podes comprobalo desde o portal de Azure. As contas de almacenamento de Azure Data Lake Gen1 non son compatibles.

  • A conta de almacenamento de Data Lake debe ter o espazo de nomes xerárquico activado.

  • O rol de *Propietario* (a nivel de conta de almacenamento) debe atribuírse ao usuario que realiza a configuración inicial do contedor para o ambiente para os seguintes usuarios no mesmo ambiente. Estes usuarios conéctanse ao mesmo contedor e deben ter estas asignacións:

    • Rol de lector de datos de blobs de almacenamento ou colaborador de datos de blobs de almacenamento asignado
    • Rol de lector de Azure Resource Manager asignado, como mínimo.
  • Deberíase establecer unha regra de compartición de recursos (CORS) para a túa conta de almacenamento para compartila con Power Automate Process Mining.

    • As orixes permitidas deben definirse en https://make.powerautomate.com e https://make.powerapps.com.

    • Os métodos permitidos deben incluír: get, options, put, post.

    • As cabeceiras permitidas deberían ser o máis flexibles posible. Recomendámos definilos como *.

    • As cabeceiras expostas deben ser o máis flexibles posible. Recomendámos definilos como *.

    • A idade máxima debería ser o máis flexible posible. Recomendamos usar 86400.

      Captura de pantalla do exemplo da pantalla de configuración de CORS.

  • Os datos CSV no teu almacenamento de Data Lake deben cumprir os seguintes requisitos de formato de ficheiro CSV:

    • Tipo de compresión: Ningunha
    • Delimitador de columna: Coma (,)
    • Delimitador de filas: Valor predeterminado e codificación. Por exemplo, Predeterminado (\r,\n ou \r\n)

    Captura de pantalla da pantalla de configuración do formato de ficheiro.

  • Todos os datos deben estar no formato de rexistro de eventos final e cumprir os requisitos enumerados en Requisitos de datos. Os datos deberían estar listos para mapearse ao esquema de minería de procesos. Non hai ningunha transformación de datos dispoñible despois da inxestión.

  • O tamaño (ancho) da fila de cabeceira está limitado actualmente a 1 MB.

Importante

Asegúrate de que a marca de tempo representada no teu ficheiro CSV siga o formato estándar ISO 8601 (por exemplo, YYYY-MM-DD HH:MM:SS.sss ou YYYY-MM-DDTHH:MM:SS.sss).

Conectarse a Azure Data Lake Storage

  1. No panel de navegación da esquerda, selecciona Minería de procesos>Comezar aquí.

  2. No campo Nome do proceso , introduza un nome para o seu proceso.

  3. Na cabeceira Fonte de datos , selecciona Importar datos>Azure Data Lake>Continuar. Captura de pantalla do paso do proceso Crear.

  4. Na pantalla Configuración da conexión , selecciona o teu ID da subscrición, Grupo de recursos, Conta de almacenamento e Contedor nos menús despregables.

  5. Seleccione o ficheiro ou cartafol que contén os datos do rexistro de eventos.

    Podes seleccionar un único ficheiro ou unha carpeta con varios ficheiros. Todos os ficheiros deben ter as mesmas cabeceiras e o mesmo formato.

  6. Seleccione Seguinte.

  7. Na pantalla Mapear os datos , mapee os seus datos ao esquema requirido.

    Captura de pantalla da pantalla Mapear os teus datos.

  8. Completa a conexión seleccionando Gardar e analizar.

Definir a configuración de actualización incremental de datos

Pode actualizar un proceso inxerido desde Azure Data Lake segundo unha programación, xa sexa mediante unha actualización completa ou incremental. Aínda que non existen políticas de retención, podes inxerir datos de forma incremental usando un dos seguintes métodos:

Se seleccionaches un único ficheiro na sección anterior, engade máis datos ao ficheiro seleccionado.

Se seleccionaches un cartafol na sección anterior, engade ficheiros incrementais ao cartafol seleccionado.

Importante

Ao engadir ficheiros incrementais a un cartafol ou subcartafol seleccionado, asegúrese de indicar a orde de incremento nomeando os ficheiros con datas como AAAMMDD.csv ou AAAAMMDDHHMMSS.csv.

Para actualizar un proceso:

  1. Vaia á páxina de Detalles do proceso.

  2. Selecciona Actualizar configuración.

  3. Na pantalla Programar actualización , siga estes pasos:

    1. Activa o interruptor Manter os datos actualizados .
    2. Nas listas despregables Actualizar datos cada , seleccione a frecuencia da actualización.
    3. Nos campos Comezar en , seleccione a data e a hora da actualización.
    4. Activa o interruptor de Actualización incremental .