Opciones para obtener datos en Fabric Lakehouse

La experiencia de obtención de datos cubre todos los escenarios de usuario para incorporar datos a lakehouse, como:

  • Conexión a SQL Server existentes y copiando datos en una tabla delta en lakehouse.
  • Cargando archivos desde el equipo.
  • Copiar y combinar varias tablas de otros almacenes en una nueva tabla delta.
  • Conexión a un origen de streaming para aterrizar datos en un lago.
  • Hacer referencia a datos sin copiarlos desde otros almacenes internos o orígenes externos.

Importante

Microsoft Fabric está actualmente en versión preliminar. Esta información está relacionada con un producto en versión preliminar que puede modificarse considerablemente antes de su lanzamiento. Microsoft no ofrece ninguna garantía, expresa o implícita, con respecto a la información que se ofrece aquí.

Diferentes maneras de cargar datos en lakehouse

En Microsoft Fabric, hay varias maneras de obtener datos en un lago:

  • Carga de archivos desde el equipo local.
  • Ejecute una herramienta de copia en canalizaciones.
  • Configurar un flujo de datos.
  • Bibliotecas de Apache Spark en código de cuaderno

Carga de archivos local

También puede cargar datos almacenados en el equipo local. Puede hacerlo directamente en el explorador de lakehouse.

Captura de pantalla del cuadro de diálogo de carga de archivos en el Explorador de Lakehouse.

Herramienta de copia en canalizaciones

La herramienta Copiar es una solución de Integración de datos altamente escalable que permite conectarse a diferentes orígenes de datos y cargar los datos en formato original o convertirlos en una tabla delta. La herramienta de copia forma parte de las actividades de canalizaciones que se pueden orquestar de varias maneras, como la programación o el desencadenamiento en función del evento. Consulte Cómo copiar datos mediante la actividad de copia.

Flujos de datos

Para los usuarios que están familiarizados con los flujos de datos de Power BI, la misma herramienta está disponible para aterrizar datos en Lakehouse. Puede acceder rápidamente desde la opción "Obtener datos" del explorador de Lakehouse y aterrizar datos de más de 200 conectores. Consulte Creación del primer flujo de datos para obtener y transformar datos.

Código de cuaderno

Puede usar las bibliotecas de Spark disponibles para conectarse directamente a un origen de datos, cargar datos en la trama de datos y, a continuación, guardarlos en un lago. Es la forma más abierta de cargar datos en lakehouse que el código de usuario está administrando por completo.

Nota:

Las tablas delta externas creadas con código spark no serán visibles para el punto de conexión de SQL. Use accesos directos en espacio de tabla para que las tablas delta externas sean visibles para el punto de conexión de SQL.

Consideraciones al elegir el enfoque para cargar datos

Caso de uso Recomendación
Carga de archivos pequeña desde la máquina local Uso de la carga de archivos local
Pequeños datos o conectores específicos Uso de flujos de datos
Origen de datos grande Uso de la herramienta de copia en canalizaciones
Transformaciones de datos complejas Uso del código de Cuaderno

Pasos siguientes