Opciones para obtener datos en Fabric Lakehouse
La experiencia de obtención de datos cubre todos los escenarios de usuario para incorporar datos a lakehouse, como:
- Conexión a SQL Server existentes y copiando datos en una tabla delta en lakehouse.
- Cargando archivos desde el equipo.
- Copiar y combinar varias tablas de otros almacenes en una nueva tabla delta.
- Conexión a un origen de streaming para aterrizar datos en un lago.
- Hacer referencia a datos sin copiarlos desde otros almacenes internos o orígenes externos.
Importante
Microsoft Fabric está actualmente en versión preliminar. Esta información está relacionada con un producto en versión preliminar que puede modificarse considerablemente antes de su lanzamiento. Microsoft no ofrece ninguna garantía, expresa o implícita, con respecto a la información que se ofrece aquí.
Diferentes maneras de cargar datos en lakehouse
En Microsoft Fabric, hay varias maneras de obtener datos en un lago:
- Carga de archivos desde el equipo local.
- Ejecute una herramienta de copia en canalizaciones.
- Configurar un flujo de datos.
- Bibliotecas de Apache Spark en código de cuaderno
Carga de archivos local
También puede cargar datos almacenados en el equipo local. Puede hacerlo directamente en el explorador de lakehouse.
Herramienta de copia en canalizaciones
La herramienta Copiar es una solución de Integración de datos altamente escalable que permite conectarse a diferentes orígenes de datos y cargar los datos en formato original o convertirlos en una tabla delta. La herramienta de copia forma parte de las actividades de canalizaciones que se pueden orquestar de varias maneras, como la programación o el desencadenamiento en función del evento. Consulte Cómo copiar datos mediante la actividad de copia.
Flujos de datos
Para los usuarios que están familiarizados con los flujos de datos de Power BI, la misma herramienta está disponible para aterrizar datos en Lakehouse. Puede acceder rápidamente desde la opción "Obtener datos" del explorador de Lakehouse y aterrizar datos de más de 200 conectores. Consulte Creación del primer flujo de datos para obtener y transformar datos.
Código de cuaderno
Puede usar las bibliotecas de Spark disponibles para conectarse directamente a un origen de datos, cargar datos en la trama de datos y, a continuación, guardarlos en un lago. Es la forma más abierta de cargar datos en lakehouse que el código de usuario está administrando por completo.
Nota:
Las tablas delta externas creadas con código spark no serán visibles para el punto de conexión de SQL. Use accesos directos en espacio de tabla para que las tablas delta externas sean visibles para el punto de conexión de SQL.
Consideraciones al elegir el enfoque para cargar datos
Caso de uso | Recomendación |
---|---|
Carga de archivos pequeña desde la máquina local | Uso de la carga de archivos local |
Pequeños datos o conectores específicos | Uso de flujos de datos |
Origen de datos grande | Uso de la herramienta de copia en canalizaciones |
Transformaciones de datos complejas | Uso del código de Cuaderno |