Compartir vía


Opciones para obtener datos en el almacén de lago de Fabric

La experiencia de obtención de datos cubre todos los escenarios del usuario para incorporar datos al lago de datos, como:

  • Conectar a un SQL Server existente y copiar datos en la tabla delta del lago de datos.
  • Cargando archivos desde el equipo.
  • Copiar y combinar varias tablas de otros lagos de datos en una nueva tabla delta.
  • Conexión a un origen de streaming para aterrizar datos en un almacén de lago.
  • Hacer referencia a datos sin copiarlos desde otros almacenes de lago internos u orígenes externos.

Diferentes formas de cargar datos en un lago de datos

En Microsoft Fabric, hay varias maneras de meter datos en un almacén de lago:

  • Cargar archivos desde el equipo local
  • Ejecutar una herramienta de copia en las canalizaciones
  • Configurar un flujo de datos
  • Bibliotecas de Apache Spark en el código del cuaderno

Carga de archivos local

También puede cargar datos almacenados en el equipo local. Puede hacerlo directamente en el explorador del lago de datos.

Screenshot of file upload dialog in the Lakehouse explorer.

Herramienta Copiar en canalizaciones

La herramienta Copiar es una solución de Integración de datos altamente escalable que le permite conectarse a diferentes orígenes de datos y cargar los datos en formato original o convertirlos en una tabla delta. La herramienta de copia es una parte de las actividades de canalización que se pueden orquestar de varias maneras, como la programación o el desencadenamiento en función del evento. Para obtener más información, consulte Cómo copiar datos mediante la actividad de copia.

Flujos de datos

Para los usuarios que están familiarizados con los flujos de datos de Power BI, la misma herramienta está disponible para cargar datos en el lago de datos. Es posible acceder de forma rápida desde la opción "Obtener datos" del explorador del lago de datos y obtener datos de más de 200 conectores. Para obtener más información, consulte Inicio rápido: Creación del primer flujo de datos para obtener y transformar datos.

Código del cuaderno

Puede usar las bibliotecas de Spark disponibles para conectarse directamente a un origen de datos, cargar datos en un marco de datos y, a continuación, guardarlos en un lago de datos. Este método es la forma más abierta de cargar datos en un lago de datos que el código de usuario administra por completo.

Nota:

Las tablas Delta externas creadas con el código de Spark no serán visibles para un punto de conexión de SQL Analytics. Use accesos directos en el espacio Tabla para hacer que las tablas Delta externas sean visibles para un punto de conexión de SQL Analytics.

Consideraciones al elegir el enfoque para cargar datos

Caso de uso Recomendación
Carga de archivos pequeña desde la máquina local Uso de la carga de archivos local
Datos pequeños o conectores específicos Uso de flujos de datos
Origen de datos grande Uso de la herramienta Copiar en canalizaciones
Transformaciones de datos complejas Uso de código del cuaderno