用于将数据引入 Fabric 湖屋的选项
“获取数据”体验涵盖将数据引入湖屋的所有用户场景,例如:
- 连接到现有 SQL Server 并将数据复制到湖屋上的 Delta 表中。
- 从计算机上传文件。
- 将其他湖屋中的多个表复制并合并到新的 Delta 表中。
- 连接到流式处理源,将数据放入到湖屋中。
- 引用数据,而不从其他内部湖屋或外部源复制数据。
将数据加载湖屋的不同方法
在 Microsoft Fabric 中,有几种方法可将数据引入湖屋:
- 从本地计算机上传文件
- 在管道中运行复制工具
- 设置数据流
- 笔记本代码中的 Apache Spark 库
本地文件上传
还可上传在本地计算机上存储的数据。 可直接在湖屋资源管理器中执行此操作。
管道中的复制工具
复制工具是一种高度可缩放的数据集成解决方案,可用于连接到不同的数据源,并以原始格式加载数据或将其转换为 Delta 表。 复制工具是管道活动的一部分,可通过多种方式修改这些活动,例如根据事件进行计划或触发。 有关详细信息,请参阅如何通过复制活动来复制数据。
数据流
对于熟悉 Power BI 数据流的用户,可使用同一工具将数据加载到湖屋中。 可通过湖屋资源管理器的“获取数据”选项快速访问它,并通过 200 多个连接器加载数据。 有关详细信息,请参阅快速入门:创建你的第一个数据流来获取和转换数据。
笔记本代码
可使用可用的 Spark 库直接连接到数据源,将数据加载到数据帧,然后将其保存在湖屋中。 这是在湖屋中加载数据的最开放的方式,该湖屋由用户代码完全管理。
注意
使用 Spark 代码创建的外部 Delta 表对 SQL 分析终结点不可见。 使用表空间中的快捷方式使外部 Delta 表对 SQL 分析终结点可见。
选择数据加载方法时的注意事项
用例 | 建议 |
---|---|
从本地计算机进行小型文件上传 | 使用本地文件上传 |
小型数据或特定连接器 | 使用数据流 |
大型数据源 | 使用管道中的复制工具 |
复杂数据转换 | 使用笔记本代码 |