教程:使用笔记本分析数据
适用于:SQL 分析终结点和 Microsoft Fabric 中的仓库
在本教程中,了解如何保存一次数据,然后将其与许多其他服务一起使用。 还可以为存储在 Azure Data Lake Storage 和 S3 中的数据创建快捷方式,使你能够直接从外部系统访问增量表。
创建湖屋
首先,我们创建一个新的湖屋。 若要在 Microsoft Fabric 工作区中创建新的湖屋,请执行以下操作:
在导航菜单中选择
Data Warehouse Tutorial
工作区。选择“+ 新建”>“湖屋”。
在“名称”字段中输入
ShortcutExercise
,然后选择“创建”。新的湖屋将加载,“资源管理器”视图随即打开,包括“获取数据”菜单。 在“在湖屋中加载数据”下,选择“新建快捷方式”按钮。
在“新建快捷方式”窗口中,选择“Microsoft OneLake”按钮。
在“选择数据源类型”窗口中,滚动列表,直到找到之前创建的名为
WideWorldImporters
的仓库。 选择它,然后选择“下一步”。在 OneLake 对象浏览器中,展开“表”,展开
dbo
架构,然后选择旁边的dimension_customer
单选按钮。 选择“创建”按钮。如果在“表”下看到名为
Unidentified
的文件夹,请选择水平菜单栏中的“刷新”图标。选择“表”列表中的
dimension_customer
以预览数据。 湖屋显示来自仓库的dimension_customer
表中的数据!接下来,创建新的笔记本来查询
dimension_customer
表。 在“主页”功能区中,选择“打开笔记本”的下拉列表,然后选择“新建笔记本”。选择,然后将
dimension_customer
从“表”列表中拖动到打开的笔记本单元格中。 可以看到,已编写 PySpark 查询,用于查询ShortcutExercise.dimension_customer
中的所有数据。 此笔记本体验类似于 Visual Studio Code Jupyter 笔记本体验。 还可以在 VS Code 中打开笔记本。在“主页”功能区中,选择“全部运行”按钮。 完成查询后,即可轻松使用 PySpark 查询仓库表!
下一步
反馈
https://aka.ms/ContentUserFeedback。
即将发布:在整个 2024 年,我们将逐步淘汰作为内容反馈机制的“GitHub 问题”,并将其取代为新的反馈系统。 有关详细信息,请参阅:提交和查看相关反馈