你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

分析存储帐户中的数据

本教程介绍如何分析位于存储帐户中的数据。

概述

到目前为止,我们介绍了数据驻留在工作区的数据库中的各种情况。 现在,我们将介绍如何使用存储帐户中的文件。 对于这一情况,我们将使用在创建工作区时所指定的工作区和容器的主存储帐户。

  • 存储帐户的名称为:contosolake
  • 存储帐户中的容器的名称:users

在存储帐户中创建 CSV 和 Parquet 文件

在新的代码单元的笔记本中运行以下代码。 这会在存储帐户中创建 CSV 文件和 parquet 文件。

提示

此表是在本快速入门的前面部分中创建的,可在此处找到相关步骤。

%%pyspark
df = spark.sql("SELECT * FROM nyctaxi.passengercountstats")
df = df.repartition(1) # This ensures we'll get a single file during write()
df.write.mode("overwrite").csv("/NYCTaxi/PassengerCountStats_csvformat")
df.write.mode("overwrite").parquet("/NYCTaxi/PassengerCountStats_parquetformat")

分析存储帐户中的数据

可以在工作区默认 Azure Data Lake Storage (ADLS) Gen2 帐户中分析数据,也可以通过“管理”>“链接服务”>“新建”(以下步骤将引用主 ADLS Gen2 帐户)将 ADLS Gen2 或 Blob 存储帐户链接到工作区。

  1. 在 Synapse Studio 中,转到“数据”中心,然后选择“已关联” 。

  2. 转到“Azure Data Lake Storage Gen2”>“myworkspace (主 - contosolake)” 。

  3. 选择“用户(主)”。 应会看到 NYCTaxi 文件夹。 在内部应会看到名为 PassengerCountStats_csvformat 和 PassengerCountStats_parquetformat 的两个文件夹 。

  4. 打开 PassengerCountStats_parquetformat 文件夹。 在文件夹内,有一个名称类似于 part-00000-2638e00c-0790-496b-a523-578da9a15019-c000.snappy.parquet 的 Parquet 文件。

  5. 右键单击“.parquet”,选择“新建笔记本”,然后选择“加载到数据帧” 。 将使用如下所示的单元创建新笔记本:

    %%pyspark
    abspath = 'abfss://users@contosolake.dfs.core.windows.net/NYCTaxi/PassengerCountStats_parquetformat/part-00000-1f251a58-d8ac-4972-9215-8d528d490690-c000.snappy.parquet'
    df = spark.read.load(abspath, format='parquet')
    display(df.limit(10))
    
  6. 附加到名为 Spark1 的 Spark 池。 运行该单元。 如果遇到与缺少核心相关的错误,另一个会话可能会使用此 Spark 池。 取消所有现有会话并重试。

  7. 选择返回到 users 文件夹。 再次右键单击 .parquet 文件,然后选择“新建 SQL 脚本”>“选择前 100 行” 。 它会创建如下所示的 SQL 脚本:

    SELECT 
        TOP 100 *
    FROM OPENROWSET(
        BULK 'https://contosolake.dfs.core.windows.net/users/NYCTaxi/PassengerCountStats_parquetformat/part-00000-1f251a58-d8ac-4972-9215-8d528d490690-c000.snappy.parquet',
        FORMAT='PARQUET'
    ) AS [result]
    

    在脚本窗口中,请确保“连接到”字段设置为“内置”无服务器 SQL 池 。

  8. 运行该脚本。

后续步骤