你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn

在 Azure HDInsight 上的 Apache Spark 群集中使用 Apache Zeppelin 笔记本

HDInsight Spark 群集包括 Apache Zeppelin 笔记本。 使用笔记本运行 Apache Spark 作业。 本文介绍如何在 HDInsight 群集中使用 Zeppelin 笔记本。

先决条件

  • HDInsight 上的 Apache Spark 群集。 有关说明,请参阅在 Azure HDInsight 中创建 Apache Spark 群集
  • 群集主存储的 URI 方案。 对于 Azure Blob 存储,此架构为 wasb://;对于 Azure Data Lake Storage Gen2,此架构为 abfs://;对于 Azure Data Lake Storage Gen1,此架构为 adl://。 如果为 Blob 存储启用了安全传输,则 URI 将为 wasbs://。 有关详细信息,请参阅在 Azure 存储中要求安全传输

启动 Apache Zeppelin 笔记本

  1. 在 Spark 群集的“概述”中,从群集仪表板选择“Zeppelin 笔记本”。 输入群集的管理员凭据。

    注意

    也可以在浏览器中打开以下 URL 来访问群集的 Zeppelin 笔记本。 将 CLUSTERNAME 替换为群集的名称:

    https://CLUSTERNAME.azurehdinsight.net/zeppelin

  2. 创建新的笔记本。 在标题窗格中,导航到“笔记本”>“创建新笔记”。

    Create a new Zeppelin notebook.

    输入笔记本的名称,然后选择“创建笔记”。

  3. 确保笔记本标题显示“已连接”状态。 该状态由右上角的一个绿点表示。

    Zeppelin notebook status.

  4. 将示例数据载入临时表。 在 HDInsight 中创建 Spark 群集时,系统会将示例数据文件 hvac.csv 复制到 \HdiSamples\SensorSampleData\hvac 下的关联存储帐户。

    将以下代码段粘贴到新笔记本中默认创建的空白段落处。

    %livy2.spark
    //The above magic instructs Zeppelin to use the Livy Scala interpreter
    
    // Create an RDD using the default Spark context, sc
    val hvacText = sc.textFile("wasbs:///HdiSamples/HdiSamples/SensorSampleData/hvac/HVAC.csv")
    
    // Define a schema
    case class Hvac(date: String, time: String, targettemp: Integer, actualtemp: Integer, buildingID: String)
    
    // Map the values in the .csv file to the schema
    val hvac = hvacText.map(s => s.split(",")).filter(s => s(0) != "Date").map(
        s => Hvac(s(0),
                s(1),
                s(2).toInt,
                s(3).toInt,
                s(6)
        )
    ).toDF()
    
    // Register as a temporary table called "hvac"
    hvac.registerTempTable("hvac")
    

    SHIFT + ENTER 或为段落选择“播放”按钮以运行代码片段。 段落右上角的状态应从“就绪”逐渐变成“挂起”、“正在运行”和“已完成”。 输出会显示在同一段落的底部。 屏幕截图如下图所示:

    Create a temporary table from raw data.

    也可以为每个段落提供标题。 在段落的右侧一角,选择“设置”图标(齿轮图标),然后选择“显示标题”。

    注意

    所有 HDInsight 版本中的 Zeppelin 笔记本均不支持 %spark2 解释器,HDInsight 4.0 及更高版本不支持 %sh 解释器。

  5. 现在可以针对 hvac 表运行 Spark SQL 语句。 将以下查询粘贴到新段落中。 该查询将检索建筑物 ID, 以及每栋建筑物在指定日期的目标温度与实际温度之间的差异。 按 SHIFT + ENTER

    %sql
    select buildingID, (targettemp - actualtemp) as temp_diff, date from hvac where date = "6/1/13"
    

    开头的 %Sql 语句告诉笔记本要使用 Livy Scala 解释器。

  6. 选择“条形图”图标以更改显示内容。 使用“设置”(选择“条形图”后显示)可以选择“键”和“值”。 以下屏幕快照显示了输出。

    Run a Spark SQL statement using the notebook1.

  7. 还可以在查询中使用变量来运行 Spark SQL 语句。 以下代码片段演示如何在查询中使用可以用来查询的值定义 Temp 变量。 首次运行查询时,下拉列表中会自动填充你指定的变量值。

    %sql  
    select buildingID, date, targettemp, (targettemp - actualtemp) as temp_diff from hvac where targettemp > "${Temp = 65,65|75|85}"
    

    将此代码段粘贴到新段落,并按 SHIFT + ENTER。 然后,从“温度”下拉列表中选择“65”。

  8. 选择“条形图”图标以更改显示内容。 然后选择“设置”并进行以下更改:

    • 组:添加 targettemp。

    • 值: 1. 删除 date。 2. 添加 temp_diff。 3. 将聚合器从“SUM”更改为“AVG”。

      以下屏幕快照显示了输出。

      Run a Spark SQL statement using the notebook2.

如何在笔记本中使用外部包?

HDInsight 上 Apache Spark 群集中的 Zeppelin 笔记本可以使用群集中未包含的、社区提供的外部包。 在 Maven 存储库中搜索可用包的完整列表。 也可以从其他源获取可用包的列表。 例如, Spark 包中提供了社区贡献包的完整列表。

本文将介绍如何在 Jupyter Notebook 中使用 spark-csv 包。

  1. 打开解释器设置。 选择右上角的登录用户名,然后选择“解释器”。

    Launch interpreter.

  2. 滚动到“livy2”,然后选择“编辑”。

    Change interpreter settings1.

  3. 导航到键 livy.spark.jars.packages,并以 group:id:version 格式设置其值。 因此,如果要使用 spark-csv 包,必须将键的值设置为 com.databricks:spark-csv_2.10:1.4.0

    Change interpreter settings2.

    依次选择“保存”、“确定”,以重启 Livy 解释器。

  4. 要了解如何访问上面输入的键的值,请查看以下内容。

    a. 在 Maven 存储库中找出该包。 在本文中,使用了 spark-csv

    b. 从存储库中收集 GroupIdArtifactIdVersion 的值。

    Use external packages with Jupyter Notebook.

    c. 串连这三个值并以冒号分隔 ( : )。

    com.databricks:spark-csv_2.10:1.4.0
    

Zeppelin 笔记本保存在何处?

Zeppelin 笔记本保存在群集头节点。 因此,如果删除群集,笔记本也会被删除。 如果想要保留笔记本以供将来在其他群集中使用,那么必须在运行完作业之后,将笔记本导出。 若要导出笔记本,请选择下图所示的“导出”图标。

Download notebook.

此操作可在下载位置将笔记本另存为 JSON 文件。

注意

  • 在 HDI 4.0 中,zeppelin 笔记本目录路径为:/usr/hdp/<version>/zeppelin/notebook/<notebook_session_id>/

    例如 /usr/hdp/4.1.17.10/zeppelin/2JMC9BZ8X/

    在 HDI 5.0 及更高路径中,该路径不同:/usr/hdp/<version>/zeppelin/notebook/<Kernel_name>/

    例如 /usr/hdp/5.1.4.5/zeppelin/notebook/Scala/

  • HDI 5.0 中存储的文件名不同。 它存储为 <notebook_name>_<sessionid>.zpln

    例如 testzeppelin_2JJK53XQA.zpln

    在 HDI 4.0 中,文件名只是存储在 session_id 目录下的 note.json。

    例如 /2JMC9BZ8X/note.json

  • HDI Zeppelin 始终将笔记本保存在 hn0 本地磁盘的以下路径:/usr/hdp/<version>/zeppelin/notebook/

    如果希望笔记本在删除群集后仍然可用,可以尝试使用 Azure 文件存储(使用 SMB 协议),并将其链接到本地路径。 有关详细信息,请参阅在 Linux 上装载 SMB Azure 文件共享

    装载后,可以将 zeppelin 配置 zeppelin.notebook.dir 修改为 ambari UI 中装载的路径。

  • 对于 zeppelin 版本 0.10.1,不建议将 SMB 文件共享用作 GitNotebookRepo 存储

使用 Shiro 在企业安全性套餐 (ESP) 群集中配置 Zeppelin 解释器的访问权限

如上所述,从 HDInsight 4.0 开始不再支持 %sh 解释器。 此外,由于 %sh 解释器会导致潜在的安全问题(例如,使用 shell 命令访问 keytabs),因此也从 HDInsight 3.6 ESP 群集中删除了该解释器。 这意味着,默认情况下,单击“创建新注释”时或位于解释器 UI 时,%sh 解析器不可用。

特权域用户可以使用 Shiro.ini 文件来控制对解释器 UI 的访问。 只有这些用户可以创建新的 %sh 解释器并对每个新 %sh 解释器设置权限。 若要使用 shiro.ini 文件控制访问权限,请执行以下步骤:

  1. 使用现有域组名称定义新的角色。 在以下示例中,adminGroupName 是 AAD 中的一组特权用户。 请勿在组名称中使用特殊字符或空格。 = 后的字符用于为此角色提供权限。 * 表示组具有完全权限。

    [roles]
    adminGroupName = *
    
  2. 添加新的角色以访问 Zeppelin 解释器。 在以下示例中,adminGroupName 中的所有用户都授予了 Zeppelin 解释器的访问权限,并且可以创建新的解释器。 你可以在 roles[] 中的括号之间放置多个角色,用逗号分隔。 然后,具有必要权限的用户可以访问 Zeppelin 解释器。

    [urls]
    /api/interpreter/** = authc, roles[adminGroupName]
    

多个域组的示例 shiro.ini:

[main]
anyofrolesuser = org.apache.zeppelin.utils.AnyOfRolesUserAuthorizationFilter

[roles]
group1 = *
group2 = *
group3 = *

[urls]
/api/interpreter/** = authc, anyofrolesuser[group1, group2, group3]

Livy 会话管理

Zeppelin 笔记本中的第一个代码段会在群集中创建一个新的 Livy 会话。 此会话会在随后创建的所有 Zeppelin 笔记本中共享。 如果 Livy 会话因任何原因而被终止,则 Zeppelin 笔记本将无法运行作业。

在这种情况下,必须先执行以下步骤,然后才能开始在 Zeppelin 笔记本中运行作业。

  1. 在 Zeppelin 笔记本中重启 Livy 解释器。 为此,请选择右上角的登录用户名打开解释器设置,然后选择“解释器”。

    Launch interpreter.

  2. 滚动到“livy2”,然后选择“重启”。

    Restart the Livy interpreter.

  3. 在现有的 Zeppelin 笔记本中运行代码单元。 此代码会在 HDInsight 群集中创建新的 Livy 会话。

常规信息

验证服务

若要从 Ambari 验证服务,请导航到 https://CLUSTERNAME.azurehdinsight.net/#/main/services/ZEPPELIN/summary,其中 CLUSTERNAME 是群集的名称。

若要从命令行验证服务,请通过 SSH 连接到头节点。 使用命令 sudo su zeppelin 将用户切换到 zeppelin。 状态命令:

命令 说明
/usr/hdp/current/zeppelin-server/bin/zeppelin-daemon.sh status 服务状态。
/usr/hdp/current/zeppelin-server/bin/zeppelin-daemon.sh --version 服务版本。
ps -aux | grep zeppelin 标识 PID。

日志位置

服务 `Path`
zeppelin-server /usr/hdp/current/zeppelin-server/
服务器日志 /var/log/zeppelin
配置解释器、Shiro、site.xml、log4j /usr/hdp/current/zeppelin-server/conf or /etc/zeppelin/conf
PID 目录 /var/run/zeppelin

启用调试日志记录

  1. 导航到 https://CLUSTERNAME.azurehdinsight.net/#/main/services/ZEPPELIN/summary,其中 CLUSTERNAME 是群集的名称。

  2. 导航到“CONFIGS”>“Advanced zeppelin-log4j-properties”>“log4j_properties_content”。

  3. log4j.appender.dailyfile.Threshold = INFO 修改为 log4j.appender.dailyfile.Threshold = DEBUG

  4. 添加 log4j.logger.org.apache.zeppelin.realm=DEBUG

  5. 保存更改并重启服务。

后续步骤