使用适用于 Visual Studio Code 的 Databricks 扩展将 R、Scala 或 SQL notebook 作为作业运行

本文介绍如何使用适用于 Visual Studio Code 的 Databricks 扩展将 R、Scala 或 SQL notebook 作为 Azure Databricks 作业运行。 请参阅什么是 Visual Studio Code 的 Databricks 扩展?

若要将 Python 笔记本作为 Azure Databricks 作业运行,请参阅使用适用于 Visual Studio Code 的 Databricks 扩展将 Python 笔记本作为作业运行

此信息假定你已安装并设置适用于 Visual Studio Code 的 Databricks 扩展。 请参阅安装 Visual Studio Code 的 Databricks 扩展

打开扩展和代码项目后,执行以下操作:

  1. 在代码项目中,打开要作为作业运行的 R、Scala 或 SQL 笔记本。

    提示

    若要在 Visual Studio Code 中创建 R、Scala 或 SQL 笔记本文件,首先请单击“文件”>“新建文件”,选择“Python 文件”,然后分别使用 .r.scala.sql 文件扩展名保存新文件。

    若要将 .r.scala.sql 文件转换为 Azure Databricks 笔记本,请将特殊注释 Databricks notebook source 添加到该文件的开头,并在每个单元之前添加特殊注释 COMMAND ----------。 请务必为每种语言使用正确的注释标记(# 表示 R,// 表示 Scala,-- 表示 SQL)。 有关详细信息,请参阅导入文件并将其转换为笔记本

    这类似于 Python 笔记本的模式:

    A Python code file formatted as a Databricks notebook 2

  2. 在“运行和调试”视图(“视图”>“运行”)中,从下拉列表中选择“在 Databricks 上作为工作流运行”,然后单击绿色播放箭头(“开始调试”)图标。

    Run on Databricks as Workflow custom command

    注意

    如果在 databricks 上运行工作流不可用,请参阅 为 Visual Studio Code 的 Databricks 扩展创建自定义运行配置

此时会显示一个新的编辑器选项卡,其标题为“Databricks 作业运行”。 笔记本在工作区中作为作业运行。 笔记本及其输出显示在新编辑器选项卡的“输出”区域中。

若要查看有关作业运行的信息,请单击“Databricks 作业运行”编辑器选项卡中的“任务运行 ID”链接。工作区随即会打开,作业运行详细信息显示在工作区中。