Интерфейс определения заданий Spark в VS Code

Расширение Visual Studio Code для Synapse полностью поддерживает процесс определения заданий Spark (создание, обновление, чтение и удаление) в Fabric. После создания определения задания Spark можно отправить дополнительные библиотеки, на которые есть ссылки, отправить запрос на выполнение определения задания Spark и проверка журнал выполнения.

Важно!

Microsoft Fabric в настоящее время находится на этапе предварительной версии. Эта информация относится к предварительной версии продукта, который может быть существенно изменен перед выпуском. Корпорация Майкрософт не дает никаких гарантий, явных или подразумеваемых, в отношении информации, представленной здесь.

Создание определения задания Spark

Чтобы создать определение задания Spark, выполните приведенные далее действия.

  1. В Обозреватель VS Code выберите параметр Create Spark Job Definition (Создать определение задания Spark).

    Снимок экрана: Обозреватель VS Code, на котором показано, где выбрать параметр Create Spark Job Definition (Создать определение задания Spark).

  2. Введите начальные обязательные поля: name, lakehouse, на который указывает ссылка, и lakehouse по умолчанию.

  3. После обработки запроса имя созданного SJD отображается в корневом узле Определение задания Spark в Обозреватель VS Code. В узле Имя определения задания Spark перечислены три вложенных узла:

    • Файлы: список файла определения main и других библиотек, на которые ссылается ссылка. Вы можете отправлять новые файлы из этого списка.
    • Lakehouse: список всех объектов lakehouse, на которые ссылается это определение задания Spark. Lakehouse по умолчанию помечается в списке, и вы можете получить к нему доступ по относительному пути Files/…, Tables/….
    • Запуск. Список журналов выполнения этого определения задания Spark и состояние каждого запуска.

Отправка файла определения main в упоминаемую библиотеку

Чтобы отправить или перезаписать файл определения main, выберите параметр Добавить основной файл.

Снимок экрана: Обозреватель VS Code, на котором показано, где выбрать параметр

Чтобы отправить файл библиотеки, на который ссылается main файл определения, выберите параметр Добавить lib file (Добавить lib file).

Снимок экрана: кнопка отправки библиотеки.

После отправки файла его можно переопределить, щелкнув параметр Обновить файл и отправив новый файл, или просто удалить файл с помощью параметра Удалить .

Снимок экрана: Обозреватель VS Code, где можно найти параметры

Отправка запроса на выполнение

Чтобы отправить запрос на запуск определения задания Spark из VS Code, выполните следующие действия.

  1. В параметрах справа от имени определения задания Spark, которое вы хотите запустить, выберите параметр Запустить задание Spark .

    Снимок экрана: Обозреватель VS Code, на котором показано, где следует выбрать запуск задания Spark.

  2. После отправки запроса новое приложение Spark появится в узле Выполняется в списке Обозреватель. Вы можете отменить выполняющееся задание, выбрав параметр Отмена задания Spark .

    Снимок экрана: vs Code Обозреватель с новым приложением Spark, указанным в узле Запуски, и показывает, где найти параметр Отмена задания Spark.

Открытие определения задания Spark на портале Fabric

Вы можете открыть страницу разработки определений заданий Spark на портале Fabric, выбрав параметр Открыть в браузере .

Вы также можете нажать кнопку Открыть в браузере рядом с завершенным запуском, чтобы просмотреть страницу подробного монитора этого запуска.

Снимок экрана: Обозреватель VS Code, на котором показано, где выбрать параметр Открыть в браузере.

Отладка исходного кода определения задания Spark (Python)

Если определение задания Spark создается с помощью PySpark (Python), можно скачать скрипт .py файла определения main и файла, на который ссылается ссылка, а также выполнить отладку исходного скрипта в VS Code.

  1. Чтобы скачать исходный код, выберите параметр Debug Spark Job Definition (Отладка определения задания Spark ) справа от определения задания Spark.

    Снимок экрана: кнопка скачивания источника.

  2. После завершения скачивания папка исходного кода автоматически открывается.

  3. При появлении запроса выберите параметр Доверять авторам . (Этот параметр появляется только при первом открытии папки. Если этот параметр не выбран, вы не сможете отлаживать или запускать исходный скрипт. Дополнительные сведения см. в разделе Visual Studio Code безопасность доверия рабочей области.)

  4. Если вы скачали исходный код ранее, вам будет предложено подтвердить, что локальная версия должна быть перезаписана новой загрузкой.

    Примечание

    В корневой папке исходного скрипта система создает вложенную папку с именем conf. В этой папке файл с именем lighter-config.json содержит некоторые системные метаданные, необходимые для удаленного запуска. НЕ вносите в него никаких изменений.

  5. Файл с именем sparkconf.py содержит фрагмент кода, который необходимо добавить для настройки объекта SparkConf . Чтобы включить удаленную отладку, убедитесь, что объект SparkConf настроен правильно. На следующем рисунке показана исходная версия исходного кода.

    Снимок экрана: пример кода, показывающий исходный код перед изменением.

    На следующем рисунке показан обновленный исходный код после копирования и вставки фрагмента кода.

    Снимок экрана: пример кода, показывающий исходный код после изменения.

  6. После обновления исходного кода с помощью необходимой функции conf необходимо выбрать правильный интерпретатор Python. Обязательно выберите установленный из среды conda synapse-spark-kernel .

Изменение свойств определения задания Spark

Вы можете изменять подробные свойства определений заданий Spark, например аргументы командной строки.

  1. Выберите параметр Обновить конфигурацию SJD , чтобы открыть файл settings.yml . Существующие свойства заполняют содержимое этого файла.

    Снимок экрана: выбор параметра Обновить конфигурацию SJD для определения задания Spark.

  2. Обновите и сохраните YML-файл.

  3. Выберите параметр Publish SJD Property (Опубликовать свойство SJD ) в правом верхнем углу, чтобы синхронизировать изменения с удаленной рабочей областью.

    Снимок экрана: выбор параметра Publish SJD Property (Опубликовать свойство SJD) для определения задания Spark.

Дальнейшие действия