Оқиға
Mar 31, 11 PM - Apr 2, 11 PM
Ең үлкен Fabric, Power BI және SQL оқу іс-шарасы. 31 наурыз – 2 сәуір. $400 үнемдеу үшін FABINSIDER кодын пайдаланыңыз.
Бүгін тіркеліңізБұл браузерге бұдан былай қолдау көрсетілмейді.
Соңғы мүмкіндіктерді, қауіпсіздік жаңартуларын және техникалық қолдауды пайдалану үшін Microsoft Edge браузеріне жаңартыңыз.
Расширение Кода Visual Studio (VS) для Synapse полностью поддерживает операции определения заданий Spark в Fabric (создание, обновление, чтение и удаление). После создания определения задания Spark можно отправить дополнительные ссылки на библиотеки, отправить запрос на выполнение определения задания Spark и проверить журнал выполнения.
Чтобы создать новое определение задания Spark, выполните приведенные далее действия.
В обозревателе VS Code выберите параметр "Создать определение задания Spark".
Введите начальные обязательные поля: имя, ссылка на lakehouse и lakehouse по умолчанию.
Процессы запроса и имя только что созданного определения задания Spark отображается в корневом узле определения задания Spark в обозревателе VS Code. В узле имени задания Spark вы увидите три поднода:
Files/…, Tables/…
.Чтобы отправить или перезаписать файл основного определения, выберите параметр "Добавить основной файл ".
Чтобы отправить файл библиотеки, на который ссылается основной файл определения, выберите параметр "Добавить lib file ".
После отправки файла его можно переопределить, щелкнув параметр "Обновить файл" и отправив новый файл, или удалить его с помощью параметра "Удалить ".
Чтобы отправить запрос на выполнение определения задания Spark из VS Code:
В параметрах справа от имени определения задания Spark, которое вы хотите запустить, выберите параметр "Выполнить задание Spark".
После отправки запроса новое приложение Apache Spark появится в узле "Запуски " в списке обозревателя. Вы можете отменить выполняемую работу, выбрав параметр "Отменить задание Spark".
Вы можете открыть страницу разработки определения задания Spark на портале Fabric, выбрав параметр "Открыть в браузере ".
Вы также можете выбрать "Открыть в браузере " рядом с завершенным запуском, чтобы просмотреть страницу мониторинга сведений этого запуска.
Если определение задания Spark создано с помощью PySpark (Python), можно скачать сценарий .py файла основного определения и файла, на который ссылается ссылка, и выполнить отладку исходного скрипта в VS Code.
Чтобы скачать исходный код, выберите параметр "Определение задания Spark отладки" справа от определения задания Spark.
После завершения скачивания папка исходного кода автоматически открывается.
При появлении запроса выберите параметр "Доверять авторам". (Этот параметр отображается только при первом открытии папки. Если этот параметр не выбран, вы не сможете выполнить отладку или запустить исходный скрипт. Дополнительные сведения см. в разделе "Безопасность доверия рабочей области Visual Studio Code".)
Если вы скачали исходный код раньше, вам будет предложено подтвердить, что вы хотите перезаписать локальную версию с новой загрузкой.
Ескерім
В корневой папке исходного скрипта система создает вложенную папку conf. В этой папке файл с именем lighter-config.json содержит некоторые системные метаданные, необходимые для удаленного запуска. Не вносите в него какие-либо изменения.
Файл с именем sparkconf.py содержит фрагмент кода, который необходимо добавить для настройки объекта SparkConf . Чтобы включить удаленную отладку, убедитесь, что объект SparkConf настроен правильно. На следующем рисунке показана исходная версия исходного кода.
Следующий образ — обновленный исходный код после копирования и вставки фрагмента кода.
После обновления исходного кода с необходимым conf необходимо выбрать правильный интерпретатор Python. Убедитесь, что он установлен в среде conda synapse-spark-kernel .
Вы можете изменить подробные свойства определений заданий Spark, например аргументы командной строки.
Выберите параметр "Обновить конфигурацию SJD", чтобы открыть файл settings.yml. Существующие свойства заполняют содержимое этого файла.
Обновите и сохраните файл .yml.
Выберите параметр "Опубликовать свойство SJD" в правом верхнем углу, чтобы синхронизировать изменение обратно с удаленной рабочей областью.
Оқиға
Mar 31, 11 PM - Apr 2, 11 PM
Ең үлкен Fabric, Power BI және SQL оқу іс-шарасы. 31 наурыз – 2 сәуір. $400 үнемдеу үшін FABINSIDER кодын пайдаланыңыз.
Бүгін тіркеліңізОқыту
Модуль
Использование Apache Spark в Microsoft Fabric - Training
Apache Spark — это основная технология для аналитики данных в большом масштабе. Microsoft Fabric обеспечивает поддержку кластеров Spark, что позволяет анализировать и обрабатывать данные в большом масштабе.
Сертификаттау
Сертифицировано корпорацией Майкрософт: Связывание Инженер данных Fabric - Certifications
Специалист по обработке данных Fabric должен иметь опыт работы с шаблонами загрузки данных, архитектурами данных и процессами оркестрации.