Программное взаимодействие с файлами рабочей области
Вы можете взаимодействовать с файлами рабочей области, хранящимися в Azure Databricks программным способом. Это позволяет выполнять такие задачи, как:
- Хранение небольших файлов данных вместе с записными книжками и кодом.
- Запись файлов журналов в каталоги, синхронизированные с Git.
- Импорт модулей с помощью относительных путей.
- Создание или изменение файла спецификации среды.
- Запись выходных данных из записных книжек.
- Запись выходных данных из выполнения библиотек, таких как Tensorboard.
Вы можете программно создавать, редактировать и удалять файлы рабочей области в Databricks Runtime 11.3 LTS и более поздних версиях.
Примечание.
Чтобы отключить запись в файлы рабочей области, задайте переменную WSFS_ENABLE_WRITE_SUPPORT=false
среды кластера. Дополнительную информацию см. в разделе Переменные среды.
Примечание.
В Databricks Runtime 14.0 и выше текущий рабочий каталог по умолчанию (CWD) для кода, выполняемого локально, — это каталог, содержащий записную книжку или скрипт, выполняемый. Это изменение поведения из Databricks Runtime 13.3 LTS и ниже. См. раздел " Что такое текущий рабочий каталог по умолчанию?".
Чтение расположений файлов
Используйте команды оболочки для чтения расположений файлов, например в репозитории или локальной файловой системе.
Чтобы определить расположение файлов, введите следующее:
%sh ls
- Файлы не в репозитории: команда возвращает файловую систему
/databricks/driver
. - Файлы находятся в репозитории: команда возвращает виртуализированное репозиторие, например
/Workspace/Repos/name@domain.com/public_repo_2/repos_file_system
.
Чтение файлов рабочей области данных
Вы можете программно считывать небольшие файлы данных, такие как .csv
или .json
файлы из кода в записных книжках. В следующем примере Pandas используется для запроса файлов, хранящихся в /data
каталоге относительно корневого каталога репозитория проекта:
import pandas as pd
df = pd.read_csv("./data/winequality-red.csv")
df
С помощью Spark можно считывать файлы данных. Необходимо предоставить Spark полный путь.
- Файлы рабочей области в папках Git используют путь
file:/Workspace/Repos/<user-folder>/<repo-name>/path/to/file
. - Файлы рабочей области в личном каталоге используют путь:
file:/Workspace/Users/<user-folder>/path/to/file
Абсолютный или относительный путь к файлу можно скопировать из раскрывающегося меню рядом с файлом:
В приведенном ниже примере показано использование {os.getcwd()}
для получения полного пути.
import os
spark.read.format("csv").load(f"file:{os.getcwd()}/my_data.csv")
Дополнительные сведения о файлах в Azure Databricks см. в статье "Работа с файлами в Azure Databricks".
Программное создание, обновление и удаление файлов и каталогов
В Databricks Runtime 11.3 LTS и более поздних версиях можно напрямую управлять файлами рабочей области в Azure Databricks. В следующих примерах используются стандартные пакеты и функции Python для создания файлов и каталогов и управления ими.
# Create a new directory
os.mkdir('dir1')
# Create a new file and write to it
with open('dir1/new_file.txt', "w") as f:
f.write("new content")
# Append to a file
with open('dir1/new_file.txt', "a") as f:
f.write(" continued")
# Delete a file
os.remove('dir1/new_file.txt')
# Delete a directory
os.rmdir('dir1')