Çalışma alanı dosyalarıyla program aracılığıyla etkileşim kurma
Azure Databricks'te depolanan çalışma alanı dosyalarıyla program aracılığıyla etkileşim kurabilirsiniz. Bu, aşağıdaki gibi görevleri etkinleştirir:
- Not defterleri ve kodlarla birlikte küçük veri dosyalarını depolama.
- Git ile eşitlenen dizinlere günlük dosyaları yazma.
- Göreli yolları kullanarak modülleri içeri aktarma.
- Ortam belirtimi dosyası oluşturma veya değiştirme.
- Not defterlerinden çıkış yazılıyor.
- Tensorboard gibi kitaplıkların yürütülmesinden çıkış yazılıyor.
Databricks Runtime 11.3 LTS ve üzerinde program aracılığıyla çalışma alanı dosyaları oluşturabilir, düzenleyebilir ve silebilirsiniz.
Not
Çalışma alanı dosyalarına yazmayı devre dışı bırakmak için küme ortam değişkenini WSFS_ENABLE_WRITE_SUPPORT=false
ayarlayın. Daha fazla bilgi için bkz . Ortam değişkenleri.
Not
Databricks Runtime 14.0 ve üzerinde, yerel olarak yürütülen kod için varsayılan geçerli çalışma dizini (CWD), çalıştırılmakta olan not defterini veya betiği içeren dizindir. Bu, Databricks Runtime 13.3 LTS ve altındaki davranışlarda bir değişikliktir. Bkz. Varsayılan geçerli çalışma dizini nedir?.
Dosyaların konumlarını okuma
Bir depoda veya yerel dosya sisteminde dosyaların konumlarını okumak için kabuk komutlarını kullanın.
Dosyaların konumunu belirlemek için aşağıdakileri girin:
%sh ls
- Dosyalar bir depoda değil: komutu dosya sistemini
/databricks/driver
döndürür. - Dosyalar bir depoda: komutu gibi
/Workspace/Repos/name@domain.com/public_repo_2/repos_file_system
sanallaştırılmış bir depo döndürür.
Veri çalışma alanı dosyalarını okuma
Veya gibi .csv
.json
küçük veri dosyalarını program aracılığıyla not defterlerinizdeki koddan okuyabilirsiniz. Aşağıdaki örnek, proje deposunun köküne göre bir /data
dizinde depolanan dosyaları sorgulamak için Pandas'ı kullanır:
import pandas as pd
df = pd.read_csv("./data/winequality-red.csv")
df
Veri dosyalarını okumak için Spark'ı kullanabilirsiniz. Spark'a tam yolu sağlamanız gerekir.
- Git klasörlerindeki çalışma alanı dosyaları yolunu
file:/Workspace/Repos/<user-folder>/<repo-name>/path/to/file
kullanır. - Kişisel dizininizdeki çalışma alanı dosyaları şu yolu kullanır:
file:/Workspace/Users/<user-folder>/path/to/file
.
Mutlak veya göreli yolu dosyanın yanındaki açılan menüden bir dosyaya kopyalayabilirsiniz:
Aşağıdaki örnekte, tam yolu almak için öğesinin kullanımı {os.getcwd()}
gösterilmektedir.
import os
spark.read.format("csv").load(f"file:{os.getcwd()}/my_data.csv")
Azure Databricks'te dosyalar hakkında daha fazla bilgi edinmek için bkz . Azure Databricks'te dosyalarla çalışma.
Program aracılığıyla dosya ve dizin oluşturma, güncelleştirme ve silme
Databricks Runtime 11.3 LTS ve üzerinde Azure Databricks'teki çalışma alanı dosyalarını doğrudan işleyebilirsiniz. Aşağıdaki örneklerde, dosya ve dizin oluşturmak ve bunları işlemek için standart Python paketleri ve işlevleri kullanılır.
# Create a new directory
os.mkdir('dir1')
# Create a new file and write to it
with open('dir1/new_file.txt', "w") as f:
f.write("new content")
# Append to a file
with open('dir1/new_file.txt', "a") as f:
f.write(" continued")
# Delete a file
os.remove('dir1/new_file.txt')
# Delete a directory
os.rmdir('dir1')