Konfigurieren von Delta-Speicheranmeldeinformationen
Hinweis
Informationen zum Konfigurieren von Delta-Speicheranmeldeinformationen finden Sie unter Konfigurieren des Zugriffs auf Cloudobjektspeicher für Azure Databricks. Databricks empfiehlt nicht mehr, Speicheranmeldeinformationen über DataFrame-Optionen zu übergeben, wie in diesem Artikel beschrieben.
Azure Databricks speichert Daten für Delta Lake-Tabellen im Cloudobjektspeicher. Das Konfigurieren des Zugriffs auf Cloudobjektspeicher erfordert Berechtigungen innerhalb des Cloudkontos, das Ihr Speicherkonto enthält.
Übergeben von Speicheranmeldeinformationen als DataFrame-Optionen
Delta Lake unterstützt die Angabe von Speicheranmeldeinformationen als Optionen für DataFrameReader und DataFrameWriter. Sie können diese verwenden, wenn Sie mit Daten in mehreren Speicherkonten interagieren müssen, die von unterschiedlichen Zugriffsschlüsseln gesteuert werden.
Hinweis
Dieses Feature ist in Databricks Runtime 10.4 LTS und höher verfügbar.
Beispielsweise können Sie Ihre Speicheranmeldeinformationen über DataFrame-Optionen übergeben:
Python
df1 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
.read("...")
df2 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
.read("...")
df1.union(df2).write \
.mode("overwrite") \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
.save("...")
Scala
val df1 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
.read("...")
val df2 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
.read("...")
df1.union(df2).write
.mode("overwrite")
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
.save("...")