Konfigurera autentiseringsuppgifter för Delta Storage
Kommentar
Information om hur du konfigurerar Delta Storage-autentiseringsuppgifter finns i Konfigurera åtkomst till molnobjektlagring för Azure Databricks. Databricks rekommenderar inte längre att du skickar autentiseringsuppgifter för lagring via DataFrame-alternativ enligt beskrivningen i den här artikeln.
Azure Databricks lagrar data för Delta Lake-tabeller i molnobjektlagring. För att konfigurera åtkomst till molnobjektlagring krävs behörigheter inom det molnkonto som innehåller ditt lagringskonto.
Skicka autentiseringsuppgifter för lagring som DataFrame-alternativ
Delta Lake har stöd för att ange autentiseringsuppgifter för lagring som alternativ för DataFrameReader och DataFrameWriter. Du kan använda detta om du behöver interagera med data i flera lagringskonton som styrs av olika åtkomstnycklar.
Kommentar
Den här funktionen är tillgänglig i Databricks Runtime 10.4 LTS och senare.
Du kan till exempel skicka dina autentiseringsuppgifter för lagring via DataFrame-alternativ:
Python
df1 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
.read("...")
df2 = spark.read \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
.read("...")
df1.union(df2).write \
.mode("overwrite") \
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
.save("...")
Scala
val df1 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
.read("...")
val df2 = spark.read
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
.read("...")
df1.union(df2).write
.mode("overwrite")
.option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
.save("...")