Dela via


Konfigurera autentiseringsuppgifter för Delta Storage

Kommentar

Information om hur du konfigurerar Delta Storage-autentiseringsuppgifter finns i Konfigurera åtkomst till molnobjektlagring för Azure Databricks. Databricks rekommenderar inte längre att du skickar autentiseringsuppgifter för lagring via DataFrame-alternativ enligt beskrivningen i den här artikeln.

Azure Databricks lagrar data för Delta Lake-tabeller i molnobjektlagring. För att konfigurera åtkomst till molnobjektlagring krävs behörigheter inom det molnkonto som innehåller ditt lagringskonto.

Skicka autentiseringsuppgifter för lagring som DataFrame-alternativ

Delta Lake har stöd för att ange autentiseringsuppgifter för lagring som alternativ för DataFrameReader och DataFrameWriter. Du kan använda detta om du behöver interagera med data i flera lagringskonton som styrs av olika åtkomstnycklar.

Kommentar

Den här funktionen är tillgänglig i Databricks Runtime 10.4 LTS och senare.

Du kan till exempel skicka dina autentiseringsuppgifter för lagring via DataFrame-alternativ:

Python

df1 = spark.read \
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>") \
  .read("...")
df2 = spark.read \
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>") \
  .read("...")
df1.union(df2).write \
  .mode("overwrite") \
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>") \
  .save("...")

Scala

val df1 = spark.read
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-1>")
  .read("...")
val df2 = spark.read
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-2>")
  .read("...")
df1.union(df2).write
  .mode("overwrite")
  .option("fs.azure.account.key.<storage-account-name>.dfs.core.windows.net", "<storage-account-access-key-3>")
  .save("...")