Del via


Indfødning af data i OneLake, og analysér med Azure Databricks

I denne vejledning skal du:

  • Opret en pipeline i et arbejdsområde, og indfødning af data i din OneLake i Delta-format.

  • Læs og rediger en Delta-tabel i OneLake med Azure Databricks.

Forudsætninger

Før du starter, skal du have:

  • Et arbejdsområde med et Lakehouse-element.

  • Et Premium Azure Databricks-arbejdsområde. Kun Premium Azure Databricks-arbejdsområder understøtter passthrough af Microsoft Entra-legitimationsoplysninger. Når du opretter din klynge, skal du aktivere passthrough af legitimationsoplysninger til Azure Data Lake Storage i Avancerede indstillinger.

  • Et eksempeldatasæt.

Indfødning af data, og rediger Delta-tabellen

  1. Gå til dit søhus i Power BI-tjeneste, vælg Hent data , og vælg derefter Ny pipeline.

    Skærmbillede, der viser, hvordan du navigerer til den nye pipelineindstilling fra brugergrænsefladen.

  2. I prompten Ny pipeline skal du angive et navn til den nye pipeline og derefter vælge Opret.

  3. Til denne øvelse skal du vælge eksempeldataene NYC Taxi – Grøn som datakilde.

    Skærmbillede, der viser, hvordan du vælger NYC-eksempel på semantisk model.

  4. På eksempelskærmen skal du vælge Næste.

  5. Som datadestination skal du vælge navnet på det lakehouse, du vil bruge til at gemme Data fra OneLake Delta-tabellen. Du kan vælge et eksisterende lakehouse eller oprette et nyt.

    Skærmbillede, der viser, hvordan du vælger destinationssøhus.

  6. Vælg, hvor outputtet skal gemmes. Vælg Tabeller som rodmappe. Indtast "nycsample" som tabelnavn, og vælg Næste.

  7. På skærmen Gennemse + Gem skal du vælge Start dataoverførsel med det samme og derefter vælge Gem + Kør.

    Skærmbillede, der viser, hvordan du angiver tabelnavn.

  8. Når jobbet er fuldført, skal du gå til lakehouse og få vist deltatabellen under mappen /Tables.

  9. Højreklik på det oprettede tabelnavn, vælg Egenskaber, og kopiér stien til Azure Blob Filesystem (ABFS).

  10. Åbn din Azure Databricks-notesbog. Læs deltatabellen på OneLake.

    olsPath = "abfss://<replace with workspace name>@onelake.dfs.fabric.microsoft.com/<replace with item name>.Lakehouse/Tables/nycsample" 
    df=spark.read.format('delta').option("inferSchema","true").load(olsPath)
    df.show(5)
    
  11. Opdater Delta-tabeldataene ved at ændre en feltværdi.

    %sql
    update delta.`abfss://<replace with workspace name>@onelake.dfs.fabric.microsoft.com/<replace with item name>.Lakehouse/Tables/nycsample` set vendorID = 99999 where vendorID = 1;