Alternativ för att hämta data till Fabric Lakehouse

Hämta dataupplevelse omfattar alla användarscenarier för att föra in data i lakehouse, till exempel:

  • Ansluta till befintliga SQL Server och kopiera data till deltatabellen i lakehouse.
  • Laddar upp filer från datorn.
  • Kopiera och sammanfoga flera tabeller från andra alehouses till en ny deltatabell.
  • Ansluta till en strömmande källa för att landa data i ett sjöhus.
  • Referera till data utan att kopiera dem från andra interna sjöhus eller externa källor.

Viktigt

Microsoft Fabric är en förhandsversion.

Olika sätt att läsa in data i lakehouse

I Microsoft Fabric finns det några sätt att hämta data till ett sjöhus:

  • Filuppladdning från den lokala datorn.
  • Kör ett kopieringsverktyg i pipelines.
  • Konfigurera ett dataflöde.
  • Apache Spark-bibliotek i notebook-kod

Lokal filuppladdning

Du kan också ladda upp data som lagras på den lokala datorn. Du kan göra det direkt i Lakehouse Explorer.

Skärmbild av dialogrutan för filuppladdning i Lakehouse Explorer.

Kopieringsverktyg i pipelines

Verktyget Kopiera är en mycket skalbar Dataintegration lösning som gör att du kan ansluta till olika datakällor och läsa in data i ursprungligt format eller konvertera dem till en deltatabell. Kopieringsverktyget är en del av pipelines-aktiviteter som kan samordnas på flera sätt, till exempel schemaläggning eller utlösande baserat på händelse. Se Kopiera data med hjälp av kopieringsaktivitet.

Dataflöden

För användare som är bekanta med Power BI-dataflöden är samma verktyg tillgängligt för landdata i Lakehouse. Du kan snabbt komma åt den från lakehouse explorer alternativet "Hämta data" och landa data från över 200 anslutningsappar. Se Skapa ditt första dataflöde för att hämta och transformera data.

Notebook-kod

Du kan använda tillgängliga Spark-bibliotek för att ansluta till en datakälla direkt, läsa in data till dataramen och sedan spara dem i ett sjöhus. Det är det mest öppna sättet att läsa in data i lakehouse som användarkoden hanterar fullständigt.

Anteckning

Externa deltatabeller som skapats med Spark-kod visas inte för SQL-slutpunkten. Använd genvägar i Tabellutrymme för att göra externa deltatabeller synliga för SQL-slutpunkten.

Överväganden när du väljer metod för att läsa in data

Användningsfall Rekommendation
Liten filuppladdning från den lokala datorn Använda lokal filuppladdning
Små data eller specifika anslutningsappar Använda dataflöden
Stor datakälla Använda verktyget Kopiera i pipelines
Komplexa datatransformeringar Använda notebook-kod

Nästa steg