Del via


Alternativer for å hente data inn i Fabric Lakehouse

Hent dataopplevelsen dekker alle brukerscenarioer for å hente data inn i lakehouse, for eksempel:

  • Koble til til eksisterende SQL Server og kopierer data til Delta-tabellen på lakehouse.
  • Laster opp filer fra datamaskinen.
  • Kopiere og slå sammen flere tabeller fra andre innsjøer til et nytt Delta-bord.
  • Koble til til en strømmingskilde for å lande data i et innsjøhus.
  • Refererer til data uten å kopiere dem fra andre interne innsjøer eller eksterne kilder.

Ulike måter å laste inn data på i et lakehouse

I Microsoft Fabric finnes det noen måter du kan hente data inn i et lakehouse på:

  • Filopplasting fra lokal datamaskin
  • Kjøre et kopieringsverktøy i datasamlebånd
  • Konfigurere en dataflyt
  • Apache Spark-biblioteker i notatblokkkode

Lokal filopplasting

Du kan også laste opp data som er lagret på den lokale maskinen. Du kan gjøre det direkte i Lakehouse explorer.

Screenshot of file upload dialog in the Lakehouse explorer.

Kopier verktøy i datasamlebånd

Kopier-verktøyet er en svært skalerbar dataintegreringsløsning som lar deg koble til forskjellige datakilder og laste inn dataene enten i opprinnelig format eller konvertere dem til en Delta-tabell. Kopieringsverktøy er en del av datasamlebåndaktiviteter som du kan endre på flere måter, for eksempel planlegging eller utløsing basert på en hendelse. Hvis du vil ha mer informasjon, kan du se Slik kopierer du data ved hjelp av kopieringsaktivitet.

Dataflyt

For brukere som er kjent med Power BI-dataflyter, er det samme verktøyet tilgjengelig for innlasting av data i lakehouse. Du kan raskt få tilgang til den fra Alternativet Hent data i Lakehouse explorer, og laste inn data fra over 200 koblinger. Hvis du vil ha mer informasjon, kan du se Hurtigstart: Opprett din første dataflyt for å hente og transformere data.

Notatblokkkode

Du kan bruke tilgjengelige Spark-biblioteker til å koble til en datakilde direkte, laste inn data til en dataramme og deretter lagre dem i et lakehouse. Denne metoden er den mest åpne måten å laste inn data i lakehouse som brukerkode er fullstendig administrerende.

Merk

Eksterne Delta-tabeller som er opprettet med Spark-kode, vil ikke være synlige for et SQL-analyseendepunkt. Bruk snarveier i tabellområdet til å gjøre eksterne Delta-tabeller synlige for et SQL Analytics-endepunkt.

Vurderinger når du velger tilnærming til innlasting av data

Brukseksempel Anbefaling
Liten filopplasting fra lokal maskin Bruk lokal filopplasting
Små data eller en bestemt kobling Bruk dataflyter
Stor datakilde Bruke kopieringsverktøy i datasamlebånd
Komplekse datatransformasjoner Bruke notatblokkkode