Del via


Muligheder for at hente data ind i Fabric Lakehouse

Hent data-oplevelsen dækker alle brugerscenarier for at hente data ind i lakehouse, f.eks.:

  • Forbind til eksisterende SQL Server og kopiere data til Delta-tabellen i lakehouse.
  • Overfører filer fra computeren.
  • Kopierer og fletter flere tabeller fra andre lakehouses til en ny Delta-tabel.
  • Forbind til en streamingkilde for at lande data i et lakehouse.
  • Referer til data uden at kopiere dem fra andre interne lakehouses eller eksterne kilder.

Forskellige måder at indlæse data på i et lakehouse

I Microsoft Fabric er der et par måder, hvorpå du kan hente data ind i et lakehouse:

  • Filoverførsel fra lokal computer
  • Kør et kopiværktøj i pipelines
  • Konfigurer et dataflow
  • Apache Spark-biblioteker i notesbogkode

Overførsel af lokal fil

Du kan også uploade data, der er gemt på din lokale computer. Du kan gøre det direkte i Lakehouse explorer.

Screenshot of file upload dialog in the Lakehouse explorer.

Kopiér værktøj i pipelines

Kopiér-værktøjet er en yderst skalerbar dataintegrationsløsning, der giver dig mulighed for at oprette forbindelse til forskellige datakilder og indlæse dataene enten i det oprindelige format eller konvertere dem til en Delta-tabel. Kopiér værktøj er en del af pipelineaktiviteter, som du kan ændre på flere måder, f.eks. planlægning eller udløsning baseret på en hændelse. Du kan få flere oplysninger under Sådan kopierer du data ved hjælp af kopieringsaktivitet.

Dataflows

For brugere, der kender Power BI-dataflow, er det samme værktøj tilgængeligt til indlæsning af data i dit lakehouse. Du kan hurtigt få adgang til den fra Lakehouse-stifinderindstillingen "Hent data" og indlæse data fra mere end 200 connectors. Du kan få flere oplysninger under Hurtig start: Opret dit første dataflow for at hente og transformere data.

Notesbogkode

Du kan bruge tilgængelige Spark-biblioteker til at oprette direkte forbindelse til en datakilde, indlæse data i en dataramme og derefter gemme dem i et lakehouse. Denne metode er den mest åbne måde at indlæse data på i det lakehouse, som brugerkoden administrerer fuldt ud.

Bemærk

Eksterne Delta-tabeller, der er oprettet med Spark-kode, vil ikke være synlige for et SQL Analytics-slutpunkt. Brug genveje i Tabelområde til at gøre eksterne Delta-tabeller synlige for et SQL Analytics-slutpunkt.

Overvejelser ved valg af tilgang til indlæsning af data

Use case Henstilling
Overførsel af små filer fra lokal computer Brug lokal filoverførsel
Små data eller en bestemt connector Brug dataflow
Stor datakilde Brug kopiværktøjet i pipelines
Komplekse datatransformationer Brug notesbogkode