Kopiér fra Azure Blob Storage til Lakehouse

I dette selvstudium skal du oprette en datapipeline for at flytte en CSV-fil fra en inputmappe i en Azure Blob Storage-kilde til en Lakehouse-destination.

Forudsætninger

For at komme i gang skal du fuldføre følgende forudsætninger:

  • Sørg for, at du har et Project Microsoft Fabric-aktiveret arbejdsområde: Opret et arbejdsområde.

  • Vælg knappen Prøv det nu! for at forberede Azure Blob Storage-datakilden for Kopiér. Opret en ny ressourcegruppe for dette Azure Blob Storage, og vælg Gennemse + Opret>opret.

    Try your first data factory demo

    Screenshot of Project details screen.

    Derefter oprettes der et Azure Blob Storage, og moviesDB2.csv overføres til inputmappen for det oprettede Azure Blob Storage.

    Screenshot showing where new storage appears in folder.

Opret en datapipeline

  1. Skift til Data factory på siden app.powerbi.com.

    Screenshot of menu in which Data factory option appears.

  2. Opret et nyt arbejdsområde til denne demo.

    Screenshot of Workspace screen.

  3. Vælg Ny, og vælg derefter Datapipeline.

    Screenshot of the New menu.

Kopiér data ved hjælp af Kopiér assistent

I denne session skal du begynde at oprette en datapipeline ved hjælp af følgende trin. Disse trin kopierer en CSV-fil fra en inputmappe i et Azure Blob Storage til en Lakehouse-destination ved hjælp af kopiassistenten.

Trin 1: Start med kopiassistenten

  1. Vælg Kopiér data på lærredet for at åbne kopiassistentværktøjet for at komme i gang. Eller vælg Brug kopiassistentrullelisten Kopiér data under fanen Aktiviteter på båndet.

    Screenshot of two options to select copy assistant.

Trin 2: Konfigurer din kilde

  1. Vælg Azure Blob Storage, og vælg derefter Næste.

    Screenshot showing where to choose Azure Blob Storage as data source.

  2. Opret en forbindelse til datakilden ved at vælge Ny forbindelse.

    Screenshot showing where to select New connection.

    1. Når du har valgt Opret ny forbindelse, skal du kun udfylde Kontonavn eller URL-adresse og Godkendelsestype. Hvis du angiver Kontonavn eller URL-adresse ved hjælp af dit Azure Blob Storage-kontonavn , udfyldes forbindelsen automatisk. I denne demo vælger vi Kontonøgle , men du kan vælge en anden godkendelsestype vedrørende dine præferencer. Når du har valgt Log på, skal du kun logge på én konto, der har denne bloblagertilladelse.

      Screenshot showing the Connect to data source screen of the copy data assistant.

    2. Når forbindelsen er oprettet, skal du kun vælge Næste for at Forbind til datakilden.

  3. Vælg den fil moviesDB2.csv i kildekonfigurationen, der skal vises, og vælg derefter Næste.

    Screenshot showing how to choose data source.

Trin 3: Konfigurer din destination

  1. Vælg Lakehouse og derefter Næste.

    Screenshot showing the Choose data destination dialog with Lakehouse selected.

  2. Opret et nyt Lakehouse, og angiv Navnet på Lakehouse. Vælg derefter Næste.

    Screenshot showing the Choose data destination dialog with the new lakehouse option selected.

  3. Konfigurer og knyt kildedataene til destinationen. Vælg derefter Næste for at afslutte dine destinationskonfigurationer.

    Screenshot showing the Connect to data destination dialog in the copy data assistant with the table name MoviesDB filled in.

Trin 4: Gennemse og opret din kopiaktivitet

  1. Gennemse indstillingerne for kopiaktivitet i de forrige trin, og vælg OK for at afslutte. Du kan også gå tilbage til de forrige trin for at redigere dine indstillinger, hvis det er nødvendigt i værktøjet.

    Screenshot showing the Review + create screen in the Copy data assistant dialog.

  2. Når kopiaktiviteten er fuldført, føjes den derefter til dit datapipelinelærred. Alle indstillinger, herunder avancerede indstillinger for denne kopiaktivitet, er tilgængelige under fanerne nedenfor, når den er valgt.

    Screenshot showing the finished Copy activity.

Kør og planlæg din datapipeline

  1. Skift til fanen Hjem, og vælg Kør. Vælg derefter Gem og kør.

    Screenshot showing the Copy activity's Run button on the Home tab.

    Screenshot showing the Save and run dialog for the Copy activity.

  2. Vælg knappen Detaljer for at overvåge status og kontrollere resultaterne af kørslen.

    Screenshot showing the run Details button.

  3. Dialogboksen Kopiér datadetaljer viser resultaterne af kørslen, herunder status, mængden af data, der er læst og skrevet, start- og stoptider og varighed.

    Screenshot showing the Copy data details dialog.

  4. Du kan også planlægge, at pipelinen skal køre med en bestemt hyppighed efter behov. Nedenfor kan du se eksemplet på, hvordan pipelinen skal køre hvert 15. minut.

    Screenshot showing the schedule configuration dialog.

    Screenshot showing a pipeline with a configured schedule to run every 15 minutes.

Pipelinen i dette eksempel viser, hvordan du kopierer data fra Azure Blob Storage til Lakehouse. Du har lært, hvordan du:

  • Opret en datapipeline.
  • Kopiér data med Kopiér assistent.
  • Kør og planlæg din datapipeline.

Gå derefter videre for at få mere at vide om overvågning af dine pipelinekørsler.