Modul 1: Skapa en pipeline med Data Factory

Den här modulen tar 10 minuter att mata in rådata från källlagret i tabellen Brons i ett data lakehouse med hjälp av aktiviteten Kopiera i en pipeline.

De övergripande stegen i modul 1 är följande:

  1. Skapa en datapipeline.
  2. Använd en kopieringsaktivitet i pipelinen för att läsa in exempeldata till ett Data Lakehouse.

Skapa en datapipeline

  1. Ett Microsoft Fabric-klientkonto med en aktiv prenumeration krävs. Skapa ett kostnadsfritt konto.

  2. Kontrollera att du har en Microsoft Fabric-aktiverad arbetsyta: Skapa en arbetsyta.

  3. Logga in på Power BI.

  4. Välj power BI-standardikonen längst ned till vänster på skärmen och växla till Data Factory-upplevelsen .

    Screenshot showing the selection of the Data Factory experience.

  5. Välj Datapipeline och ange ett pipelinenamn. Välj sedan Skapa.

    Screenshot of the Data Factory start page with the button to create a new data pipeline selected.

    Screenshot showing the dialog to give the new pipeline a name.

Använda en aktiviteten Kopiera i pipelinen för att läsa in exempeldata till ett data lakehouse

Steg 1: Använd kopieringsassistenten för att konfigurera en kopieringsaktivitet.

Välj Kopiera data för att öppna verktyget kopieringsassistenten.

Screenshot showing the selection of the Copy data activity from the new pipeline start page.

Steg 2: Konfigurera inställningarna i kopieringsassistenten.

  1. Dialogrutan Kopiera data visas med det första steget, Välj datakälla, markerat. Rulla nedåt om det behövs till avsnittet Datakällor och välj datakällans typ av Azure Blob Storage . Välj sedan Nästa.

    Screenshot showing the selection of the Azure Blob Storage data source type in the copy assistant on the Choose data source tab.

  2. I nästa steg väljer du Skapa ny anslutning och anger sedan URL:en för bloblagringen som är värd för exempeldata som tillhandahålls för den här självstudien på https://nyctaxisample.blob.core.windows.net/sample. Autentiseringstyp är Anonym. Välj Nästa när du har angett URL:en.

    Screenshot showing the creation of a new Azure Blob Storage connection with the URL for the sample data in the tutorial.

  3. Steget Anslut till datakälla visas, och till en början visas ett fel Som inte kan visa filer, eftersom behörigheter bara har beviljats till exempelmappen i bloblagringen. Ange mappnamn, exempel och välj Försök igen.

    Screenshot showing the Unable to list files error with the folder name Sample provided.

    Kommentar

    Bloblagringsmappen är skiftlägeskänslig och bör vara i alla gemener.

  4. Blob storage-webbläsaren visas härnäst. Välj filen NYC-Taxi-Green-2015-01.parquet och vänta tills dataförhandsgranskningen visas. Välj sedan Nästa.

    Screenshot showing the preview data for the NYC-Taxi-Green-2015-01.parquet file.

  5. I steget Välj datamål i kopieringsassistenten väljer du Lakehouse och sedan Nästa.

    Screenshot showing the selection of the Lakehouse destination on the Choose data destination tab of the Copy data assistant.

  6. Välj Skapa nytt Lakehouse på konfigurationssidan för datamål som visas och ange ett namn för det nya Lakehouse. Välj sedan Nästa igen.

    Screenshot showing the data destination configuration page of the Copy assistant, choosing the Create new Lakehouse option and providing a Lakehouse name.

  7. Konfigurera nu information om ditt Lakehouse-mål på sidan Välj och mappa till mappsökväg eller tabell. Välj Tabeller för rotmappen, ange ett tabellnamn och välj åtgärden Skriv över. Markera inte kryssrutan Aktivera partition som visas när du har valt åtgärden Skriv över tabell.

    Screenshot showing the Connect to data destination tab of the Copy data assistant, on the Select and map to folder path or table step.

  8. Granska slutligen konfigurationen på sidan Granska + spara i kopieringsdataassistenten. I den här självstudien avmarkerar du kryssrutan Starta dataöverföring omedelbart eftersom vi kör aktiviteten manuellt i nästa steg. Välj sedan OK.

    Screenshot showing the Copy data assistant on the Review + save page.

Steg 3: Kör och visa resultatet av din aktiviteten Kopiera.

  1. Välj fliken Kör i pipelineredigeraren. Välj sedan knappen Kör och sedan Spara och kör i kommandotolken för att köra aktiviteten Kopiera.

    Screenshot showing the pipeline Run tab with the Run button highlighted.

    Screenshot showing the Save and run dialog with the Save and run button highlighted.

  2. Du kan övervaka körningen och kontrollera resultatet på fliken Utdata under pipelinearbetsytan. Välj knappen Kör information (ikonen "glasögon" som visas när du hovrar över pipelinekörningen som körs) för att visa körningsinformationen.

    Screenshot showing the run details button in the pipeline Output tab.

  3. Körningsinformationen visar 1 508 501 rader som lästs och skrivits.

    Screenshot of the Copy data details for the pipeline run.

  4. Expandera avsnittet Varaktighetsfördelning för att se varaktigheten för varje steg i aktiviteten Kopiera. När du har granskat kopieringsinformationen väljer du Stäng.

    Screenshot showing the duration breakdown of the Copy activity run.

I den här första modulen i vår självstudie från slutpunkt till slutpunkt för din första dataintegrering med hjälp av Data Factory i Microsoft Fabric lärde du dig att:

  • Skapa en datapipeline.
  • Lägg till en aktiviteten Kopiera i pipelinen.
  • Använd exempeldata och skapa en data lakehouse för att lagra data i en ny tabell.
  • Kör pipelinen och visa dess information och varaktighetsuppdelning.

Fortsätt till nästa avsnitt nu för att skapa ditt dataflöde.