Flytta data från Azure SQL DB till Lakehouse via datapipeline
I den här självstudien skapar du en datapipeline för att flytta data i Azure SQL Database till Lakehouse. Den här upplevelsen visar en snabb demonstration om hur du använder kopieringsaktivitet för datapipelines och hur du läser in data i Lakehouse.
Förutsättningar
För att komma igång måste du uppfylla följande krav:
- Ett Microsoft Fabric-klientkonto med en aktiv prenumeration. Skapa ett konto utan kostnad.
- Kontrollera att du har en Microsoft Fabric-aktiverad arbetsyta: Skapa en arbetsyta.
Skapa en datapipeline
Gå till Power BI.
Välj Power BI-ikonen längst ned till vänster på skärmen och välj sedan Data factory för att öppna startsidan för Data Factory.
Gå till din Microsoft Fabric-arbetsyta. Om du har skapat en ny arbetsyta i avsnittet förhandskrav använder du den här.
Välj Datapipeline och ange sedan ett pipelinenamn för att skapa en ny pipeline.
Kopiera data med hjälp av datapipeline
I den här sessionen börjar du skapa din datapipeline genom att följa stegen nedan om att kopiera data från Azure SQL Database till Lakehouse.
Lägga till en kopieringsaktivitet
Öppna en befintlig datapipeline eller skapa en ny datapipeline.
Lägg till en kopieringsaktivitet antingen genom att välja Lägg till pipelineaktivitet> aktiviteten Kopiera eller genom att välja Kopiera data>Lägg till på arbetsytan under fliken Aktiviteter.
Konfigurera källan på källfliken
Välj + Ny bredvid Anslutningen för att skapa en anslutning till datakällan.
Välj datakälltypen i popup-fönstret. Du använder Azure SQL Database som exempel. Välj Azure SQL Database och välj sedan Fortsätt.
Den navigerar till sidan för att skapa anslutningen. Fyll i nödvändig anslutningsinformation på panelen och välj sedan Skapa. Information om hur du skapar anslutningar för varje typ av datakälla finns i artikeln om varje anslutningsapp.
När anslutningen har skapats tar den dig tillbaka till datapipelinesidan. Välj sedan Uppdatera för att hämta anslutningen som du skapade i listrutan. Du kan också välja en befintlig Azure SQL Database-anslutning från listrutan direkt om du redan har skapat den tidigare. Funktionerna i Testanslutning och Redigera är tillgängliga för varje vald anslutning. Välj sedan Azure SQL Database i Anslutningstyp .
Ange en tabell som ska kopieras. Välj Förhandsgranska data för att förhandsgranska källtabellen. Du kan också använda fråga och lagrad procedur för att läsa data från din källa.
Expandera Avancerat för mer avancerade inställningar.
Konfigurera målet under målfliken
Välj måltyp. Det kan vara antingen ditt interna förstklassiga datalager från din arbetsyta, till exempel Lakehouse, eller dina externa datalager. Du använder Lakehouse som exempel.
Välj att använda Lakehouse i datalagertypen Arbetsyta. Välj + Ny och navigerar till sidan För att skapa Lakehouse. Ange namnet på Lakehouse och välj sedan Skapa.
När anslutningen har skapats tar den dig tillbaka till datapipelinesidan. Välj sedan Uppdatera för att hämta anslutningen som du skapade i listrutan. Du kan också välja en befintlig Lakehouse-anslutning från listrutan direkt om du redan har skapat den tidigare.
Ange en tabell eller konfigurera filsökvägen för att definiera filen eller mappen som mål. Välj Tabeller och ange en tabell för att skriva data.
Expandera Avancerat för mer avancerade inställningar.
Nu kan du antingen spara din datapipeline med den här enkla kopieringsaktiviteten eller fortsätta att utforma din datapipeline.
Köra och schemalägga din datapipeline
När du har slutfört konfigurationen av datapipelinen kör du datapipelinen för att utlösa kopieringsaktiviteten. Du kan också schemalägga din datapipelinekörning om det behövs.
Växla till fliken Start och välj Kör. En bekräftelsedialogruta visas. Välj sedan Spara och kör för att starta aktiviteten.
Du kan övervaka körningsprocessen och kontrollera resultaten på fliken Utdata under arbetsytan för datapipelinen. Välj knappen Kör information (med glasögonikonen markerad) för att visa körningsinformationen.
Körningsinformationen visar hur mycket data som lästes och skrevs och olika andra detaljer om körningen.
Du kan också schemalägga att datapipelinen ska köras med en viss frekvens efter behov. Nedan visas ett exempel som schemalägger datapipelinen så att den körs var 15:e minut. Du kan också ange starttid och sluttid för ditt schema. Om du inte anger någon starttid är starttiden den tid som schemat gäller. Om du inte anger någon sluttid fortsätter din datapipelinekörning att vara återkommande var 15:e minut.