Hvad er Data Factory i Microsoft Fabric?

Data Factory giver dig en moderne dataintegrationsoplevelse til at indtage, forberede og transformere data fra et omfattende sæt datakilder (f.eks. databaser, data warehouse, Lakehouse, data i realtid med mere). Uanset om du er borger eller professionel udvikler, kan du transformere dataene med intelligente transformationer og udnytte et omfattende sæt aktiviteter. Med Data Factory i Microsoft Fabric sender vi hurtige kopieringsfunktioner (dataflytning) til både dataflows og datapipelines. Med Hurtig kopi kan du flytte data mellem dine foretrukne datalagre lynhurtigt. Det vigtigste er, at Hurtig kopiering giver dig mulighed for at hente data til lakehouse og data warehouse i Microsoft Fabric til analyse.

Der er to primære funktioner på højt niveau, som Data Factory implementerer: dataflows og pipelines.

  • Dataflow giver dig mulighed for at udnytte mere end 300 transformationer i dataflowdesigneren, hvilket gør det nemmere og mere fleksibelt at transformere data end noget andet værktøj – herunder intelligente AI-baserede datatransformationer.
  • Datapipelines gør det muligt for dig at udnytte de avancerede funktioner til orkestrering af data, der er indbyggede, til at oprette fleksible dataarbejdsprocesser, der opfylder virksomhedens behov.

Dataflows

Dataflow giver en grænseflade med lav kode til indtagelse af data fra hundredvis af datakilder og transformerer dine data ved hjælp af mere end 300 datatransformationer. Du kan derefter indlæse de resulterende data på flere destinationer, f.eks. Azure SQL-databaser og meget mere. Dataflow kan køres gentagne gange ved hjælp af manuel eller planlagt opdatering eller som en del af en orkestrering af en datapipeline.

Dataflow bygges ved hjælp af den velkendte Power Query-oplevelse , der er tilgængelig i dag på tværs af flere Microsoft-produkter og -tjenester, f.eks. Excel, Power BI, Power Platform, Dynamics 365 Insights-programmer og meget mere. Power Query gør det muligt for alle brugere – lige fra borgere til professionelle dataintegratorer – at udføre dataindtagelse og datatransformationer på tværs af deres dataområde. Udfør joinforbindelser, sammenlægninger, datarensning, brugerdefinerede transformationer og meget mere fra en brugervenlig brugergrænseflade med høj visualisering og lav kode.

Screenshot of the Power BI user interface showing the dataflow experience.

Datapipelines

Datapipelines muliggør effektive arbejdsprocesfunktioner i cloudskala. Med datapipelines kan du oprette komplekse arbejdsprocesser, der kan opdatere dit dataflow, flytte data i PB-størrelse og definere avancerede styreflowpipelines.

Brug datapipelines til at oprette komplekse ETL- og datafabriksarbejdsprocesser, der kan udføre mange forskellige opgaver i stor skala. Styringsflowfunktioner er indbygget i datapipelines, der giver dig mulighed for at oprette arbejdsproceslogik, hvilket giver løkker og betingelser.

Tilføj en konfigurationsdrevet kopiaktivitet sammen med din opdatering af dataflow med lav kode i en enkelt pipeline for en etl-datapipeline fra ende til anden. Du kan endda tilføje kode første aktiviteter for Spark-notesbøger, SQL-scripts, lagrede procs og meget mere.

Screenshot of the user interface showing copy activity.

Hvis du vil i gang med Microsoft Fabric, skal du gå til Hurtig start: Opret dit første Dataflow Gen2 for at hente og transformere data.