Del via


Microsoft Fabric-beslutningsvejledning: Vælg et datalager

Brug denne referencevejledning og eksempelscenarierne til at hjælpe dig med at vælge et datalager til dine Microsoft Fabric-arbejdsbelastninger.

Egenskaber for datalager

I denne tabel sammenlignes datalagre som f.eks. warehouse, lakehouse, Power BI-datamart og eventhouse baseret på datamængde, type, udviklerpersona, kompetencesæt, handlinger. og andre funktioner.

Lageragersted Lakehouse Power BI-datamart Eventhouse
Datamængde Ubegrænset Ubegrænset Op til 100 GB Ubegrænset
Datatype Struktureret Ustruktureret, halvstruktureret, struktureret Struktureret Ustruktureret, halvstruktureret, struktureret
Primær udviklerperson Udvikler af data warehouse, SQL-tekniker Datatekniker, dataforsker Borgerudvikler Citizen Data scientist, Data engineer, Data scientist, SQL Engineer
Kompetencesæt for primær udvikler SQL Spark(Scala, PySpark, Spark SQL, R) Ingen kode, SQL Ingen kode, KQL, SQL
Data organiseret af Databaser, skemaer og tabeller Mapper og filer, databaser og tabeller Database, tabeller, forespørgsler Databaser, skemaer og tabeller
Læsehandlinger T-SQL, Spark (understøtter læsning fra tabeller ved hjælp af genveje, understøtter endnu ikke adgang til visninger, lagrede procedurer, funktioner osv.) Spark, T-SQL Spark, T-SQL, Power BI KQL, T-SQL, Spark, Power BI
Skrivehandlinger T-SQL Spark(Scala, PySpark, Spark SQL, R) Dataflow, T-SQL KQL, Spark, forbindelsesøkosystem
Transaktioner med flere tabeller Ja Nr. Nej Ja, for indtagelse med flere tabeller. Se opdateringspolitik.
Primær udviklingsgrænseflade SQL-scripts Spark-notesbøger,Spark-jobdefinitioner Power BI KQL-forespørgselssæt, KQL-database
Sikkerhed Objektniveau (tabel, visning, funktion, lagret procedure osv.), kolonneniveau, rækkeniveau, DDL/DML, dynamisk datamaskering Rækkeniveau, kolonneniveau (for lakehouse, der er tilgået via et SQL Analytics-slutpunkt), tabelniveau (når du bruger T-SQL), ingen for Spark Indbygget RLS-editor Sikkerhed på rækkeniveau
Få adgang til data via genveje Ja, gennem et lakehouse ved hjælp af tre-del navne Ja Nr. Ja
Kan være en kilde til genveje Ja (tabeller) Ja (filer og tabeller) Nej Ja
Forespørgsel på tværs af elementer Ja, forespørg på tværs af lakehouse- og lagertabeller Ja, forespørg på tværs af lakehouse- og warehouse-tabeller. forespørgsel på tværs af lakehouses (herunder genveje ved hjælp af Spark) Nr. Ja, forespørg på tværs af KQL-databaser, lakehouses og lagre med genveje

Scenarier

Gennemse disse scenarier for at få hjælp til at vælge et datalager i Fabric.

Scenarie 1

Susan, der er professionel udvikler, er ny i Microsoft Fabric. De er klar til at komme i gang med at rense, modellere og analysere data, men skal beslutte at bygge et data warehouse eller et lakehouse. Efter gennemgang af detaljerne i den forrige tabel er de primære beslutningspunkter de tilgængelige færdigheder og behovet for transaktioner med flere tabeller.

Susan har brugt mange år på at bygge data warehouses på relationsdatabaseprogrammer og kender SQL-syntaks og -funktionalitet. Når man tænker på det større team, er de primære forbrugere af disse data også dygtige til SQL- og SQL-analyseværktøjer. Susan beslutter sig for at bruge et data warehouse, som gør det muligt for teamet primært at interagere med T-SQL, samtidig med at spark-brugere i organisationen får adgang til dataene.

Susan opretter et nyt lakehouse og får adgang til data warehouse-funktionerne med sql analytics-slutpunktet for lakehouse. Ved hjælp af Fabric-portalen oprettes der genveje til de eksterne datatabeller, og de placeres i mappen /Tables . Susan kan nu skrive T-SQL-forespørgsler, der refererer til genveje til at forespørge Delta Lake-data i lakehouse. Genvejene vises automatisk som tabeller i SQL Analytics-slutpunktet og kan forespørges med T-SQL ved hjælp af tredelte navne.

Scenarie 2

Rob, der er datatekniker, skal gemme og modellere flere terabyte data i Fabric. Teamet har en blanding af PySpark og T-SQL færdigheder. De fleste af de team, der kører T-SQL-forespørgsler, er forbrugere og behøver derfor ikke at skrive INSERT-, UPDATE- eller DELETE-sætninger. De resterende udviklere er komfortable med at arbejde i notesbøger, og da dataene er gemt i Delta, kan de interagere med en lignende SQL-syntaks.

Rob beslutter sig for at bruge et lakehouse, hvilket gør det muligt for datateknikerteamet at bruge deres forskellige færdigheder i forhold til dataene, samtidig med at teammedlemmer, der er højt kvalificerede i T-SQL, kan bruge dataene.

Scenarie 3

Ash, der er borgerudvikler, er Power BI-udvikler. De kender Excel, Power BI og Office. De skal oprette et dataprodukt til en forretningsenhed. De ved, at de ikke helt har færdighederne til at bygge et data warehouse eller et lakehouse, og de ser ud til at være for meget til deres behov og datamængder. De gennemser detaljerne i den forrige tabel og kan se, at de primære beslutningspunkter er deres egne færdigheder og deres behov for selvbetjening, ingen kodefunktionalitet og datavolumen under 100 GB.

Ash arbejder sammen med forretningsanalytikere, der kender Power BI og Microsoft Office, og ved, at de allerede har et Premium-kapacitetsabonnement. Når de tænker på deres større team, indser de, at de primære forbrugere af disse data kan være analytikere, der kender værktøjer uden kode og SQL-analyse. Ash beslutter sig for at bruge en Power BI-datamart, som gør det muligt for teamet at interagere med at bygge funktionaliteten hurtigt ved hjælp af en oplevelse uden kode. Forespørgsler kan udføres via Power BI og T-SQL, samtidig med at alle Spark-brugere i organisationen også kan få adgang til dataene.

Scenario 4

Daisy er forretningsanalytiker og har erfaring med at bruge Power BI til at analysere flaskehalse i forsyningskæden for en stor global detailkæde. De skal bygge en skalerbar dataløsning, der kan håndtere milliarder af rækker med data og kan bruges til at oprette dashboards og rapporter, der kan bruges til at træffe forretningsbeslutninger. Dataene kommer fra anlæg, leverandører, afsendere og andre kilder i forskellige strukturerede, semi-strukturerede og ustrukturerede formater.

Daisy beslutter sig for at bruge et eventhouse på grund af dets skalerbarhed, hurtige svartider, avancerede analysefunktioner, herunder tidsserieanalyse, geospatiale funktioner og hurtig direkte forespørgselstilstand i Power BI. Forespørgsler kan udføres ved hjælp af Power BI og KQL for at sammenligne mellem aktuelle og tidligere perioder, hurtigt identificere nye problemer eller levere geo-rumlige analyser af land- og søfartsruter.