Hvad er et lakehouse i Microsoft Fabric?
Microsoft Fabric Lakehouse er en dataarkitekturplatform til lagring, administration og analyse af strukturerede og ustrukturerede data på en enkelt placering. Det er en fleksibel og skalerbar løsning, der giver organisationer mulighed for at håndtere store mængder data ved hjælp af en række værktøjer og strukturer til at behandle og analysere disse data. Den kan integreres med andre datastyrings- og analyseværktøjer for at levere en omfattende løsning til datakonstruktion og analyse.
Vigtigt
Microsoft Fabric fås som prøveversion.
SQL-slutpunkt for Lakehouse
Lakehouse opretter et serveringslag ved automatisk at generere et SQL-slutpunkt og et standarddatasæt under oprettelsen. Denne nye gennemgangsfunktion gør det muligt for brugeren at arbejde direkte oven på deltatabellerne i søen for at give en friktionsfri og effektiv oplevelse hele vejen fra dataindtagelse til rapportering.
En vigtig forskel mellem standardlageret er, at det er en skrivebeskyttet oplevelse og ikke understøtter hele T-SQL-området i et transaktionsdata warehouse. Det er vigtigt at bemærke, at det kun er tabellerne i Delta-formatet, der er tilgængelige i SQL-slutpunktet. Parquet, CSV og andre formater kan ikke forespørges ved hjælp af SQL-slutpunktet. Hvis du ikke kan se tabellen, skal du konvertere den til Delta-format.
Få mere at vide om SQL-slutpunktet her
Automatisk registrering og registrering af tabeller
Den automatiske tabelregistrering og registrering er en funktion i Lakehouse, der leverer en fuldt administreret fil til tabeloplevelse for datateknikere og dataspecialister. Du kan placere en fil i det administrerede område i Lakehouse, og filen valideres automatisk til understøttede strukturerede formater, som i øjeblikket kun er Delta-tabeller, og registreres i metalageret med de nødvendige metadata, f.eks. kolonnenavne, formater, komprimering og meget mere. Du kan derefter referere til filen som en tabel og bruge SparkSQL-syntaksen til at interagere med dataene.
Interaktion med Lakehouse-elementet
En datatekniker kan interagere med lakehouse og dataene i lakehouse på flere måder:
The Lakehouse explorer: Explorer er den vigtigste Lakehouse interaktion side. Du kan indlæse data i dit Lakehouse, udforske data i Lakehouse ved hjælp af Objektoversigt og angive MIP-mærkater & for forskellige andre ting. Få mere at vide om exploreroplevelsen: Navigering i Lakehouse-opdagelsesrejsende.
Notesbøger: Datateknikere kan bruge notesbogen til at skrive kode til at læse, transformere og skrive direkte til Lakehouse som tabeller og/eller mapper. Du kan få mere at vide om, hvordan du udnytter notesbøger til Lakehouse: Udforsk dataene i dit Lakehouse med en notesbog , og sådan bruger du en notesbog til at indlæse data i dit Lakehouse.
Pipelines: Datateknikere kan bruge værktøjer til dataintegration, f.eks. pipelinekopiværktøj, til at hente data fra andre kilder og lande i Lakehouse. Find flere oplysninger om, hvordan du bruger kopieringsaktiviteten: Sådan kopierer du data ved hjælp af kopieringsaktivitet.
Apache Spark-jobdefinitioner: Datateknikere kan udvikle robuste programmer og orkestrere udførelsen af kompilerede Spark-job i Java, Scala og Python. Få mere at vide om Spark-job: Hvad er en Apache Spark-jobdefinition?.
Dataflow Gen 2: Datateknikere kan bruge Dataflow Gen 2 til at indtage og forberede deres data. Find flere oplysninger om indlæsning af data ved hjælp af dataflow: Opret dit første dataflow for at hente og transformere data.
Få mere at vide om de forskellige måder at indlæse data på i dit lakehouse: Få dataoplevelsen for Lakehouse.
Næste trin
I denne oversigt får du en grundlæggende forståelse af et lakehouse. Gå videre til næste artikel for at få mere at vide om, hvordan du opretter og kommer i gang med dit eget lakehouse:
- For at komme i gang med lakehouse, se Oprettelse af et lakehouse.