Hva er et lakehouse i Microsoft Fabric?
Microsoft Fabric Lakehouse er en dataarkitekturplattform for lagring, administrasjon og analyse av strukturerte og ustrukturerte data på ett enkelt sted. Det er en fleksibel og skalerbar løsning som gjør det mulig for organisasjoner å håndtere store mengder data ved hjelp av en rekke verktøy og rammeverk for å behandle og analysere disse dataene. Den integreres med andre verktøy for databehandling og analyse for å gi en omfattende løsning for datateknikk og analyse.
Viktig
Microsoft Fabric er for øyeblikket i FORHÅNDSVERSJON. Denne informasjonen er knyttet til et forhåndsutgitt produkt som kan endres vesentlig før det utgis. Microsoft gir ingen garantier, uttrykt eller underforstått, med hensyn til informasjonen som er oppgitt her.
Lakehouse SQL-endepunkt
Lakehouse oppretter et serveringslag ved å automatisk generere et SQL-endepunkt og et standard datasett under oppretting. Denne nye gjennomsiktighetsfunksjonaliteten gjør det mulig for brukeren å arbeide direkte oppå deltatabellene i sjøen for å gi en friksjonsfri og fungerende opplevelse hele veien fra datainntak til rapportering.
Et viktig skille mellom standardlageret er at det er en skrivebeskyttet opplevelse og ikke støtter det fullstendige T-SQL-overflateområdet i et transaksjonsdatalager. Det er viktig å være oppmerksom på at bare tabellene i Delta-format er tilgjengelige i SQL-endepunktet. Parquet, CSV og andre formater kan ikke spørres ved hjelp av SQL-endepunktet. Hvis du ikke ser tabellen, konverterer du den til Delta-format.
Mer informasjon om SQL-endepunktet her
Automatisk tabelloppdagelse og -registrering
Den automatiske tabelloppdagelsen og registreringen er en funksjon i Lakehouse som gir en fullstendig administrert fil til tabellopplevelse for dataingeniører og dataforskere. Du kan slippe en fil i det administrerte området i Lakehouse, og filen valideres automatisk for støttede strukturerte formater, som for øyeblikket bare er Delta-tabeller og registrert i metalageret med de nødvendige metadataene, for eksempel kolonnenavn, formater, komprimering og mer. Deretter kan du referere til filen som en tabell og bruke SparkSQL-syntaks til å samhandle med dataene.
Samhandle med Lakehouse-elementet
En datatekniker kan samhandle med lakehouse og dataene i lakehouse på flere måter:
Lakehouse explorer: Utforskeren er den viktigste Lakehouse interaksjonssiden. Du kan laste inn data i Lakehouse, utforske data i Lakehouse ved hjelp av objektutforskeren, angi MIP-etiketter & på forskjellige andre ting. Mer informasjon om utforskeropplevelsen: Navigere i Lakehouse Explorer.
Notatblokker: Datateknikere kan bruke notatblokken til å skrive kode for å lese, transformere og skrive direkte til Lakehouse som tabeller og/eller mapper. Du kan lære mer om hvordan du drar nytte av notatblokker for Lakehouse: Utforsk dataene i Lakehouse med en notatblokk og hvordan du bruker en notatblokk til å laste inn data i Lakehouse.
Datateknikere kan bruke verktøy for dataintegrering, for eksempel kopieringsverktøy for datasamlebånd til å hente data fra andre kilder og lande i Lakehouse. Finn mer informasjon om hvordan du bruker kopieringsaktiviteten: Slik kopierer du data ved hjelp av kopieringsaktivitet.
Apache Spark-jobbdefinisjoner: Datateknikere kan utvikle robuste programmer og orkestrere kjøringen av kompilerte Spark-jobber i Java, Scala og Python. Mer informasjon om Spark-jobber: Hva er en Apache Spark-jobbdefinisjon?.
Dataflyter Gen 2: Datateknikere kan bruke Dataflyter Gen 2 til å innta og klargjøre dataene sine. Finn mer informasjon om innlasting av data ved hjelp av dataflyter: Opprett din første dataflyt for å hente og transformere data.
Mer informasjon om de ulike måtene å laste inn data på i lakehouse: Få dataopplevelse for Lakehouse.
Neste trinn
I denne oversikten får du en grunnleggende forståelse av et lakehouse. Gå videre til neste artikkel for å lære hvordan du oppretter og kommer i gang med ditt eget lakehouse:
- For å komme i gang med Lakehouse, se Opprette et innsjøhus.