Del via


Opprett et lakehouse for Direct Lake

Denne artikkelen beskriver hvordan du oppretter et lakehouse, oppretter et Delta-bord i lakehouse, og deretter oppretter du en grunnleggende semantisk modell for lakehouse i et Microsoft Fabric-arbeidsområde.

Før du begynner å opprette et lakehouse for Direct Lake, må du lese Oversikt over Direct Lake.

Opprett et innsjøhus

  1. Velg Nye>flere alternativer i Microsoft Fabric-arbeidsområdet, og velg deretter Lakehouse-flisen i Dataingeniør ing.

    Skjermbilde som viser Lakehouse-flisen i datateknikk.

  2. Skriv inn et navn i dialogboksen Nytt lakehouse, og velg deretter Opprett. Navnet kan bare inneholde alfanumeriske tegn og understrekingstegn.

    Skjermbilde som viser dialogboksen Nytt lakehouse.

  3. Kontroller at det nye lakehouse er opprettet og åpnes.

    Skjermbilde av lakehouse opprettet i arbeidsområdet.

Opprette et Delta-bord i lakehouse

Når du har opprettet et nytt lakehouse, må du deretter opprette minst én Delta-tabell, slik at Direct Lake kan få tilgang til noen data. Direct Lake kan lese parkettformaterte filer, men for best ytelse er det best å komprimere dataene ved hjelp av VORDER-komprimeringsmetoden. VORDER komprimerer dataene ved hjelp av Power BI-motorens opprinnelige komprimeringsalgoritme. På denne måten kan motoren laste inn dataene i minnet så raskt som mulig.

Det finnes flere alternativer for å laste inn data i et lakehouse, inkludert datasamlebånd og skript. Følgende trinn bruker PySpark til å legge til en Delta-tabell i et lakehouse basert på et Azure Open Dataset:

  1. Velg Åpne notatblokk i det nyopprettede lakehouse, og velg deretter Ny notatblokk.

    Skjermbilde som viser kommandoen for den nye notatblokken.

  2. Kopier og lim inn følgende kodesnutt i den første kodecellen for å la SPARK få tilgang til den åpne modellen, og trykk deretter skift + enter for å kjøre koden.

    # Azure storage access info
    blob_account_name = "azureopendatastorage"
    blob_container_name = "holidaydatacontainer"
    blob_relative_path = "Processed"
    blob_sas_token = r""
    
    # Allow SPARK to read from Blob remotely
    wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
    spark.conf.set(
      'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
      blob_sas_token)
    print('Remote blob path: ' + wasbs_path)
    
    
  3. Kontroller at koden sender ut en ekstern BLOB-bane.

    Skjermbilde som viser utdata for ekstern BLOB-bane.

  4. Kopier og lim inn følgende kode i neste celle, og trykk deretter SKIFT+ENTER.

    # Read Parquet file into a DataFrame.
    df = spark.read.parquet(wasbs_path)
    print(df.printSchema())
    
    
  5. Kontroller at koden sender DataFrame-skjemaet.

    Skjermbilde som viser utdataskjema for dataramme.

  6. Kopier og lim inn følgende linjer i neste celle, og trykk deretter SKIFT+ENTER. Den første instruksjonen aktiverer VORDER-komprimeringsmetoden, og den neste instruksjonen lagrer DataFrame som en Delta-tabell i lakehouse.

    # Save as delta table 
    spark.conf.set("spark.sql.parquet.vorder.enabled", "true")
    df.write.format("delta").saveAsTable("holidays")
    
    
  7. Kontroller at alle SPARK-jobber er fullført. Utvid SPARK-jobblisten for å vise flere detaljer.

    Skjermbilde som viser utvidet liste over SPARK-jobber.

  8. Hvis du vil bekrefte at en tabell er opprettet, velger du ellipsen (...) øverst til venstre, velger ellipsen (...), velger Oppdater og utvider deretter tabellnoden.

    Skjermbilde som viser Oppdater-kommandoen nær Tabeller-noden.

  9. Bruk enten samme metode som ovenfor eller andre støttede metoder, og legg til flere Delta-tabeller for dataene du vil analysere.

Opprett en grunnleggende Direct Lake-modell for lakehouse

  1. Velg Ny semantisk modell i lakehouse, og velg deretter tabeller som skal inkluderes i dialogboksen.

    Skjermbilde av dialogboksen for å opprette en ny modell.

  2. Velg Bekreft for å generere Direct Lake-modellen. Modellen lagres automatisk i arbeidsområdet basert på navnet på lakehouse, og åpner deretter modellen.

    Skjermbilde som viser åpen modell i Power BI.

  3. Velg Åpne datamodell for å åpne webmodelleringsopplevelsen der du kan legge til tabellrelasjoner og DAX-mål.

    Skjermbilde som viser nettmodellering i Power BI.

Når du er ferdig med å legge til relasjoner og DAX-mål, kan du deretter opprette rapporter, bygge en sammensatt modell og spørre modellen gjennom XMLA-endepunkter på omtrent samme måte som alle andre modeller.