Luo Lakehouse Direct Lakelle
Tässä artikkelissa kuvataan, miten lakehouse luodaan, luodaan Delta-taulukko Lakehouseen ja luodaan sitten semanttinen perusmalli Lakehouselle Microsoft Fabric -työtilassa.
Tutustu ensin Direct Lake -yleiskatsaukseen, ennen kuin aloitat Lakehousen luomisen Direct Lakelle.
Luo lakehouse
Valitse Microsoft Fabric -työtilassa Uudet>lisäasetukset ja valitse sitten Data-asiantuntija sovelluksessa Lakehouse-ruutu.
Kirjoita Uusi lakehouse-valintaikkunaan nimi ja valitse sitten Luo. Nimi voi sisältää vain aakkosnumeerisia merkkejä ja alaviivoja.
Varmista, että uusi Lakehouse on luotu ja että se avautuu onnistuneesti.
Luo Delta-taulukko Lakehousessa
Kun olet luonut uuden Lakehouse-järjestelmän, sinun on luotava vähintään yksi Delta-taulukko, jotta Direct Lake voi käyttää joitakin tietoja. Direct Lake voi lukea parquet-muotoiltuja tiedostoja, mutta parhaan suorituskyvyn takaamiseksi tiedot kannattaa pakata VORDER-pakkausmenetelmää käyttämällä. VORDER pakkaa tiedot käyttämällä Power BI -moduulin alkuperäistä pakkausalgoritmia. Näin moduuli voi ladata tiedot muistiin mahdollisimman nopeasti.
Lakehouse-tallennustilaan voi ladata tietoja useilla eri vaihtoehdoilla, kuten tietoputkilla ja komentosaroilla. Seuraavissa vaiheissa lisätään Delta-taulukko Lakehouse-järjestelmään Azure Open Dataset -tietojoukon perusteella käyttämällä PySparkia:
Valitse juuri luodussa Lakehouse-kohdassa Avaa muistikirja ja valitse sitten Uusi muistikirja.
Kopioi ja liitä seuraava koodikatkelman ensimmäiseen koodisoluun, jotta SPARK voi käyttää avointa mallia, ja suorita sitten koodi painamalla Vaihto + Enter .
# Azure storage access info blob_account_name = "azureopendatastorage" blob_container_name = "holidaydatacontainer" blob_relative_path = "Processed" blob_sas_token = r"" # Allow SPARK to read from Blob remotely wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path) spark.conf.set( 'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name), blob_sas_token) print('Remote blob path: ' + wasbs_path)
Varmista, että koodi tulostaa blob-etäpolun onnistuneesti.
Kopioi ja liitä seuraava koodi seuraavaan soluun ja paina sitten Vaihto + Enter.
# Read Parquet file into a DataFrame. df = spark.read.parquet(wasbs_path) print(df.printSchema())
Varmista, että koodi tulostaa DataFrame-rakenteen onnistuneesti.
Kopioi ja liitä seuraavat rivit seuraavaan soluun ja paina sitten Vaihto + Enter. Ensimmäisessä ohjeessa käytetään VORDER-pakkausmenetelmää ja seuraavassa ohjeessa tallennetaan DataFrame Delta-taulukkona Lakehousessa.
# Save as delta table spark.conf.set("spark.sql.parquet.vorder.enabled", "true") df.write.format("delta").saveAsTable("holidays")
Varmista, että kaikki SPARK-työt on suoritettu loppuun onnistuneesti. Saat lisätietoja laajentamalla SPARK-työluettelon.
Jos haluat varmistaa, että taulukon luominen on onnistunut, valitse vasemmasta yläkulmasta Taulukot-kohdan viereistä kolme pistettä (...), valitse Päivitä ja laajenna sitten Taulukot-solmu.
Jos käytät joko samaa menetelmää kuin edellä tai muita tuettuja menetelmiä, lisää Delta-taulukoita analysoitaville tiedoille.
Direct Lake -perusmallin luominen Lakehouselle
Valitse Lakehousessa Uusi semanttinen malli ja valitse sitten valintaikkunassa sisällytettävät taulukot.
Luo Direct Lake -malli valitsemalla Vahvista . Malli tallennetaan automaattisesti työtilaan Lakehouse-nimen perusteella, jonka jälkeen malli avautuu.
Valitsemalla Avaa tietomalli voit avata verkkomallinnuskokemuksen, jossa voit lisätä taulukkosuhteita ja DAX-mittareita.
Kun olet lisännyt haluamasi suhteet ja DAX-mittarit, voit luoda raportteja, luoda yhdistelmämallin ja tehdä mallissa kyselyn XMLA-päätepisteiden kautta paljolti samalla tavalla kuin muutkin mallit.