Megosztás a következőn keresztül:


Tóház létrehozása a Direct Lake-hez

Ez a cikk bemutatja, hogyan hozhat létre egy tóházat, hogyan hozhat létre Delta-táblát a tóházban, majd hogyan hozhat létre alapszintű szemantikai modellt a lakehouse-hoz egy Microsoft Fabric-munkaterületen.

Mielőtt elkezdené létrehozni a Lakehouse-t a Direct Lake-hez, olvassa el a Direct Lake áttekintését.

Tóház létrehozása

  1. A Microsoft Fabric-munkaterületen válassza az Új>további lehetőségek lehetőséget, majd a adatmérnök területen válassza a Lakehouse csempét.

    Képernyőkép a Lakehouse csempéről az Adatmérnöki szolgáltatásban.

  2. Az Új tóház párbeszédpanelen adjon meg egy nevet, majd válassza a Létrehozás lehetőséget. A név csak alfanumerikus karaktereket és aláhúzásjeleket tartalmazhat.

    Képernyőkép az Új tóház párbeszédpanelről.

  3. Ellenőrizze, hogy az új lakehouse létrejött-e, és sikeresen megnyílik-e.

    Képernyőkép a munkaterületen létrehozott Lakehouse-ról.

Delta-tábla létrehozása a tóházban

Új tóház létrehozása után létre kell hoznia legalább egy Delta-táblát, hogy a Direct Lake hozzáférhessen bizonyos adatokhoz. A Direct Lake képes parquet formátumú fájlokat olvasni, de a legjobb teljesítmény érdekében a legjobb, ha a VORDER tömörítési módszerrel tömöríti az adatokat. A VORDER a Power BI motor natív tömörítési algoritmusával tömöríti az adatokat. Így a motor a lehető leggyorsabban betöltheti az adatokat a memóriába.

Több lehetőség is van az adatok tóházba való betöltésére, beleértve az adatfolyamokat és a szkripteket. Az alábbi lépések a PySpark használatával adhatnak hozzá Delta-táblát egy tóházhoz egy Azure Open Dataset alapján:

  1. Az újonnan létrehozott lakehouse-ban válassza a Jegyzetfüzet megnyitása, majd az Új jegyzetfüzet lehetőséget.

    Képernyőkép az új jegyzetfüzet parancsról.

  2. Másolja és illessze be a következő kódrészletet az első kódcellába, hogy a SPARK hozzáférhessen a nyitott modellhez, majd nyomja le a Shift + Enter billentyűkombinációt a kód futtatásához.

    # Azure storage access info
    blob_account_name = "azureopendatastorage"
    blob_container_name = "holidaydatacontainer"
    blob_relative_path = "Processed"
    blob_sas_token = r""
    
    # Allow SPARK to read from Blob remotely
    wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
    spark.conf.set(
      'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
      blob_sas_token)
    print('Remote blob path: ' + wasbs_path)
    
    
  3. Ellenőrizze, hogy a kód sikeresen kimenetel-e egy távoli blob elérési útját.

    A távoli blobútvonal kimenetét bemutató képernyőkép.

  4. Másolja és illessze be a következő kódot a következő cellába, majd nyomja le a Shift + Enter billentyűkombinációt.

    # Read Parquet file into a DataFrame.
    df = spark.read.parquet(wasbs_path)
    print(df.printSchema())
    
    
  5. Ellenőrizze, hogy a kód sikeresen kimenetet ad-e a DataFrame-sémának.

    Képernyőkép az adatkeretséma kimenetről.

  6. Másolja és illessze be a következő sorokat a következő cellába, majd nyomja le a Shift + Enter billentyűkombinációt. Az első utasítás engedélyezi a VORDER tömörítési metódust, a következő utasítás pedig a DataFrame-et menti Delta-táblaként a lakehouse-ban.

    # Save as delta table 
    spark.conf.set("spark.sql.parquet.vorder.enabled", "true")
    df.write.format("delta").saveAsTable("holidays")
    
    
  7. Ellenőrizze, hogy az összes SPARK-feladat sikeresen befejeződött-e. További részletekért bontsa ki a SPARK-feladatok listáját.

    Képernyőkép a SPARK-feladatok bővített listájáról.

  8. Ha ellenőrizni szeretné, hogy sikeresen létrejött-e egy tábla, a bal felső területen, a Táblák mellett jelölje ki a három pontot (...), majd válassza a Frissítés lehetőséget, majd bontsa ki a Táblák csomópontot.

    Képernyőkép a Frissítés parancsról a Táblák csomópont közelében.

  9. A fenti vagy más támogatott metódusok használatával adjon hozzá további Delta-táblákat az elemezni kívánt adatokhoz.

Alapszintű Direct Lake-modell létrehozása a lakehouse-hoz

  1. A lakehouse-ban válassza az Új szemantikai modell lehetőséget, majd a párbeszédpanelen válassza ki a felvenni kívánt táblákat.

    Képernyőkép az új modell létrehozásához szolgáló párbeszédpanelről.

  2. Válassza a Megerősítés lehetőséget a Direct Lake-modell létrehozásához. A rendszer automatikusan menti a modellt a munkaterületen a lakehouse neve alapján, majd megnyitja a modellt.

    Képernyőkép a Power BI-ban megnyitott modellről.

  3. Az Adatmodell megnyitása lehetőséget választva megnyithatja a webes modellezési felületet, ahol táblakapcsolatokat és DAX-mértékeket vehet fel.

    A Power BI webmodellezését bemutató képernyőkép.

Ha befejezte a kapcsolatok és DAX-mértékek hozzáadását, jelentéseket hozhat létre, összetett modellt hozhat létre, és az XMLA-végpontokon keresztül lekérdezheti a modellt ugyanúgy, mint bármely más modell.