Bagikan melalui


Membuat lakehouse untuk Direct Lake

Artikel ini menjelaskan cara membuat lakehouse, membuat tabel Delta di lakehouse, lalu membuat model semantik dasar untuk lakehouse di ruang kerja Microsoft Fabric.

Sebelum mulai membuat lakehouse untuk Direct Lake, pastikan untuk membaca ringkasan Direct Lake.

Membuat lakehouse

  1. Di ruang kerja Microsoft Fabric Anda, pilih Opsi Lainnya Baru>, lalu di Rekayasa Data, pilih petak peta Lakehouse.

    Cuplikan layar memperlihatkan petak peta Lakehouse di Rekayasa data.

  2. Dalam kotak dialog New lakehouse , masukkan nama, lalu pilih Buat. Nama hanya dapat berisi karakter alfanumerik dan garis bawah.

    Cuplikan layar memperlihatkan dialog New lakehouse.

  3. Verifikasi bahwa lakehouse baru dibuat dan berhasil dibuka.

    Cuplikan layar lakehouse yang dibuat di ruang kerja.

Membuat tabel Delta di lakehouse

Setelah membuat lakehouse baru, Anda kemudian harus membuat setidaknya satu tabel Delta sehingga Direct Lake dapat mengakses beberapa data. Direct Lake dapat membaca file berformat parket, tetapi untuk performa terbaik, yang terbaik adalah mengompresi data dengan menggunakan metode kompresi VORDER. VORDER mengompresi data menggunakan algoritma kompresi asli mesin Power BI. Dengan cara ini mesin dapat memuat data ke dalam memori secepat mungkin.

Ada beberapa opsi untuk memuat data ke lakehouse, termasuk alur data dan skrip. Langkah-langkah berikut menggunakan PySpark untuk menambahkan tabel Delta ke lakehouse berdasarkan Azure Open Dataset:

  1. Di lakehouse yang baru dibuat, pilih Buka buku catatan, lalu pilih Buku catatan baru.

    Cuplikan layar memperlihatkan perintah notebook baru.

  2. Salin dan tempel cuplikan kode berikut ke dalam sel kode pertama untuk memungkinkan SPARK mengakses model yang terbuka, lalu tekan Shift + Enter untuk menjalankan kode.

    # Azure storage access info
    blob_account_name = "azureopendatastorage"
    blob_container_name = "holidaydatacontainer"
    blob_relative_path = "Processed"
    blob_sas_token = r""
    
    # Allow SPARK to read from Blob remotely
    wasbs_path = 'wasbs://%s@%s.blob.core.windows.net/%s' % (blob_container_name, blob_account_name, blob_relative_path)
    spark.conf.set(
      'fs.azure.sas.%s.%s.blob.core.windows.net' % (blob_container_name, blob_account_name),
      blob_sas_token)
    print('Remote blob path: ' + wasbs_path)
    
    
  3. Verifikasi bahwa kode berhasil menghasilkan jalur blob jarak jauh.

    Cuplikan layar memperlihatkan output jalur blob jarak jauh.

  4. Salin dan tempel kode berikut ke sel berikutnya, lalu tekan Shift + Enter.

    # Read Parquet file into a DataFrame.
    df = spark.read.parquet(wasbs_path)
    print(df.printSchema())
    
    
  5. Verifikasi kode berhasil menghasilkan skema DataFrame.

    Cuplikan layar memperlihatkan output skema dataframe.

  6. Salin dan tempel baris berikut ke sel berikutnya, lalu tekan Shift + Enter. Instruksi pertama memungkinkan metode kompresi VORDER, dan instruksi berikutnya menyimpan DataFrame sebagai tabel Delta di lakehouse.

    # Save as delta table 
    spark.conf.set("spark.sql.parquet.vorder.enabled", "true")
    df.write.format("delta").saveAsTable("holidays")
    
    
  7. Verifikasi bahwa semua pekerjaan SPARK berhasil diselesaikan. Perluas daftar pekerjaan SPARK untuk melihat detail selengkapnya.

    Cuplikan layar memperlihatkan daftar pekerjaan SPARK yang diperluas.

  8. Untuk memverifikasi bahwa tabel telah berhasil dibuat, di area kiri atas, di samping Tabel, pilih elipsis (...), lalu pilih Refresh, lalu perluas simpul Tabel .

    Cuplikan layar memperlihatkan perintah Refresh di dekat simpul Tabel.

  9. Menggunakan metode yang sama seperti di atas atau metode lain yang didukung, tambahkan lebih banyak tabel Delta untuk data yang ingin Anda analisis.

Membuat model Direct Lake dasar untuk lakehouse Anda

  1. Di lakehouse Anda, pilih Model semantik baru, lalu dalam dialog, pilih tabel yang akan disertakan.

    Cuplikan layar dialog untuk membuat model baru.

  2. Pilih Konfirmasi untuk menghasilkan model Direct Lake. Model secara otomatis disimpan di ruang kerja berdasarkan nama lakehouse Anda, lalu membuka model.

    Cuplikan layar memperlihatkan model terbuka di Power BI.

  3. Pilih Buka model data untuk membuka pengalaman pemodelan Web tempat Anda dapat menambahkan hubungan tabel dan pengukuran DAX.

    Cuplikan layar memperlihatkan Pemodelan web di Power BI.

Setelah selesai menambahkan hubungan dan ukuran DAX, Anda kemudian dapat membuat laporan, membangun model komposit, dan mengkueri model melalui titik akhir XMLA dengan cara yang sama seperti model lainnya.