Bagikan melalui


Tutorial: Menerapkan pola ambil data lake untuk memperbarui tabel Databricks Delta

Tutorial ini menunjukkan kepada Anda cara menangani peristiwa di akun penyimpanan yang memiliki kumpulan nama XML hierarkis.

Anda akan membuat solusi kecil yang memungkinkan pengguna untuk mengisi tabel Databricks Delta dengan mengunggah file nilai yang dipisahkan koma (csv) yang menjelaskan pesanan penjualan. Anda akan membangun solusi ini dengan menyambungkan bersama langganan Event Grid, Fungsi Azure, dan Pekerjaan Azure Databricks.

Dalam tutorial ini, Anda akan:

  • Membuat langganan Event Grid yang memanggil Fungsi Azure.
  • Membuat Fungsi Azure yang menerima pemberitahuan dari suatu peristiwa, lalu menjalankan pekerjaan di Azure Databricks.
  • Membuat pekerjaan Databricks yang menyisipkan pesanan pelanggan ke dalam tabel Databricks Delta yang terletak di akun penyimpanan.

Kami akan membangun solusi ini secara terbalik, dimulai dengan ruang kerja Azure Databricks.

Prasyarat

Membuat pesanan penjualan

Pertama, buat file csv yang menjelaskan pesanan penjualan, lalu unggah file itu ke akun penyimpanan. Nantinya, Anda akan menggunakan data dari file ini untuk mengisi baris pertama dalam tabel Databricks Delta kami.

  1. Navigasikan ke akun penyimpanan baru Anda di portal Microsoft Azure.

  2. Pilih Storage browser-Blob>containers-Add>container dan buat kontainer baru bernama data.

    Cuplikan layar pembuatan folder di browser penyimpanan.

  3. Dalam kontainer data , buat direktori bernama input.

  4. Tempelkan teks berikut ke editor teks.

    InvoiceNo,StockCode,Description,Quantity,InvoiceDate,UnitPrice,CustomerID,Country
    536365,85123A,WHITE HANGING HEART T-LIGHT HOLDER,6,12/1/2010 8:26,2.55,17850,United Kingdom
    
  5. Simpan file ini ke komputer lokal Anda dan beri nama data.csv.

  6. Di browser penyimpanan, unggah file ini ke folder input .

Membuat pekerjaan di Azure Databricks

Di bagian ini, Anda akan melakukan tugas-tugas ini:

  • Buat ruang kerja Azure Databricks.
  • Buat buku catatan.
  • Buat dan mengisi tabel Databricks Delta.
  • Tambahkan kode yang menyisipkan baris ke dalam tabel Databricks Delta.
  • Buat pekerjaan.

Membuat ruang kerja Azure Databricks

Di bagian ini, Anda membuat ruang kerja Azure Databricks menggunakan portal Microsoft Azure.

  1. Buat ruang kerja Azure Databricks. Beri nama ruang contoso-orderskerja tersebut . Lihat Membuat ruang kerja Azure Databricks.

  2. Buat kluster. Beri nama kluster customer-order-cluster. Lihat Buat kluster.

  3. Buat buku catatan. Beri nama buku catatan configure-customer-table dan pilih Python sebagai bahasa default buku catatan. Lihat Membuat buku catatan.

Membuat dan mengisi tabel Databricks Delta

  1. Di buku catatan yang Anda buat, salin dan tempel blok kode berikut ini ke dalam sel pertama, tapi jangan jalankan kode ini dulu.

    Ganti appId, password, tenant nilai tempat penampung, di blok kode ini dengan nilai yang Anda kumpulkan saat menyelesaikan prasyarat tutorial ini.

    dbutils.widgets.text('source_file', "", "Source File")
    
    spark.conf.set("fs.azure.account.auth.type", "OAuth")
    spark.conf.set("fs.azure.account.oauth.provider.type", "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider")
    spark.conf.set("fs.azure.account.oauth2.client.id", "<appId>")
    spark.conf.set("fs.azure.account.oauth2.client.secret", "<password>")
    spark.conf.set("fs.azure.account.oauth2.client.endpoint", "https://login.microsoftonline.com/<tenant>/oauth2/token")
    
    adlsPath = 'abfss://data@contosoorders.dfs.core.windows.net/'
    inputPath = adlsPath + dbutils.widgets.get('source_file')
    customerTablePath = adlsPath + 'delta-tables/customers'
    

    Kode ini membuat widget bernama source_file. Nantinya, Anda akan membuat Fungsi Azure yang memanggil kode ini dan meneruskan jalur file ke widget tersebut. Kode ini juga mengautentikasi perwakilan layanan Anda dengan akun penyimpanan, dan membuat beberapa variabel yang akan Anda gunakan di sel lain.

    Catatan

    Dalam pengaturan produksi, pertimbangkan untuk menyimpan kunci autentikasi Anda di Azure Databricks. Kemudian, tambahkan kunci pencarian ke blok kode Anda alih-alih kunci autentikasi.

    Misalnya, alih-alih menggunakan baris kode ini: spark.conf.set("fs.azure.account.oauth2.client.secret", "<password>"), Anda akan menggunakan baris kode berikut: spark.conf.set("fs.azure.account.oauth2.client.secret", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential>")).

    Setelah Anda menyelesaikan tutorial ini, lihat artikel Azure Data Lake Storage Gen2 di Situs Web Azure Databricks untuk melihat contoh pendekatan ini.

  2. Tekan kunci SHIFT + ENTER untuk menjalankan kode di blok ini.

  3. Salin dan tempel blok kode berikut ke dalam sel yang berbeda, lalu tekan kunci SHIFT + ENTER untuk menjalankan kode di blok ini.

    from pyspark.sql.types import StructType, StructField, DoubleType, IntegerType, StringType
    
    inputSchema = StructType([
    StructField("InvoiceNo", IntegerType(), True),
    StructField("StockCode", StringType(), True),
    StructField("Description", StringType(), True),
    StructField("Quantity", IntegerType(), True),
    StructField("InvoiceDate", StringType(), True),
    StructField("UnitPrice", DoubleType(), True),
    StructField("CustomerID", IntegerType(), True),
    StructField("Country", StringType(), True)
    ])
    
    rawDataDF = (spark.read
     .option("header", "true")
     .schema(inputSchema)
     .csv(adlsPath + 'input')
    )
    
    (rawDataDF.write
      .mode("overwrite")
      .format("delta")
      .saveAsTable("customer_data", path=customerTablePath))
    

    Kode ini membuat tabel Databricks Delta di akun penyimpanan Anda, lalu memuat beberapa data awal dari file csv yang Anda unggah sebelumnya.

  4. Setelah blok kode ini berhasil dijalankan, hapus blok kode ini dari buku catatan Anda.

Tambahkan kode yang menyisipkan baris ke dalam tabel Databricks Delta

  1. Salin dan tempel blok kode berikut ke dalam sel yang berbeda, tapi jangan jalankan sel ini.

    upsertDataDF = (spark
      .read
      .option("header", "true")
      .csv(inputPath)
    )
    upsertDataDF.createOrReplaceTempView("customer_data_to_upsert")
    

    Kode ini menyisipkan data ke dalam tampilan tabel sementara dengan menggunakan data dari file csv. Jalur ke file csv itu berasal dari widget input yang Anda buat di langkah sebelumnya.

  2. Salin dan tempel blok kode berikut ke dalam sel yang berbeda. Kode ini menggabungkan konten tampilan tabel sementara dengan tabel Databricks Delta.

    %sql
    MERGE INTO customer_data cd
    USING customer_data_to_upsert cu
    ON cd.CustomerID = cu.CustomerID
    WHEN MATCHED THEN
      UPDATE SET
        cd.StockCode = cu.StockCode,
        cd.Description = cu.Description,
        cd.InvoiceNo = cu.InvoiceNo,
        cd.Quantity = cu.Quantity,
        cd.InvoiceDate = cu.InvoiceDate,
        cd.UnitPrice = cu.UnitPrice,
        cd.Country = cu.Country
    WHEN NOT MATCHED
      THEN INSERT (InvoiceNo, StockCode, Description, Quantity, InvoiceDate, UnitPrice, CustomerID, Country)
      VALUES (
        cu.InvoiceNo,
        cu.StockCode,
        cu.Description,
        cu.Quantity,
        cu.InvoiceDate,
        cu.UnitPrice,
        cu.CustomerID,
        cu.Country)
    

Membuat pekerjaan

Buat Pekerjaan yang menjalankan buku catatan yang Anda buat sebelumnya. Nantinya, Anda akan membuat Fungsi Azure yang menjalankan pekerjaan ini saat acara dinaikkan.

  1. Pilih Pekerjaan Baru>.

  2. Beri nama pekerjaan, pilih buku catatan yang Anda buat dan kluster. Lalu, pilih Buat untuk membuat pekerjaan.

Membuat Fungsi Azure

Buat Fungsi Azure yang menjalankan Pekerjaan.

  1. Di ruang kerja Azure Databricks Anda, klik nama pengguna Azure Databricks Anda di bilah atas, lalu dari daftar drop-down, pilih Pengaturan Pengguna.

  2. Pada tab Token akses , pilih Hasilkan token baru.

  3. Salin token yang muncul, lalu klik Selesai.

  4. Di sudut atas ruang kerja Databricks, pilih ikon orang, lalu pilih Pengaturan pengguna.

    Mengelola akun

  5. Pilih tombol Buat token baru , lalu pilih tombol Buat .

    Pastikan untuk menyalin token ke tempat yang aman. Fungsi Azure Anda memerlukan token ini untuk otentikasi dengan Databricks sehingga dapat menjalankan Pekerjaan.

  6. Pada menu portal Microsoft Azure atau halaman Beranda, pilih Buat sumber daya.

  7. Di halaman Baru, pilih Komputasi>Aplikasi Fungsi.

  8. Di tab Dasar dari halaman Buat Aplikasi Fungsi , pilih grup sumber daya, lalu ubah atau verifikasi pengaturan berikut ini:

    Pengaturan Nilai
    Nama Aplikasi Fungsi contosoorder
    Tumpukan runtime .NET
    Terbitkan Kode
    Sistem Operasi Windows
    Jenis paket Konsumsi (Tanpa Server)
  9. Pilih Tinjau + buat, lalu pilih Buat.

    Setelah penyebaran selesai, pilih Buka sumber daya untuk membuka halaman gambaran umum Aplikasi Fungsi.

  10. Di grup Pengaturan , pilih Konfigurasi.

  11. Di halaman Pengaturan Aplikasi pilih tombol Pengaturan aplikasi baru untuk menambahkan setiap pengaturan.

    Menambahkan pengaturan konfigurasi

    Tambahkan pengaturan berikut:

    Nama pengaturan Nilai
    DBX_INSTANCE Wilayah ruang kerja databricks Anda. Misalnya: westus2.azuredatabricks.net
    DBX_PAT Token akses pribadi yang Anda hasilkan sebelumnya.
    DBX_JOB_ID Pengidentifikasi dari pekerjaan yang sedang berjalan.
  12. Pilih Simpan untuk menerapkan pengaturan ini.

  13. Di grup Fungsi , pilih Fungsi, lalu pilih Buat.

  14. Pilih Pemicu Azure Event Grid.

    Pasang ekstensi Microsoft.Azure.WebJobs.Extensions.EventGrid jika Anda diminta untuk melakukannya. Jika Anda harus memasangnya, maka Anda harus memilih Pemicu Azure Event Grid lagi untuk membuat fungsi.

    Panel Fungsi Baru muncul.

  15. Di panel Fungsi Baru , beri nama fungsi UpsertOrder, lalu pilih tombol Buat .

  16. Ganti konten file kode dengan kode ini, lalu pilih tombol Simpan :

      #r "Azure.Messaging.EventGrid"
      #r "System.Memory.Data"
      #r "Newtonsoft.Json"
      #r "System.Text.Json"
      using Azure.Messaging.EventGrid;
      using Azure.Messaging.EventGrid.SystemEvents;
      using Newtonsoft.Json;
      using Newtonsoft.Json.Linq;
    
      private static HttpClient httpClient = new HttpClient();
    
      public static async Task Run(EventGridEvent eventGridEvent, ILogger log)
      {
         log.LogInformation("Event Subject: " + eventGridEvent.Subject);
         log.LogInformation("Event Topic: " + eventGridEvent.Topic);
         log.LogInformation("Event Type: " + eventGridEvent.EventType);
         log.LogInformation(eventGridEvent.Data.ToString());
    
         if (eventGridEvent.EventType == "Microsoft.Storage.BlobCreated" || eventGridEvent.EventType == "Microsoft.Storage.FileRenamed") {
            StorageBlobCreatedEventData fileData = eventGridEvent.Data.ToObjectFromJson<StorageBlobCreatedEventData>();
            if (fileData.Api == "FlushWithClose") {
                  log.LogInformation("Triggering Databricks Job for file: " + fileData.Url);
                  var fileUrl = new Uri(fileData.Url);
                  var httpRequestMessage = new HttpRequestMessage {
                     Method = HttpMethod.Post,
                     RequestUri = new Uri(String.Format("https://{0}/api/2.0/jobs/run-now", System.Environment.GetEnvironmentVariable("DBX_INSTANCE", EnvironmentVariableTarget.Process))),
                     Headers = { 
                        { System.Net.HttpRequestHeader.Authorization.ToString(), "Bearer " + System.Environment.GetEnvironmentVariable("DBX_PAT", EnvironmentVariableTarget.Process)},
                        { System.Net.HttpRequestHeader.ContentType.ToString(), "application/json" }
                     },
                     Content = new StringContent(JsonConvert.SerializeObject(new {
                        job_id = System.Environment.GetEnvironmentVariable("DBX_JOB_ID", EnvironmentVariableTarget.Process),
                        notebook_params = new {
                              source_file = String.Join("", fileUrl.Segments.Skip(2))
                        }
                     }))
                  };
                  var response = await httpClient.SendAsync(httpRequestMessage);
                  response.EnsureSuccessStatusCode();
            }
         }
      }
    

Kode ini memilah informasi tentang peristiwa penyimpanan yang dinaikkan, lalu membuat pesan permintaan dengan url file yang memicu peristiwa tersebut. Sebagai bagian dari pesan, fungsi ini meneruskan nilai ke widget source_file yang Anda buat sebelumnya. kode fungsi mengirim pesan ke Pekerjaan Databricks dan menggunakan token yang Anda peroleh sebelumnya sebagai autentikasi.

Membuat langganan Event Grid

Di bagian ini, Anda akan membuat langganan Event Grid yang memanggil Fungsi Azure saat file diunggah ke akun penyimpanan.

  1. Pilih Integrasi, lalu di halaman Integrasi , pilih Pemicu Event Grid.

  2. Di panel Edit Pemicu , beri nama peristiwa eventGridEvent, lalu pilih Buat langganan Peristiwa.

    Catatan

    Nama eventGridEvent cocok dengan parameter bernama yang diteruskan ke Azure Function.

  3. Di tab Dasar dari halaman Buat Langganan Peristiwa , ubah atau verifikasi pengaturan berikut ini:

    Pengaturan Nilai
    Nama contoso-order-event-subscription
    Jenis topik Akun penyimpanan
    Sumber Daya Sumber contosoorders
    Nama topik sistem <create any name>
    Filter ke Jenis Peristiwa Blob Dibuat, dan Blob Dihapus
  4. Pilih tombol Buat.

Menguji langganan Event Grid

  1. Buat file bernama customer-order.csv, tempelkan informasi berikut ke file tersebut, dan simpan ke komputer lokal Anda.

    InvoiceNo,StockCode,Description,Quantity,InvoiceDate,UnitPrice,CustomerID,Country
    536371,99999,EverGlow Single,228,1/1/2018 9:01,33.85,20993,Sierra Leone
    
  2. Di Storage Explorer, unggah file ini ke folder input di akun penyimpanan Anda.

    Mengunggah file akan meningkatkan peristiwa Microsoft.Storage.BlobCreated. Event Grid memberi tahu semua database pelanggan tentang acara tersebut. Dalam kasus kami, Fungsi Azure adalah satu-satunya pelanggan. Fungsi Azure memilah parameter peristiwa untuk menentukan peristiwa mana yang terjadi. Kemudian meneruskan URL file ke Pekerjaan Databricks. Pekerjaan Databricks membaca file, dan menambahkan baris ke tabel Databricks Delta yang terletak pada akun penyimpanan Anda.

  3. Untuk memeriksa apakah pekerjaan berhasil, lihat eksekusi untuk pekerjaan Anda. Anda akan melihat status penyelesaian. Untuk informasi selengkapnya tentang cara melihat eksekusi untuk pekerjaan, lihat Menampilkan eksekusi untuk pekerjaan

  4. Di sel buku kerja baru, jalankan kueri ini dalam sel untuk melihat tabel delta yang diperbarui.

    %sql select * from customer_data
    

    Tabel yang dikembalikan memperlihatkan baris terbaru.

    Rekaman terbaru muncul dalam tabel

  5. Untuk memperbarui rekaman ini, buat file bernama customer-order-update.csv, tempelkan informasi berikut ke dalam file tersebut, dan simpan ke komputer lokal Anda.

    InvoiceNo,StockCode,Description,Quantity,InvoiceDate,UnitPrice,CustomerID,Country
    536371,99999,EverGlow Single,22,1/1/2018 9:01,33.85,20993,Sierra Leone
    

    File csv ini hampir identik dengan yang sebelumnya kecuali kuantitas pesanan diubah dari 228 ke 22.

  6. Di Storage Explorer, unggah file ini ke folder input di akun penyimpanan Anda.

  7. Jalankan select kueri lagi untuk melihat tabel delta yang diperbarui.

    %sql select * from customer_data
    

    Tabel yang dikembalikan memperlihatkan rekaman yang diperbarui.

    Rekaman yang diperbarui muncul dalam tabel

Membersihkan sumber daya

Saat tidak perlu lagi, hapus grup sumber daya dan semua sumber daya terkait. Untuk melakukannya, pilih grup sumber daya untuk akun penyimpanan dan pilih Hapus.

Langkah berikutnya