Zelfstudie: Het Data Lake Capture-patroon implementeren om een Databricks Delta-tabel bij te werken

In deze zelfstudie leert u hoe u gebeurtenissen in een opslagaccount met een hiërarchische naamruimte verwerkt.

U maakt een kleine oplossing waarmee een gebruiker een Databricks Delta-tabel kan invullen door een bestand met door komma's gescheiden waarden (CSV) te uploaden waarin een verkooporder wordt beschreven. U maakt deze oplossing door een Event Grid-abonnement, een Azure-functie en een taak in Azure Databricks aan elkaar te koppelen.

In deze zelfstudie leert u het volgende:

  • Maak een Event Grid-abonnement die een Azure-functie aanroept.
  • Maak een Azure-functie die een melding ontvangt van een gebeurtenis en vervolgens de taak uitvoert in Azure Databricks.
  • Maak een Databricks-taak waarmee een klantorder wordt ingevoegd in een Databricks Delta-tabel in het opslagaccount.

U maakt deze oplossing in omgekeerde volgorde, te beginnen met de Azure Databricks-werkruimte.

Vereisten

Een verkooporder maken

Maak eerst een CSV-bestand waarin een verkooporder wordt beschreven en upload dat bestand vervolgens naar het opslagaccount. Later gebruikt u de gegevens uit dit bestand om de eerste rij in de Databricks Delta-tabel in te vullen.

  1. Navigeer naar het nieuwe opslagaccount in Azure Portal.

  2. Selecteer Opslagbrowser-Blobcontainers-Container >>toevoegen en maak een nieuwe container met de naam gegevens.

    Schermopname van het maken van een map in de opslagbrowser.

  3. Maak in de gegevenscontainer een map met de naam input.

  4. Plak de volgende tekst in een teksteditor.

    InvoiceNo,StockCode,Description,Quantity,InvoiceDate,UnitPrice,CustomerID,Country
    536365,85123A,WHITE HANGING HEART T-LIGHT HOLDER,6,12/1/2010 8:26,2.55,17850,United Kingdom
    
  5. Sla dit bestand op uw lokale computer op en geef het de naam data.csv.

  6. Upload dit bestand in de opslagbrowser naar de invoermap .

Een taak maken in Azure Databricks

In deze sectie voert u de volgende taken uit:

  • Een Azure Databricks-werkruimte maken.
  • Maak een notebook.
  • Een Databricks Delta-tabel maken en invullen.
  • Code toevoegen waarmee rijen in de Databricks Delta-tabel worden ingevoegd.
  • Een taak maken.

Een Azure Databricks-werkruimte maken

In deze sectie gaat u een Azure Databricks-werkruimte maken met behulp van Azure Portal.

  1. Een Azure Databricks-werkruimte maken. Geef die werkruimte contoso-ordersde naam . Zie Een Azure Databricks-werkruimte maken.

  2. Een cluster maken. Geef het cluster customer-order-clusterde naam . Zie Een cluster maken.

  3. Maak een notebook. Geef het notebook configure-customer-table een naam en kies Python als de standaardtaal van het notebook. Zie Een notitieblok maken.

Een Databricks Delta-tabel maken en invullen

  1. Kopieer en plak het volgende codeblok in de eerste cel van de notebook die u hebt gemaakt, maar voer deze code nog niet uit.

    Vervang de plaatsaanduidingen appId, password en tenant in het codeblok door de waarden die u hebt verzameld bij het uitvoeren van de vereiste stappen voor deze zelfstudie.

    dbutils.widgets.text('source_file', "", "Source File")
    
    spark.conf.set("fs.azure.account.auth.type", "OAuth")
    spark.conf.set("fs.azure.account.oauth.provider.type", "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider")
    spark.conf.set("fs.azure.account.oauth2.client.id", "<appId>")
    spark.conf.set("fs.azure.account.oauth2.client.secret", "<password>")
    spark.conf.set("fs.azure.account.oauth2.client.endpoint", "https://login.microsoftonline.com/<tenant>/oauth2/token")
    
    adlsPath = 'abfss://data@contosoorders.dfs.core.windows.net/'
    inputPath = adlsPath + dbutils.widgets.get('source_file')
    customerTablePath = adlsPath + 'delta-tables/customers'
    

    Met deze code wordt een widget met de naam source_file gemaakt. Later gaat u een Azure-functie maken die deze code aanroept en een bestandspad aan die widget doorgeeft. Deze code verifieert ook uw service-principal met het opslagaccount en maakt enkele variabelen die u in andere cellen gebruikt.

    Notitie

    In een productieomgeving kunt u de verificatiesleutel eventueel in Azure Databricks opslaan. Vervolgens voegt u een opzoeksleutel toe aan uw codeblok in plaats van de verificatiesleutel.

    In plaats van deze regel met code te gebruiken (spark.conf.set("fs.azure.account.oauth2.client.secret", "<password>")) gebruikt u bijvoorbeeld de regel met code spark.conf.set("fs.azure.account.oauth2.client.secret", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential>")).

    Nadat u deze zelfstudie hebt afgerond, raadpleegt u het artikel Azure Data Lake Storage Gen2 op de website van Azure Databricks voor voorbeelden van deze methode.

  2. Druk op de toetsen Shift + Enter om de code in dit blok uit te voeren.

  3. Kopieer en plak het volgende codeblok in een andere cel en druk op de toetsen SHIFT + ENTER om de code in dit blok uit te voeren.

    from pyspark.sql.types import StructType, StructField, DoubleType, IntegerType, StringType
    
    inputSchema = StructType([
    StructField("InvoiceNo", IntegerType(), True),
    StructField("StockCode", StringType(), True),
    StructField("Description", StringType(), True),
    StructField("Quantity", IntegerType(), True),
    StructField("InvoiceDate", StringType(), True),
    StructField("UnitPrice", DoubleType(), True),
    StructField("CustomerID", IntegerType(), True),
    StructField("Country", StringType(), True)
    ])
    
    rawDataDF = (spark.read
     .option("header", "true")
     .schema(inputSchema)
     .csv(adlsPath + 'input')
    )
    
    (rawDataDF.write
      .mode("overwrite")
      .format("delta")
      .saveAsTable("customer_data", path=customerTablePath))
    

    Deze code maakt de Databricks Delta-tabel in uw opslagaccount en laadt vervolgens enkele initiële gegevens uit het CSV-bestand dat u eerder hebt geüpload.

  4. Nadat het codeblok is uitgevoerd, verwijdert u het uit de notebook.

Code toevoegen waarmee rijen worden ingevoegd in de Databricks Delta-tabel

  1. Kopieer en plak het volgende codeblok in een andere cel, maar voer deze cel nog niet uit.

    upsertDataDF = (spark
      .read
      .option("header", "true")
      .csv(inputPath)
    )
    upsertDataDF.createOrReplaceTempView("customer_data_to_upsert")
    

    Met deze code worden gegevens in een tijdelijke tabelweergave ingevoegd met behulp van gegevens uit een CSV-bestand. Het pad naar dat CSV-bestand is afkomstig van de invoerwidget die u in een eerdere stap hebt gemaakt.

  2. Kopieer en plak het volgende codeblok in een andere cel. Met deze code wordt de inhoud van de tijdelijke tabelweergave samengevoegd met de Databricks Delta-tabel.

    %sql
    MERGE INTO customer_data cd
    USING customer_data_to_upsert cu
    ON cd.CustomerID = cu.CustomerID
    WHEN MATCHED THEN
      UPDATE SET
        cd.StockCode = cu.StockCode,
        cd.Description = cu.Description,
        cd.InvoiceNo = cu.InvoiceNo,
        cd.Quantity = cu.Quantity,
        cd.InvoiceDate = cu.InvoiceDate,
        cd.UnitPrice = cu.UnitPrice,
        cd.Country = cu.Country
    WHEN NOT MATCHED
      THEN INSERT (InvoiceNo, StockCode, Description, Quantity, InvoiceDate, UnitPrice, CustomerID, Country)
      VALUES (
        cu.InvoiceNo,
        cu.StockCode,
        cu.Description,
        cu.Quantity,
        cu.InvoiceDate,
        cu.UnitPrice,
        cu.CustomerID,
        cu.Country)
    

Een taak maken

Maak een taak die de notebook uitvoert die u eerder hebt gemaakt. Later maakt u een Azure-functie waarmee deze taak wordt uitgevoerd wanneer een gebeurtenis wordt gegenereerd.

  1. Selecteer New-Job>.

  2. Geef de taak een naam, kies het notitieblok dat u hebt gemaakt en het cluster. Selecteer vervolgens Maken om de taak te maken.

Een Azure-functie maken

Maak een Azure-functie waarmee de taak wordt uitgevoerd.

  1. Klik in uw Azure Databricks-werkruimte op uw Azure Databricks-gebruikersnaam in de bovenste balk en selecteer vervolgens In de vervolgkeuzelijst Gebruikersinstellingen.

  2. Selecteer op het tabblad Toegangstokensde optie Nieuw token genereren.

  3. Kopieer het token dat wordt weergegeven en klik vervolgens op Gereed.

  4. Kies in de linkerbovenhoek van de Databricks-werkruimte het pictogram Personen en kies vervolgens Gebruikersinstellingen.

    Gebruikersinstellingen voor accounts beheren

  5. Selecteer de knop Nieuw token genereren en selecteer vervolgens de knop Genereren .

    Zorg ervoor dat u het token naar een veilige locatie kopieert. Uw Azure-functie heeft dit token nodig om te verifiëren met Databricks, zodat de taak kan worden uitgevoerd.

  6. Selecteer vanuit het menu van Azure Portal of op de startpagina de optie Een resource maken.

  7. Selecteer op de pagina NieuwReken>functie-app.

  8. Kies op het tabblad Basisbeginselen van de pagina Functie-app maken een resourcegroep en wijzig of controleer de volgende instellingen:

    Instelling Waarde
    Functions App-naam contosoorder
    Runtimestack .NET
    Publiceren Code
    Besturingssysteem Windows
    Plantype Verbruik (serverloos)
  9. Selecteer Controleren en maken en selecteer vervolgens Maken.

    Wanneer de implementatie is voltooid, selecteert u Ga naar resource om de overzichtspagina van de functie-app te openen.

  10. Selecteer configuratie in de groep Instellingen.

  11. Kies op de pagina Toepassingsinstellingen de knop Nieuwe toepassingsinstelling om elke instelling toe te voegen.

    Configuratie-instelling toevoegen

    Voeg de volgende instellingen toe:

    Naam van de instelling Waarde
    DBX_INSTANCE De regio van uw Databricks-werkruimte. Bijvoorbeeld: westus2.azuredatabricks.net
    DBX_PAT Het persoonlijke toegangstoken dat u eerder hebt gegenereerd.
    DBX_JOB_ID De id van de taak die wordt uitgevoerd.
  12. Selecteer Opslaan om deze instellingen door te voeren.

  13. Selecteer functies in de groep Functies en selecteer vervolgens Maken.

  14. Kies Azure Event Grid-trigger.

    Installeer de extensie Microsoft.Azure.WebJobs.Extensions.EventGrid als u dit wordt gevraagd. Als u deze moet installeren, kiest u opnieuw Azure Event Grid-trigger om de functie te maken.

    Het deelvenster Nieuwe functie wordt weergegeven.

  15. Geef in het deelvenster Nieuwe functie de functie de naam UpsertOrder en selecteer vervolgens de knop Maken .

  16. Vervang de inhoud van het codebestand door deze code en selecteer vervolgens de knop Opslaan :

      #r "Azure.Messaging.EventGrid"
      #r "System.Memory.Data"
      #r "Newtonsoft.Json"
      #r "System.Text.Json"
      using Azure.Messaging.EventGrid;
      using Azure.Messaging.EventGrid.SystemEvents;
      using Newtonsoft.Json;
      using Newtonsoft.Json.Linq;
    
      private static HttpClient httpClient = new HttpClient();
    
      public static async Task Run(EventGridEvent eventGridEvent, ILogger log)
      {
         log.LogInformation("Event Subject: " + eventGridEvent.Subject);
         log.LogInformation("Event Topic: " + eventGridEvent.Topic);
         log.LogInformation("Event Type: " + eventGridEvent.EventType);
         log.LogInformation(eventGridEvent.Data.ToString());
    
         if (eventGridEvent.EventType == "Microsoft.Storage.BlobCreated" || eventGridEvent.EventType == "Microsoft.Storage.FileRenamed") {
            StorageBlobCreatedEventData fileData = eventGridEvent.Data.ToObjectFromJson<StorageBlobCreatedEventData>();
            if (fileData.Api == "FlushWithClose") {
                  log.LogInformation("Triggering Databricks Job for file: " + fileData.Url);
                  var fileUrl = new Uri(fileData.Url);
                  var httpRequestMessage = new HttpRequestMessage {
                     Method = HttpMethod.Post,
                     RequestUri = new Uri(String.Format("https://{0}/api/2.0/jobs/run-now", System.Environment.GetEnvironmentVariable("DBX_INSTANCE", EnvironmentVariableTarget.Process))),
                     Headers = { 
                        { System.Net.HttpRequestHeader.Authorization.ToString(), "Bearer " + System.Environment.GetEnvironmentVariable("DBX_PAT", EnvironmentVariableTarget.Process)},
                        { System.Net.HttpRequestHeader.ContentType.ToString(), "application/json" }
                     },
                     Content = new StringContent(JsonConvert.SerializeObject(new {
                        job_id = System.Environment.GetEnvironmentVariable("DBX_JOB_ID", EnvironmentVariableTarget.Process),
                        notebook_params = new {
                              source_file = String.Join("", fileUrl.Segments.Skip(2))
                        }
                     }))
                  };
                  var response = await httpClient.SendAsync(httpRequestMessage);
                  response.EnsureSuccessStatusCode();
            }
         }
      }
    

Deze code parseert informatie over de opslaggebeurtenis die is gegenereerd en maakt vervolgens een aanvraagbericht met een URL van het bestand dat de gebeurtenis heeft geactiveerd. Als onderdeel van het bericht geeft de functie een waarde door aan de widget source_file die u eerder hebt gemaakt. De functiecode verzendt het bericht naar de Databricks-taak en gebruikt het token dat u eerder hebt verkregen als verificatie.

Een Event Grid-abonnement maken

In deze sectie maakt u een Event Grid-abonnement dat de Azure-functie aanroept wanneer bestanden naar het opslagaccount worden geüpload.

  1. Selecteer Integratie en selecteer vervolgens op de pagina Integratie de optie Event Grid-trigger.

  2. Geef in het deelvenster Trigger bewerken de naam van de gebeurtenis eventGridEventen selecteer vervolgens Gebeurtenisabonnement maken.

    Notitie

    De naam eventGridEvent komt overeen met de parameter met de naam die wordt doorgegeven aan de Azure-functie.

  3. Wijzig of controleer de volgende instellingen op het tabblad Basisbeginselen van de pagina Gebeurtenisabonnement maken:

    Instelling Waarde
    Naam contoso-order-event-subscription
    Onderwerptype Storage-account
    Bronresource contosoorders
    Naam van systeemonderwerp <create any name>
    Filteren op gebeurtenistypen Blob gemaakt en blob verwijderd
  4. Selecteer de knop Create (Maken).

Het Event Grid-abonnement testen

  1. Maak een bestand met de naam customer-order.csv, plak de volgende gegevens in dat bestand en sla het op uw lokale computer op.

    InvoiceNo,StockCode,Description,Quantity,InvoiceDate,UnitPrice,CustomerID,Country
    536371,99999,EverGlow Single,228,1/1/2018 9:01,33.85,20993,Sierra Leone
    
  2. Upload dit bestand in Storage Explorer naar de map input van uw opslagaccount.

    Als u een bestand uploadt, wordt de gebeurtenis Microsoft.Storage.BlobCreated gegenereerd. Event Grid waarschuwt alle abonnees voor die gebeurtenis. In ons geval is de Azure-functie de enige abonnee. De Azure-functie parseert de gebeurtenisparameters om te bepalen welke gebeurtenis heeft plaatsgevonden. Vervolgens wordt de URL van het bestand doorgegeven aan de Databricks-taak. De Databricks-taak leest het bestand en voegt een rij toe aan de Databricks Delta-tabel in uw opslagaccount.

  3. Als u wilt controleren of de taak is voltooid, bekijkt u de uitvoeringen voor uw taak. U ziet de voltooiingsstatus. Zie Uitvoeringen voor een taak weergeven voor meer informatie over het weergeven van uitvoeringen voor een taak

  4. Voer in een nieuwe werkbladcel deze query uit om de bijgewerkte Delta-tabel weer te geven.

    %sql select * from customer_data
    

    De geretourneerde tabel bevat de meest recente record.

    Meest recente record wordt weergegeven in tabel

  5. Als u deze record wilt bijwerken, maakt u een bestand met de naam customer-order-update.csv, plakt u de volgende gegevens in dat bestand en slaat u het op uw lokale computer op.

    InvoiceNo,StockCode,Description,Quantity,InvoiceDate,UnitPrice,CustomerID,Country
    536371,99999,EverGlow Single,22,1/1/2018 9:01,33.85,20993,Sierra Leone
    

    Dit CSV-bestand is bijna identiek aan het vorige, maar de hoeveelheid van de order is gewijzigd van 228 in 22.

  6. Upload dit bestand in Storage Explorer naar de map input van uw opslagaccount.

  7. Voer de query select opnieuw uit om de bijgewerkte Delta-tabel weer te geven.

    %sql select * from customer_data
    

    De geretourneerde tabel toont de bijgewerkte record.

    Bijgewerkte record wordt weergegeven in tabel

Resources opschonen

Verwijder de resourcegroep en alle gerelateerde resources, wanneer u deze niet meer nodig hebt. Hiervoor selecteert u de resourcegroep voor het opslagaccount en selecteert u Verwijderen.

Volgende stappen