Dela via


Självstudie: Skriva till en Delta-tabell som lagras i Azure Data Lake Storage Gen2

Den här självstudien visar hur du kan skapa ett Stream Analytics-jobb för att skriva till en Delta-tabell i Azure Data Lake Storage Gen2. I den här självstudien lär du dig att:

  • Distribuera en händelsegenerator som skickar exempeldata till din händelsehubb
  • Skapa ett Stream Analytics-jobb
  • Konfigurera Azure Data Lake Storage Gen2 med en deltatabell
  • Köra Stream Analytics-jobbet

Förutsättningar

Slutför följande steg innan du börjar:

Skapa ett Stream Analytics-jobb

  1. Logga in på Azure-portalen.

  2. Välj Alla tjänster på den vänstra menyn.

  3. Flytta musen över Stream Analytics-jobb i avsnittet Analys och välj + (plus).

    Skärmbild som visar valet av Stream Analytics-jobb på sidan Alla tjänster.

  4. Klicka på Skapa en resurs längst upp till vänster i Azure-portalen.

  5. Välj Analytics>Stream Analytics-jobb i resultatlistan.

  6. Följ dessa steg på sidan Nytt Stream Analytics-jobb :

    1. För Prenumeration väljer du din Azure-prenumeration.
    2. För Resursgrupp väljer du samma resurs som du använde tidigare i TollApp-distributionen.
    3. Som Namn anger du ett namn för jobbet. Stream Analytics-jobbets namn får enbart innehålla alfanumeriska tecken, bindestreck och understreck och måste vara mellan 3 och 63 tecken långt.
    4. För Värdmiljö kontrollerar du att Molnet är valt.
    5. För Stream-enheter väljer du 1. Strömningsenheter representerar de bearbetningsresurser som krävs för att köra ett jobb. Mer information om skalning av strömningsenheter finns i artikeln om att förstå och justera strömningsenheter.

    Skärmbild som visar sidan Skapa Stream Analytics-jobb.

  7. Välj Granska + skapa längst ned på sidan.

  8. På sidan Granska + skapa granskar du inställningarna och väljer Skapa för att skapa en Stream Analytics-sida.

  9. På distributionssidan väljer du Gå till resurs för att navigera till stream analytics-jobbsidan .

Konfigurera jobbindata

Nästa steg är att definiera en indatakälla för jobbet för att läsa data med hjälp av händelsehubben som skapades i TollApp-distributionen.

  1. Hitta Stream Analytics-jobbet som skapades i föregående avsnitt.

  2. I avsnittet Jobbtopologi i Stream Analytics-jobbet väljer du Indata.

  3. Välj + Lägg till indata och Händelsehubb.

    Skärmbild som visar sidan Indata.

  4. Fyll i indataformuläret med följande värden som skapats via TollApp Azure Template:

    1. För Indataalias anger du entrystream.

    2. Välj Välj händelsehubb från dina prenumerationer.

    3. För Prenumeration väljer du din Azure-prenumeration.

    4. För Event Hub-namnrymd väljer du händelsehubbens namnområde som du skapade i föregående avsnitt.

    5. Använd standardalternativ för de återstående inställningarna och välj Spara.

      Skärmbild som visar valet av indatahändelsehubben.

Konfigurera jobbutdata

Nästa steg är att definiera en utdatamottagare där jobbet kan skriva data till. I den här självstudien skriver du utdata till en Delta-tabell i Azure Data Lake Storage Gen2.

  1. I avsnittet Jobbtopologi i Stream Analytics-jobbet väljer du alternativet Utdata .

  2. Välj + Lägg till utdata>Blob Storage/ADLS Gen2.

    Skärmbild som visar sidan Utdata.

  3. Fyll i utdataformuläret med följande information och välj Spara:

    1. För Utdataalias anger du DeltaOutput.

    2. Välj Välj Blob Storage/ADLS Gen2 från dina prenumerationer.

    3. För Prenumeration väljer du din Azure-prenumeration.

    4. För Lagringskonto väljer du det ADLS Gen2-konto (det som börjar med tollapp) som du skapade.

    5. För container väljer du Skapa ny och anger ett unikt containernamn.

    6. För Format för händelseseriellisering väljer du Delta Lake. Även om Delta Lake visas som ett av alternativen här är det inte ett dataformat. Delta Lake använder versionerade Parquet-filer för att lagra dina data. Om du vill veta mer om Delta Lake.

    7. För Delta-tabellsökväg anger du självstudiemapp/deltatabell.

    8. Använd standardalternativ för de återstående inställningarna och välj Spara.

      Skärmbild som visar konfigurationen av utdata.

Skapa frågor

Nu har du konfigurerat ett Stream Analytics-jobb för att läsa en inkommande dataström. Nästa steg är att skapa en fråga som analyserar data i realtid. Frågorna använder ett SQL-liknande språk som har vissa tillägg som är specifika för Stream Analytics.

  1. Välj nu Fråga under Jobbtopologi på den vänstra menyn.

  2. Ange följande fråga i frågefönstret. I det här exemplet läser frågan data från Event Hubs och kopierar valda värden till en Delta-tabell i ADLS Gen2.

     SELECT State, CarModel.Make, TollAmount
     INTO DeltaOutput
     FROM EntryStream TIMESTAMP BY EntryTime
    
  3. Välj Spara fråga i verktygsfältet.

    Skärmbild som visar frågan för jobbet.

Starta Stream Analytics-jobbet och kontrollera utdata

  1. Gå tillbaka till jobböversiktssidan i Azure-portalen och välj Start.

    Skärmbild som visar valet av knappen Starta jobb på sidan Översikt.

  2. På sidan Starta jobb bekräftar du att Nu är valt för Starttid för jobbutdata och välj sedan Starta längst ned på sidan.

    Skärmbild som visar valet av startjobbsida.

  3. Efter några minuter letar du upp lagringskontot och containern som du har konfigurerat som utdata för jobbet i portalen. Nu kan du se deltatabellen i mappen som anges i containern. Jobbet tar några minuter att starta för första gången. När det har startats fortsätter det att köras när data tas emot.

    Skärmbild som visar utdatafiler i containern.

Rensa resurser

När den inte längre behövs tar du bort resursgruppen, Stream Analytics-jobbet och alla relaterade resurser. Om du tar bort jobbet undviker du att bli fakturerad för de strömmande enheter som används av jobbet. Om du planerar att använda jobbet i framtiden kan du stoppa det och sedan starta det igen när du behöver det. Om du inte kommer att fortsätta att använda det här jobbet tar du bort alla resurser som skapats i den här självstudien med hjälp av följande steg:

  1. Klicka på Resursgrupper på den vänstra menyn i Azure-portalen och välj sedan namnet på den resurs du skapade.
  2. På sidan med resursgrupper klickar du på Ta bort, skriver in namnet på resursen som ska tas bort i textrutan och väljer sedan Ta bort.

Nästa steg

I den här självstudien skapade du ett enkelt Stream Analytics-jobb, filtrerade inkommande data och skrev resultat i en Delta-tabell i ADLS Gen2-kontot. Mer information om Stream Analytics-jobb: