Dela via


Samla in data från Event Hubs i Delta Lake-format

Den här artikeln beskriver hur du använder kodredigeraren för att automatiskt samla in strömmande data i Event Hubs i ett Azure Data Lake Storage Gen2-konto i Delta Lake-format.

Förutsättningar

  • Dina Azure Event Hubs- och Azure Data Lake Storage Gen2-resurser måste vara offentligt tillgängliga och kan inte finnas bakom en brandvägg eller skyddas i ett virtuellt Azure-nätverk.
  • Data i dina Event Hubs måste serialiseras i antingen JSON-, CSV- eller Avro-format.

Konfigurera ett jobb för att samla in data

Använd följande steg för att konfigurera ett Stream Analytics-jobb för att samla in data i Azure Data Lake Storage Gen2.

  1. Gå till din händelsehubb i Azure-portalen.

  2. Välj Funktioner>Bearbeta data och välj Startakortet Avbilda data till ADLS Gen2 i Delta Lake-format.
    Skärmbild som visar startkorten för Process Event Hubs-data.

    Du kan också välja Funktionsinsamling> och välja alternativet Delta Lake under "Utdatahändelse serialiseringsformat" och sedan Starta datainsamlingskonfiguration. Skärmbild som visar startpunkten för skapandet av avbildningsdata.

  3. Ange ett namn för att identifiera ditt Stream Analytics-jobb. Välj Skapa.
    Skärmbild som visar fönstret Nytt Stream Analytics-jobb där du anger jobbnamnet.

  4. Ange serialiseringstypen för dina data i Event Hubs och den autentiseringsmetod som jobbet använder för att ansluta till Event Hubs. Välj sedan Anslut. Skärmbild som visar konfigurationen av Event Hubs-anslutningen.

  5. När anslutningen har upprättats visas:

    • Fält som finns i indata. Du kan välja Lägg till fält eller välja symbolen med tre punkter bredvid ett fält om du vill ta bort, byta namn på eller ändra dess namn.
    • Ett live-exempel på inkommande data i tabellen Dataförhandsgranskning under diagramvyn. Den uppdateras regelbundet. Du kan välja Pausa förhandsversionen av direktuppspelning för att visa en statisk vy över exempelindata.
      Skärmbild som visar exempeldata under Förhandsversion av data.
  6. Välj panelen Azure Data Lake Storage Gen2 för att redigera konfigurationen.

  7. Följ dessa steg på konfigurationssidan för Azure Data Lake Storage Gen2 :

    1. Välj prenumeration, lagringskontonamn och container i den nedrullningsbara menyn.

    2. När prenumerationen har valts ska autentiseringsmetoden och lagringskontonyckeln fyllas i automatiskt.

    3. För Delta-tabellsökväg används den för att ange platsen och namnet på din Delta Lake-tabell som lagras i Azure Data Lake Storage Gen2. Du kan välja att använda ett eller flera sökvägssegment för att definiera sökvägen till deltatabellen och deltatabellnamnet. Mer information finns i Skriva till Delta Lake-tabellen.

    4. Välj Anslut.

      Första skärmbilden som visar blobfönstret där du redigerar en blobs anslutningskonfiguration.

  8. När anslutningen upprättas visas fält som finns i utdata.

  9. Spara konfigurationen genom att välja Spara i kommandofältet.

  10. Välj Starta i kommandofältet för att starta strömningsflödet för att samla in data. I fönstret Starta Stream Analytics-jobb:

    1. Välj starttid för utdata.
    2. Välj det antal strömningsenheter (SU) som jobbet körs med. SU representerar de beräkningsresurser som allokeras för att köra ett Stream Analytics-jobb. Mer information finns i Strömmande enheter i Azure Stream Analytics.
      Skärmbild som visar fönstret Starta Stream Analytics-jobb där du anger starttid för utdata, strömningsenheter och felhantering.
  11. När du har valt Start börjar jobbet köras inom två minuter och måtten öppnas i flikavsnittet enligt följande bild. Skärmbild som visar måttdiagrammet.

  12. Det nya jobbet kan visas på fliken Stream Analytics-jobb . Skärmbild som visar länken Öppna mått markerad.

Verifiera utdata

Kontrollera att parquet-filerna med Delta lake-format genereras i Azure Data Lake Storage-containern.

Skärmbild som visar de genererade Parquet-filerna i Azure Data Lake Storage-containern (ADLS).

Nästa steg

Nu vet du hur du använder Stream Analytics utan kodredigerare för att skapa ett jobb som samlar in Event Hubs-data till Azure Data Lake Storage Gen2 i Delta lake-format. Sedan kan du lära dig mer om Azure Stream Analytics och hur du övervakar jobbet som du skapade.