Przechwytywanie danych z usługi Event Hubs w formacie Parquet
W tym artykule wyjaśniono, jak używać edytora kodu do automatycznego przechwytywania danych przesyłanych strumieniowo w usłudze Event Hubs na koncie Azure Data Lake Storage Gen2 w formacie Parquet.
Wymagania wstępne
Przestrzeń nazw Azure Event Hubs z centrum zdarzeń i kontem Azure Data Lake Storage Gen2 z kontenerem do przechowywania przechwyconych danych. Te zasoby muszą być publicznie dostępne i nie mogą być za zaporą ani zabezpieczone w sieci wirtualnej platformy Azure.
Jeśli nie masz centrum zdarzeń, utwórz go, postępując zgodnie z instrukcjami z przewodnika Szybki start: tworzenie centrum zdarzeń.
Jeśli nie masz konta Data Lake Storage Gen2, utwórz je, postępując zgodnie z instrukcjami z sekcji Tworzenie konta magazynu
Dane w usłudze Event Hubs muszą być serializowane w formacie JSON, CSV lub Avro. Na potrzeby testowania wybierz pozycję Generuj dane (wersja zapoznawcza) w menu po lewej stronie, wybierz pozycję Zapasy danych dla zestawu danych, a następnie wybierz pozycję Wyślij.
Konfigurowanie zadania do przechwytywania danych
Wykonaj poniższe kroki, aby skonfigurować zadanie usługi Stream Analytics do przechwytywania danych w Azure Data Lake Storage Gen2.
W Azure Portal przejdź do centrum zdarzeń.
W menu po lewej stronie wybierz pozycję Przetwarzanie danych w obszarze Funkcje. Następnie wybierz pozycję Rozpocznij na karcie Przechwytywanie danych do usługi ADLS Gen2 w formacie Parquet .
Wprowadź nazwę zadania usługi Stream Analytics, a następnie wybierz pozycję Utwórz.
Określ typ serializacji danych w usłudze Event Hubs i metodę uwierzytelniania używaną przez zadanie do nawiązywania połączenia z usługą Event Hubs. Następnie wybierz pozycję Połącz.
Po pomyślnym nawiązaniu połączenia zobaczysz:
Pola, które znajdują się w danych wejściowych. Możesz wybrać pozycję Dodaj pole lub wybrać trzy symbol kropki obok pola, aby opcjonalnie usunąć, zmienić nazwę lub zmienić jego nazwę.
Przykład danych przychodzących w tabeli Podgląd danych w widoku diagramu. Jest okresowo odświeżane. Możesz wybrać pozycję Wstrzymaj podgląd przesyłania strumieniowego , aby wyświetlić statyczny widok przykładowych danych wejściowych.
Wybierz kafelek Azure Data Lake Storage Gen2, aby edytować konfigurację.
Na stronie konfiguracji Azure Data Lake Storage Gen2 wykonaj następujące kroki:
Wybierz subskrypcję, nazwę konta magazynu i kontener z menu rozwijanego.
Po wybraniu subskrypcji należy automatycznie wypełnić metodę uwierzytelniania i klucz konta magazynu.
Wybierz pozycję Parquet w polu Format serializacji .
W przypadku obiektów blob przesyłania strumieniowego wzorzec ścieżki katalogu powinien być wartością dynamiczną. Data jest wymagana, aby była częścią ścieżki pliku dla obiektu blob — odwołuje się jako
{date}
. Aby dowiedzieć się więcej o niestandardowych wzorcach ścieżek, zobacz Partycjonowanie niestandardowych obiektów blob w usłudze Azure Stream Analytics.Wybierz pozycję Połącz
Po nawiązaniu połączenia zostaną wyświetlone pola, które są obecne w danych wyjściowych.
Wybierz pozycję Zapisz na pasku poleceń, aby zapisać konfigurację.
Wybierz pozycję Start na pasku poleceń, aby uruchomić przepływ przesyłania strumieniowego w celu przechwycenia danych. Następnie w oknie Uruchom zadanie usługi Stream Analytics:
Wybierz godzinę rozpoczęcia danych wyjściowych.
Wybierz plan cenowy.
Wybierz liczbę jednostek przesyłania strumieniowego (SU) uruchamianych przez zadanie. SU reprezentuje zasoby obliczeniowe przydzielone do wykonania zadania usługi Stream Analytics. Aby uzyskać więcej informacji, zobacz Streaming Units in Azure Stream Analytics (Jednostki przesyłania strumieniowego w usłudze Azure Stream Analytics).
Zadanie analityczne usługi Stream powinno zostać wyświetlone na karcie Zadanie usługi Stream Analytics na stronie Przetwarzanie danych dla centrum zdarzeń.
Weryfikacja danych wyjściowych
Na stronie wystąpienia usługi Event Hubs dla centrum zdarzeń wybierz pozycję Generuj dane, wybierz pozycję Zapasy danych dla zestawu danych, a następnie wybierz pozycję Wyślij , aby wysłać przykładowe dane do centrum zdarzeń.
Sprawdź, czy pliki Parquet są generowane w kontenerze Azure Data Lake Storage.
Wybierz pozycję Przetwarzanie danych w menu po lewej stronie. Przejdź do karty Zadania usługi Stream Analytics . Wybierz pozycję Otwórz metryki , aby je monitorować.
Oto przykładowy zrzut ekranu przedstawiający metryki przedstawiające zdarzenia wejściowe i wyjściowe.
Następne kroki
Teraz wiesz, jak za pomocą edytora kodu usługi Stream Analytics utworzyć zadanie, które przechwytuje dane usługi Event Hubs w celu Azure Data Lake Storage Gen2 w formacie Parquet. Następnie możesz dowiedzieć się więcej o usłudze Azure Stream Analytics i sposobie monitorowania utworzonego zadania.