Ereignisse
31. März, 23 Uhr - 2. Apr., 23 Uhr
Das größte Fabric-, Power BI- und SQL-Lernereignis. 31. März – 2. April. Verwenden Sie Code FABINSIDER, um $400 zu sparen.
Jetzt registrierenDieser Browser wird nicht mehr unterstützt.
Führen Sie ein Upgrade auf Microsoft Edge durch, um die neuesten Features, Sicherheitsupdates und den technischen Support zu nutzen.
In diesem Tutorial wird gezeigt, wie Sie den No-Code-Editor von Stream Analytics verwenden, um einen Auftrag zu erstellen, der Event Hubs-Daten in Azure Data Lake Storage Gen2 im Parquetformat aufzeichnet.
In diesem Tutorial lernen Sie Folgendes:
Stellen Sie zunächst sicher, dass Sie folgende Schritte abgeschlossen haben:
Suchen Sie die Ressourcengruppe, in der der TollApp-Ereignisgenerator bereitgestellt wurde.
Wähen Sie den Azure Event Hubs-Namespace aus. Möglicherweise möchten Sie sie auf einer separaten Registerkarte oder in einem Fenster öffnen.
Wählen Sie auf der Seite Event Hubs-NamespaceEvent Hubs unter Entitäten im linken Menü aus.
Wählen Sie die entrystream
-Instanz aus.
Wählen Sie auf der Seite Event Hubs-Instanz die Option Daten verarbeiten im Abschnitt Features im linken Menü aus.
Wählen Sie auf der Kachel Daten im Parquet-Format in ADLS Gen2 erfassen die Option Start aus.
Benennen Sie Ihren Auftrag parquetcapture
, und wählen Sie Erstellen aus.
Führen Sie auf der Event Hub-Konfigurationsseite die folgenden Schritte aus:
Wählen Sie für Consumergruppe die Option Vorhandene verwenden aus.
Vergewissern Sie sich, dass $Default
Consumergruppe ausgewählt ist.
Vergewissern Sie sich, dass die Serialisierung auf „JSON“ festgelegt ist.
Vergewissern Sie sich, dass Authentifizierungsmethode auf Verbindungszeichenfolge festgelegt ist.
Vergewissern Sie sich, dass der Name des freigegebenen Zugriffsschlüssels für den Event Hub auf RootManageSharedAccessKey festgelegt ist.
Wählen Sie unten im Fenster die Option Verbinden aus.
Innerhalb weniger Sekunden werden Beispieleingabedaten und das Schema angezeigt. Sie können Felder löschen, Felder umbenennen oder den Datentyp ändern.
Wählen Sie die Kachel Azure Data Lake Storage Gen2 im Zeichenbereich aus, und konfigurieren Sie mit folgenden Angaben:
Abonnement, in dem sich Ihr Azure Data Lake Gen2-Konto befindet
Name des Speicherkontos, der mit dem ADLS Gen2-Konto übereinstimmen sollte, das mit Ihrem Azure Synapse Analytics-Arbeitsbereich aus dem Abschnitt „Voraussetzungen“ verwendet wurde.
Container, in dem die Parquet-Dateien erstellt werden.
Geben Sie für den Delta-Tabellenpfad einen Namen für die Tabelle an.
Datums- und Uhrzeitmuster wie Standard (JJJJ-MM-TT und HH).
Wählen Sie Verbinden aus.
Wählen Sie im oberen Menüband Speichern aus, um Ihren Auftrag zu speichern, und wählen Sie dann Start aus, um Ihren Auftrag auszuführen. Nachdem der Auftrag gestartet wurde, wählen Sie in der rechten Ecke X aus, um die Stream Analytics-Auftragsseite zu schließen.
Anschließend wird eine Liste aller Stream Analytics-Aufträge angezeigt, die mit dem No-Code-Editor erstellt wurden. Und innerhalb von zwei Minuten wechselt Ihr Auftrag in den Zustand Wird ausgeführt. Wählen Sie die Schaltfläche Aktualisieren auf der Seite aus, um zu sehen, wie der Status von „Erstellt“ > „Wird gestartet“ > „Wird ausgeführt“ wechselt.
Suchen Sie das Azure Data Lake Storage Gen2-Konto, das Sie im vorherigen Schritt verwendet haben.
Wählen Sie den Container aus, den Sie im vorherigen Schritt verwendet haben. In dem Ordner, den Sie zuvor angegeben haben, werden Parkettdateien angezeigt.
Suchen Sie Ihren Azure Synapse Analytics-Arbeitsbereich, und öffnen Sie Synapse Studio.
Erstellen Sie einen serverlosen Apache Spark-Pool in Ihrem Arbeitsbereich, wenn noch nicht vorhanden ist.
Navigieren Sie in Synapse Studio zum Hub Entwickeln, und erstellen Sie ein neues Notebook.
Erstellen Sie eine neue Codezelle, und fügen Sie den folgenden Code in diese Zelle ein. Ersetzen Sie container durch den Namen des Containers und adlsname durch den Namen des ADLS Gen2-Kontos, die im vorherigen Schritt verwendet wurden.
%%pyspark
df = spark.read.load('abfss://container@adlsname.dfs.core.windows.net/*/*.parquet', format='parquet')
display(df.limit(10))
df.count()
df.printSchema()
Wählen Sie unter Anfügen an auf der Symbolleiste Ihren Spark-Pool aus der Dropdownliste aus.
Wählen Sie Alle Ausführen aus, um die Ergebnisse anzuzeigen.
Erstellen Sie im Hub Entwickeln ein neues SQL-Skript.
Fügen Sie das folgende Skript ein, und führen Sie es mithilfe des integrierten serverlosen SQL Endpunkts aus. Ersetzen Sie container durch den Namen des Containers und adlsname durch den Namen des ADLS Gen2-Kontos, die im vorherigen Schritt verwendet wurden.
SELECT
TOP 100 *
FROM
OPENROWSET(
BULK 'https://adlsname.dfs.core.windows.net/container/*/*.parquet',
FORMAT='PARQUET'
) AS [result]
In diesem Tutorial haben Sie gelernt, wie Sie einen Stream Analytics-Auftrag mit dem No-Code-Editor erstellen, um Event Hubs-Datenströme im Parquet-Format zu erfassen. Anschließend haben Sie Azure Synapse Analytics verwendet, um die Parquet-Dateien mithilfe von Synapse Spark und Synapse SQL abzufragen.
Ereignisse
31. März, 23 Uhr - 2. Apr., 23 Uhr
Das größte Fabric-, Power BI- und SQL-Lernereignis. 31. März – 2. April. Verwenden Sie Code FABINSIDER, um $400 zu sparen.
Jetzt registrierenTraining
Modul
Azure Stream Analytics bietet eine Engine für die Echtzeitdatenverarbeitung, mit der Sie Streamingereignisdaten in Azure Synapse Analytics für weitere Analysen und Berichte erfassen können.
Zertifizierung
Microsoft Certified: Azure Data Engineer Associate - Certifications
Zeigen Sie Ihre Kenntnisse von allgemeinen Datentechnikaufgaben zum Implementieren und Verwalten von Datentechnikworkloads in Microsoft Azure unter Verwendung verschiedener Azure-Dienste.
Dokumentation
Erfassen von Streamingereignissen - Azure Event Hubs
Dieser Artikel gibt einen Überblick über die Capture-Funktion, mit der Sie Ereignisse erfassen können, die Azure Event Hubs durchlaufen.
Verarbeiten von Daten mithilfe von Stream Analytics - Azure Event Hubs
In diesem Artikel wird veranschaulicht, wie Sie Daten aus Ihrem Azure-Event Hub mit einem Azure Stream Analytics-Auftrag verarbeiten.
Schnellstart: Lesen von in Azure Event Hubs erfassten Daten (Python) - Azure Event Hubs
In diesem Schnellstart erfahren Sie, wie Sie Python-Code zum Erfassen von Daten, die an einen Event Hub gesendet werden, sowie zum Lesen der erfassten Ereignisdaten aus einem Azure-Speicherkonto schreiben.