Ausführen eines Auftrags zum Erfassen von Daten

Abgeschlossen

Wenn Sie Ihre Abfrage erstellt und gespeichert haben, können Sie den Azure Stream Analytics-Auftrag ausführen, um Ereignisse in den Eingaben zu verarbeiten und die Ergebnisse in Ausgaben zu schreiben. Nach dem Starten wird die Abfrage dauerhaft ausgeführt, bis sie beendet wird. Dabei erfasst sie ständig neue Ereignisdaten in Ihrem Azure Synapse Analytics-Arbeitsbereich (je nach Ausgabetyp in einer Tabelle in einem relationalen Data Warehouse oder in Dateien in einem Data Lake).

Arbeiten mit erfassten Daten

Sie können die erfassten Datenstromdaten wie alle anderen Daten in Azure Synapse Analytics verwenden und sie mit Daten kombinieren, die mithilfe von Batchverarbeitungstechniken erfasst oder mithilfe von Azure Synapse Link aus operativen Datenquellen synchronisiert wurden.

Abfragen von Daten in einem relationalen Data Warehouse

Wenn Sie eine Azure Synapse Analytics-Ausgabe verwendet haben, um die Ergebnisse Ihres Datenstrom-Verarbeitungsauftrags in einer Tabelle in einem dedizierten SQL-Pool zu erfassen, können Sie die Tabelle wie jede andere Tabelle mithilfe einer SQL-Abfrage abfragen. Die Ergebnisse der Abfrage enthalten immer die neuesten Daten, die zum Zeitpunkt der Abfrageausführung erfasst werden sollen. Ihr Data Warehouse kann Tabellen für Datenstromdaten sowie Tabellen für von Batches erfasste Daten enthalten, sodass Sie Echtzeit- und Batchdaten für Verlaufsanalysen verknüpfen können.

Beispielsweise kann der folgende SQL-Code verwendet werden, um eine Tabelle mit dem Namen factSensorReadings abzufragen, die die Ergebnisse der Datenstromverarbeitung enthält, und sie mit einer dimDate-Tabelle zu kombinieren, die detaillierte Daten zu den Datumsangaben enthält, an denen die Messwerte erfasst wurden.

SELECT d.Weekday, s.SensorID, AVG(s.SensorReading) AS AverageReading
FROM factSensorReadings AS s
JOIN dimDate AS d
    ON CAST(s.ReadingTime AS DATE) = d.DateKey
GROUP BY d.Weekday, s.SensorID

Tipp

Weitere Informationen zur Verwendung eines dedizierten SQL-Pools zum Analysieren von Daten in einem Data Warehouse finden Sie im Modul Analysieren von Daten in einem relationalen Data Warehouse auf Microsoft Learn.

Abfragen von Daten in einem Data Lake

Da Datenstromdaten in Dateien in einem Data Lake erfasst werden, können Sie diese Dateien mithilfe eines serverlosen SQL-Pools in Azure Synapse Analytics abfragen. Mit der folgenden Abfrage werden beispielsweise alle Felder aus allen Parquet-Dateien unter dem Ordner sensors im Dateisystemcontainer data gelesen.

SELECT *
FROM OPENROWSET(
    BULK 'https://mydatalake.blob.core.windows.net/data/sensors/*',
    FORMAT = 'parquet') AS rows

Tipp

Weitere Informationen zur Verwendung serverloser SQL-Pools zum Abfragen von Dateien in einem Data Lake finden Sie im Modul Verwenden von serverlosen Azure Synapse SQL-Pools zum Abfragen von Dateien in einem Data Lake auf Microsoft Learn.

Wie im folgenden Beispiel gezeigt können Sie den Data Lake auch mithilfe von Code abfragen, der in einem Apache Spark-Pool ausgeführt wird:

%%pyspark
df = spark.read.load('abfss://data@datalake.dfs.core.windows.net/sensors/*', format='parquet'
)
display(df)

Tipp

Weitere Informationen zur Verwendung von Apache Spark-Pools zum Abfragen von Dateien in einem Data Lake finden Sie im Modul Analysieren von Daten mit Apache Spark in Azure Synapse Analytics auf Microsoft Learn.