Esegui un processo per inserire i dati

Completato

Dopo aver creato e salvato la query, è possibile eseguire il processo di Analisi di flusso di Azure per elaborare gli eventi negli input e scrivere i risultati negli output. Una volta avviata, la query verrà eseguita continuamente finché non verrà interrotta; inserimento costante di nuovi dati sugli eventi nell'area di lavoro di Azure Synapse Analytics (in una tabella nel data warehouse relazionale o in file in un data Lake, a seconda del tipo di output).

Lavorare con dati inseriti

Puoi utilizzare i dati di streaming inseriti come qualsiasi altro dato in Azure Synapse Analytics, combinandoli con i dati inseriti utilizzando tecniche di elaborazione batch o sincronizzati da origini dati operative utilizzando il Collegamento ad Azure Synapse.

Eseguire una query sui dati in un data warehouse relazionale

Se è stato usato un output di Azure Synapse Analytics per inserire i risultati del processo di elaborazione del flusso in una tabella in un pool SQL dedicato, è possibile eseguire query sulla tabella utilizzando una query SQL, proprio come qualsiasi altra tabella. I risultati della query includeranno sempre i dati più recenti da inserire al momento dell'esecuzione della query. Il tuo data warehouse può includere tabelle per lo streaming di dati nonché tabelle per i dati acquisiti in batch, consentendoti di unire dati in tempo reale e batch per l'analisi storica.

Ad esempio, è possibile usare il codice SQL seguente per eseguire una query su una tabella denominata factSensorReadings contenente i risultati dell'elaborazione del flusso e combinarla con una tabella dimDate contenente dati dettagliati sulle date in cui sono state acquisite le letture.

SELECT d.Weekday, s.SensorID, AVG(s.SensorReading) AS AverageReading
FROM factSensorReadings AS s
JOIN dimDate AS d
    ON CAST(s.ReadingTime AS DATE) = d.DateKey
GROUP BY d.Weekday, s.SensorID

Suggerimento

Per ulteriori informazioni sull'utilizzo di un pool SQL dedicato per analizzare i dati in un data warehouse, vedere il modulo Analizzare i dati in un data warehouse relazionale in Microsoft Learn.

Eseguire una query sui dati in un data lake

Man mano che i dati di streaming vengono inseriti nei file in un data Lake, puoi eseguire una query su tali file usando un pool SQL serverless in Azure Synapse Analytics. Ad esempio, la query seguente legge tutti i campi da tutti i file Parquet nella cartella sensors nel contenitore del file system di dati.

SELECT *
FROM OPENROWSET(
    BULK 'https://mydatalake.blob.core.windows.net/data/sensors/*',
    FORMAT = 'parquet') AS rows

Suggerimento

Per ulteriori informazioni sull'uso dei pool SQL serverless per eseguire query sui file in un data Lake, vedere il modulo Utilizzare il pool SQL serverless di Azure Synapse per eseguire query sui file in un data Lake in Microsoft Learn.

È anche possibile eseguire query sul data lake usando il codice in esecuzione in un pool di Spark, come illustrato in questo esempio:

%%pyspark
df = spark.read.load('abfss://data@datalake.dfs.core.windows.net/sensors/*', format='parquet'
)
display(df)

Suggerimento

Per ulteriori informazioni sull'uso dei pool di Spark per eseguire query sui file in un data Lake, vedere il modulo Analizzare i dati con Apache Spark in Azure Synapse Analytics in Microsoft Learn.