Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le attività di Analisi di flusso di Azure si connettono a uno o più flussi di dati. Ogni input definisce una connessione a un'origine dati esistente. Analisi di flusso di Azure accetta i dati in ingresso da diversi tipi di origini evento, inclusi hub eventi, hub IoT e archiviazione BLOB. Gli input sono referenziati per nome nella query SQL streaming scritta per ogni processo. Nella query è possibile unire più input per combinare dati o confrontare i dati di streaming con una ricerca ai dati di riferimento e passare i risultati agli output.
Analisi di flusso offre un'integrazione di prima classe con quattro tipi di risorse come input:
- Hub eventi di Azure
- Hub IoT di Azure
- Archiviazione BLOB di Azure
- Azure Data Lake Storage Gen2
- Apache Kafka
Queste risorse di input possono trovarsi nella stessa sottoscrizione di Azure del processo di Analisi di flusso o in una sottoscrizione diversa.
È possibile usare il portale AzureAzure PowerShell, .NET API, REST API, Visual Studio e Visual Studio Code per creare, modificare e testare Stream Input del processo di analisi.
Annotazioni
Usare gli strumenti Stream Analytics per Visual Studio Code per un'esperienza di sviluppo locale ottimale. Gli strumenti di Analisi di flusso per Visual Studio 2019 (versione 2.6.3000.0) presentano lacune nelle funzionalità note e non verranno migliorati in futuro.
Flussi e input di riferimento
Man mano che i dati vengono inseriti in un'origine dati, il processo di Analisi di Flusso usa ed elabora i dati in tempo reale. Gli input sono suddivisi in due tipi:
- Input del flusso di dati
- Input dei dati di riferimento
Input del flusso di dati
Un flusso di dati è una sequenza illimitata di eventi nel tempo. I processi di Stream Analytics devono includere almeno un flusso di dati in ingresso. Hub eventi, l'hub IoT, Azure Data Lake Storage Gen2 e l'archiviazione BLOB sono supportati come origini di input del flusso di dati. Hub eventi raccoglie flussi di eventi da più dispositivi e servizi. Questi flussi possono includere feed di attività sui social media, informazioni sul commercio azionario o dati provenienti da sensori. Gli hub IoT sono ottimizzati per raccogliere dati dai dispositivi connessi in scenari IoT (Internet delle cose). L'archiviazione BLOB può inserire dati in blocco come flusso, ad esempio i file di log.
Per altre informazioni sugli input dei dati di streaming, vedere Trasmettere i dati come input in Analisi di flusso.
Input dei dati di riferimento
Analisi di flusso supporta anche l'input noto come dati di riferimento. I dati di riferimento sono completamente statici o cambiano lentamente. Viene in genere usato per eseguire correlazioni e ricerche. Ad esempio, è possibile unire i dati nell'input del flusso di dati ai dati dei dati di riferimento, in modo da eseguire un join SQL per cercare valori statici. Archiviazione BLOB di Azure, Azure Data Lake Storage Gen2 e database SQL di Azure sono attualmente supportati come origini di input per i dati di riferimento. I blob di origine dati di riferimento hanno un limite di dimensioni massime di 300 MB, in base alla complessità delle query e delle Unità di Streaming assegnate. Per altre informazioni, vedere la sezione Limitazione delle dimensioni della documentazione dei dati di riferimento.
Per altre informazioni sugli input dei dati di riferimento, vedere Uso dei dati di riferimento per le ricerche in Analisi di flusso.