Condividi tramite


Elaborazione del flusso senza codice in Analisi di flusso di Azure

L'editor senza codice consente di sviluppare facilmente un processo di Analisi di flusso per elaborare facilmente i dati di streaming in tempo reale, usando la funzionalità di trascinamento della selezione, senza scrivere una singola riga di codice. L'esperienza offre un canvas che consente di connettersi alle origini di input per visualizzare rapidamente i dati di streaming. È quindi possibile trasformarlo prima di scrivere nelle destinazioni.

Con l'editor senza codice, è possibile:

  • Modificare gli schemi di input.
  • Eseguire operazioni di preparazione dei dati come join e filtri.
  • Approcciare scenari avanzati come le aggregazioni di intervalli temporali (finestre a cascata, salto e sessione) per le operazioni raggruppate.

Dopo aver creato ed eseguito i processi di Analisi di flusso, è possibile rendere facilmente operativi i carichi di lavoro di produzione. Usare il set corretto di metriche predefinite per il monitoraggio e la risoluzione dei problemi. I processi di Analisi di flusso vengono fatturati in base al modello di determinazione dei prezzi quando vengono eseguiti.

Prerequisiti

Prima di sviluppare i processi di Analisi di flusso usando l'editor senza codice, è necessario soddisfare questi requisiti:

  • Le origini di input di streaming e le risorse di destinazione per il processo di Analisi di flusso devono essere accessibili pubblicamente e non possono trovarsi in una rete virtuale di Azure.
  • È necessario disporre delle autorizzazioni necessarie per accedere alle risorse di input e output di streaming.
  • È necessario mantenere le autorizzazioni per creare e modificare le risorse di Analisi di flusso di Azure.

Nota

L'editor senza codice non è attualmente disponibile nell'area Cina.

Processo di Analisi di flusso di Azure

Un processo di Analisi di flusso si basa su tre componenti principali: input di streaming, trasformazioni e output. È possibile avere tutti i componenti desiderati, inclusi più input, rami paralleli con più trasformazioni e più output. Per altre informazioni, vedere Documentazione di Analisi di flusso di Azure.

Nota

Le funzionalità e i tipi di output seguenti non sono disponibili quando si usa l'editor no-code:

  • Funzioni definite dall'utente.
  • Modifica delle query nel pannello query di Analisi di flusso di Azure. Tuttavia, è possibile visualizzare la query generata dall'editor senza codice nel pannello query.
  • Aggiunta di input/output nei pannelli di input/output di Analisi di flusso di Azure. Tuttavia, è possibile visualizzare l'input/output generato dall'editor senza codice nel pannello input/output.
  • I tipi di output seguenti non sono disponibili: Funzione di Azure, ADLS Gen1, Database PostgreSQL, bus di servizio coda/argomento, archiviazione tabelle.

Per accedere all'editor senza codice per la compilazione del processo di analisi di flusso, esistono due approcci:

  1. Tramite il portale di Analisi di flusso di Azure (anteprima): creare un processo di Analisi di flusso e quindi selezionare l'editor senza codice nella scheda Attività iniziali nella pagina Panoramica oppure selezionare Editor di codice no nel pannello sinistro.

    Screenshot che mostra nessun codice nei percorsi del portale di Analisi di flusso di Azure.

  2. Tramite Hub eventi di Azure portale: aprire un'istanza di Hub eventi. Selezionare Elabora dati e quindi selezionare qualsiasi modello predefinito.

    Screenshot che mostra le selezioni per creare un nuovo processo di Analisi di flusso.

    I modelli predefiniti consentono di sviluppare ed eseguire un processo per risolvere vari scenari, tra cui:

Lo screenshot seguente mostra un processo di Analisi di flusso completato. Evidenzia tutte le sezioni disponibili durante l'autore.

Screenshot che mostra le sezioni dell'interfaccia di creazione.

  1. Barra multifunzione: sulla barra multifunzione, le sezioni seguono l'ordine di un processo di analisi classica: un hub eventi come input (noto anche come origine dati), trasformazioni (streaming di Etract, trasformazioni e operazioni di caricamento), output, un pulsante per salvare lo stato di avanzamento e un pulsante per avviare il processo.
  2. Visualizzazione diagramma: si tratta di una rappresentazione grafica del processo di Analisi di flusso, dall'input alle operazioni agli output.
  3. Riquadro laterale: a seconda del componente selezionato nella visualizzazione diagramma, vengono visualizzate le impostazioni per modificare input, trasformazione o output.
  4. Schede per l'anteprima dei dati, la creazione di errori, i log di runtime e le metriche: per ogni riquadro, l'anteprima dei dati mostra i risultati per tale passaggio (live per gli input; su richiesta per trasformazioni e output). Questa sezione riepiloga anche eventuali errori o avvisi di creazione che potrebbero essere presenti nel processo durante lo sviluppo. Selezionando ogni errore o avviso viene selezionata la trasformazione. Fornisce anche le metriche del processo per monitorare l'integrità del processo in esecuzione.

Input di dati in streaming

L'editor no-code supporta l'input di dati di streaming da tre tipi di risorse:

  • Hub eventi di Azure
  • Hub IoT di Azure
  • Azure Data Lake Storage Gen2

Per altre informazioni sugli input dei dati di streaming, vedere Trasmettere i dati come input in Analisi di flusso.

Nota

L'editor no-code nel portale di Hub eventi di Azure include solo Hub eventi come opzione di input.

Screenshot che mostra il tipo di input di streaming.

Hub eventi di Azure come input di streaming

Hub eventi di Azure è una piattaforma di streaming di Big Data e un servizio di inserimento di eventi. È in grado di ricevere ed elaborare milioni di eventi al secondo. I dati inviati a un hub eventi possono essere trasformati e archiviati tramite qualsiasi provider di analisi in tempo reale o adattatore batch/archiviazione.

Per configurare un hub eventi come input per il processo, selezionare l'icona dell'hub eventi. Nella visualizzazione diagramma viene visualizzato un riquadro, incluso un riquadro laterale per la configurazione e la connessione.

Quando ci si connette all'hub eventi nell'editor senza codice, è consigliabile creare un nuovo gruppo di consumer (ovvero l'opzione predefinita). Questo approccio consente di impedire all'hub eventi di raggiungere il limite dei lettori simultanei. Per altre informazioni sui gruppi di consumer e sul fatto che sia necessario selezionare un gruppo di consumer esistente o crearne uno nuovo, vedere Gruppi di consumer.

Se l'hub eventi si trova nel livello Basic, è possibile usare solo il gruppo di consumer $Default esistente. Se l'hub eventi si trova in un livello Standard o Premium, è possibile creare un nuovo gruppo di consumer.

Screenshot che mostra la selezione del gruppo di consumer durante la configurazione di un hub eventi.

Quando ci si connette all'hub eventi, se si seleziona Identità gestita come modalità di autenticazione, il ruolo proprietario dei dati Hub eventi di Azure viene concesso all'identità gestita per il processo di Analisi di flusso. Per altre informazioni sulle identità gestite per un hub eventi, vedere Usare le identità gestite per accedere a un hub eventi da un processo di Analisi di flusso di Azure.

Le identità gestite eliminano le limitazioni dei metodi di autenticazione basati sull'utente. Queste limitazioni includono la necessità di ripetere l'autenticazione a causa delle modifiche apportate alla password o delle scadenze dei token utente che si verificano ogni 90 giorni.

Screenshot che mostra l'identità gestita selezionata come metodo di autenticazione.

Dopo aver configurato i dettagli dell'hub eventi e aver selezionato Connessione, è possibile aggiungere manualmente i campi usando + Aggiungi campo se si conoscono i nomi dei campi. Per rilevare automaticamente i campi e i tipi di dati in base a un campione dei messaggi in arrivo, selezionare Campi di rilevamento automatico. Se necessario, la selezione del simbolo dell'ingranaggio consente di modificare le credenziali.

Quando i processi di Analisi di flusso rilevano i campi, vengono visualizzati nell'elenco. Viene visualizzata anche un'anteprima in tempo reale dei messaggi in ingresso nella tabella Anteprima dati nella visualizzazione diagramma.

Modificare i dati di input

È possibile modificare i nomi dei campi o rimuovere il campo o modificare il tipo di dati oppure modificare l'ora dell'evento (Contrassegna come ora evento: clausola TIMESTAMP BY se un campo di tipo datetime) selezionando il simbolo a tre punti accanto a ogni campo. È anche possibile espandere, selezionare e modificare i campi annidati dai messaggi in arrivo, come illustrato nell'immagine seguente.

Suggerimento

Questo vale anche per i dati di input di hub IoT di Azure e Azure Data Lake Archiviazione Gen2.

Screenshot che mostra le selezioni per l'aggiunta, la rimozione e la modifica dei campi per un hub eventi.

I tipi di dati disponibili sono:

  • DateTime: campo Data e ora in formato ISO.
  • Float: numero decimale.
  • Int: numero intero.
  • Record: oggetto annidato con più record.
  • Stringa: testo.

hub IoT di Azure come input di streaming

L'hub IoT di Azure è un servizio gestito, ospitato nel cloud, che funge da hub centrale di messaggi per le comunicazioni bidirezionali tra l'applicazione di IoT e i relativi dispositivi collegati. I dati dei dispositivi IoT inviati all'hub IoT possono essere usati come input per un processo di Analisi di flusso.

Nota

hub IoT di Azure input è disponibile nell'editor senza codice nel portale di Analisi di flusso di Azure.

Per aggiungere un hub IoT come input di streaming per il processo, selezionare il hub IoT in Input dalla barra multifunzione. Compilare quindi le informazioni necessarie nel pannello destro per connettere l'hub IoT al processo. Per altre informazioni sui dettagli di ogni campo, vedere Trasmettere dati da hub IoT al processo di Analisi di flusso.

Screenshot che mostra la configurazione dell'hub iot.

Azure Data Lake Archiviazione Gen2 come input di streaming

Azure Data Lake Archiviazione Gen2 (ADLS Gen2) è una soluzione data lake aziendale basata sul cloud. È progettato per archiviare grandi quantità di dati in qualsiasi formato e per facilitare carichi di lavoro analitici di Big Data. I dati archiviati in ADLS Gen2 possono essere elaborati come flusso di dati da Analisi di flusso. Per altre informazioni su questo tipo di input, vedere Trasmettere dati da ADLS Gen2 al processo di Analisi di flusso

Nota

L'input di Azure Data Lake Archiviazione Gen2 è disponibile nell'editor senza codice nel portale di Analisi di flusso di Azure.

Per aggiungere ad ADLS Gen2 come input di streaming per il processo, selezionare ADLS Gen2 in Input dalla barra multifunzione. Compilare quindi le informazioni necessarie nel pannello destro per connettere ADLS Gen2 al processo. Per altre informazioni sui dettagli di ogni campo, vedere Trasmettere dati da ADLS Gen2 al processo di Analisi di flusso

Screenshot che mostra la configurazione di input di Azure Data Lake Archiviazione Gen2.

Input dei dati di riferimento

I dati di riferimento sono statici o cambiano lentamente nel tempo. Viene in genere usato per arricchire i flussi in ingresso ed eseguire ricerche nel processo. Ad esempio, è possibile unire l'input del flusso di dati ai dati di riferimento, in modo da eseguire un join SQL per cercare valori statici. Per altre informazioni sugli input dei dati di riferimento, vedere Usare i dati di riferimento per le ricerche in Analisi di flusso.

L'editor no-code supporta ora due origini dati di riferimento:

  • Azure Data Lake Storage Gen2
  • Database SQL di Azure

Screenshot che mostra un nodo di input di riferimento database SQL.

Azure Data Lake Archiviazione Gen2 come dati di riferimento

I dati di riferimento vengono modellati come sequenza di BLOB in ordine crescente della combinazione di data/ora specificata nel nome del BLOB. È possibile aggiungere BLOB alla fine della sequenza solo usando una data/ora maggiore di quella specificata nell'ultimo BLOB specificato nella sequenza. I BLOB vengono definiti nella configurazione di input.

Prima di tutto, nella sezione Input sulla barra multifunzione selezionare Riferimento ADLS Gen2. Per informazioni dettagliate su ogni campo, vedere la sezione relativa alle Archiviazione BLOB di Azure in Usare i dati di riferimento per le ricerche in Analisi di flusso.

Screenshot che mostra i campi per la configurazione di Azure Data Lake Archiviazione Gen2 come input nell'editor senza codice.

Caricare quindi un file di matrice JSON. I campi nel file verranno rilevati. Usare questi dati di riferimento per eseguire la trasformazione con i dati di input di streaming da Hub eventi.

Screenshot che mostra le selezioni per il caricamento di JSON per i dati di riferimento.

database SQL di Azure come dati di riferimento

È possibile usare database SQL di Azure come dati di riferimento per il processo di Analisi di flusso nell'editor senza codice. Per altre informazioni, vedere la sezione relativa alle database SQL in Usare i dati di riferimento per le ricerche in Analisi di flusso.

Per configurare database SQL come input dei dati di riferimento, selezionare Riferimento database SQL nella sezione Input sulla barra multifunzione. Immettere quindi le informazioni per connettere il database di riferimento e selezionare la tabella con le colonne necessarie. È anche possibile recuperare i dati di riferimento dalla tabella modificando manualmente la query SQL.

Screenshot che mostra database SQL configurazione di input di riferimento.

Trasformazioni

Le trasformazioni dei dati di streaming sono intrinsecamente diverse dalle trasformazioni dei dati batch. Quasi tutti i dati di streaming hanno un componente temporale, che influisce sulle attività di preparazione dei dati coinvolte.

Per aggiungere una trasformazione dei dati di streaming al processo, selezionare il simbolo di trasformazione nella sezione Operazioni sulla barra multifunzione per tale trasformazione. Il rispettivo riquadro verrà eliminato nella visualizzazione diagramma. Dopo averla selezionata, verrà visualizzato il riquadro laterale per la trasformazione per configurarla.

Screenshot che mostra le operazioni di trasformazione.

Filtro

Usare la trasformazione Filtro per filtrare gli eventi in base al valore di un campo nell'input. A seconda del tipo di dati (numero o testo), la trasformazione manterrà i valori corrispondenti alla condizione selezionata.

Screenshot che mostra le selezioni per la creazione di un filtro.

Nota

All'interno di ogni riquadro verranno visualizzate informazioni sulle altre operazioni necessarie per la trasformazione. Ad esempio, quando si aggiunge un nuovo riquadro, verrà visualizzato un messaggio Di installazione obbligatorio . Se manca un connettore del nodo, verrà visualizzato un messaggio di errore o un messaggio di avviso .

Gestire i campi

La trasformazione Gestisci campi consente di aggiungere, rimuovere o rinominare campi provenienti da un input o da un'altra trasformazione. Le impostazioni nel riquadro laterale offrono la possibilità di aggiungerne una nuova selezionando Aggiungi campo o aggiungendo tutti i campi contemporaneamente.

Screenshot che mostra le selezioni per la gestione dei campi.

È anche possibile aggiungere un nuovo campo con funzioni predefinite per aggregare i dati da upstream. Attualmente, le funzioni predefinite supportate sono alcune funzioni in Funzioni stringa, Funzioni di data e ora, funzioni matematiche. Per altre informazioni sulle definizioni di queste funzioni, vedere Funzioni predefinite (Analisi di flusso di Azure).

Screenshot che mostra le funzioni predefinite.

Suggerimento

Dopo aver configurato un riquadro, la visualizzazione diagramma offre una panoramica delle impostazioni all'interno del riquadro. Ad esempio, nell'area Gestisci campi dell'immagine precedente è possibile visualizzare i primi tre campi gestiti e i nuovi nomi assegnati. Ogni riquadro contiene informazioni pertinenti.

Aggregato

È possibile usare la trasformazione Aggregazione per calcolare un'aggregazione (Somma, Minimo, Massimo o Media) ogni volta che si verifica un nuovo evento in un periodo di tempo. Questa operazione consente inoltre di filtrare o filtrare l'aggregazione in base ad altre dimensioni nei dati. È possibile avere una o più aggregazioni nella stessa trasformazione.

Per aggiungere un'aggregazione, selezionare il simbolo di trasformazione. Connettere quindi un input, selezionare l'aggregazione, aggiungere eventuali dimensioni filtro o sezione e selezionare il periodo di tempo in cui verrà calcolata l'aggregazione. In questo esempio viene calcolata la somma del valore del pedaggio in base allo stato in cui il veicolo proviene dagli ultimi 10 secondi.

Screenshot che mostra le selezioni per il calcolo di un'aggregazione.

Per aggiungere un'altra aggregazione alla stessa trasformazione, selezionare Aggiungi funzione di aggregazione. Tenere presente che il filtro o la sezione verranno applicati a tutte le aggregazioni nella trasformazione.

Join.

Usare la trasformazione Join per combinare gli eventi di due input in base alle coppie di campi selezionate. Se non si seleziona una coppia di campi, il join sarà basato sul tempo per impostazione predefinita. Il valore predefinito è ciò che rende questa trasformazione diversa da una batch.

Come per i normali join, sono disponibili opzioni per la logica di join:

  • Inner join: includere solo i record di entrambe le tabelle in cui la coppia corrisponde. In questo esempio, questa è la posizione in cui la targa corrisponde a entrambi gli input.
  • Left outer join: includere tutti i record della tabella sinistra (prima) e solo i record del secondo che corrispondono alla coppia di campi. Se non esiste alcuna corrispondenza, i campi del secondo input saranno vuoti.

Per selezionare il tipo di join, selezionare il simbolo per il tipo preferito nel riquadro laterale.

Infine, selezionare il periodo di calcolo del join. In questo esempio, il join esamina gli ultimi 10 secondi. Tenere presente che il periodo è più lungo, meno frequente è l'output e più risorse di elaborazione verranno usate per la trasformazione.

Per impostazione predefinita, vengono inclusi tutti i campi di entrambe le tabelle. I prefissi a sinistra (primo nodo) e a destra (secondo nodo) nell'output consentono di distinguere l'origine.

Screenshot che mostra le selezioni per la creazione di un join.

Raggruppa per

Usare la trasformazione Group by per calcolare le aggregazioni in tutti gli eventi in un determinato intervallo di tempo. Puoi raggruppare i valori di uno o più campi. È simile alla trasformazione Aggregazione , ma offre altre opzioni per le aggregazioni. Include anche opzioni più complesse per le finestre temporali. Come Aggregazione, è anche possibile aggiungere più aggregazioni per trasformazione.

Le aggregazioni disponibili nella trasformazione sono:

  • Media
  • Conteggio
  • Massimo
  • Minimo
  • Percentile (continuo e discreto)
  • Deviazione standard
  • Sum
  • Variance

Per configurare la trasformazione:

  1. Selezionare l'aggregazione preferita.
  2. Selezionare il campo su cui si vuole aggregare.
  3. Selezionare un campo facoltativo group-by se si desidera ottenere il calcolo aggregato su un'altra dimensione o categoria. Ad esempio: State.
  4. Selezionare la funzione per le finestre temporali.

Per aggiungere un'altra aggregazione alla stessa trasformazione, selezionare Aggiungi funzione di aggregazione. Tenere presente che il campo Group by e la funzione windowing verranno applicati a tutte le aggregazioni nella trasformazione.

Screenshot che mostra le selezioni per il calcolo di un'aggregazione con l'opzione di raggruppamento in base ai valori.

Un timestamp per la fine dell'intervallo di tempo viene visualizzato come parte dell'output della trasformazione per riferimento. Per altre informazioni sulle finestre temporali supportate dai processi di Analisi di flusso, vedere Funzioni di windowing (Analisi di flusso di Azure).

Popolare

Usare la trasformazione Unione per connettere due o più input per aggiungere eventi con campi condivisi (con lo stesso nome e tipo di dati) in una tabella. I campi che non corrispondono verranno eliminati e non inclusi nell'output.

Espandi matrice

Usare la trasformazione Espandi matrice per creare una nuova riga per ogni valore all'interno di una matrice.

Screenshot che mostra le opzioni per l'espansione di una matrice.

Output di streaming

L'esperienza di trascinamento della selezione senza codice supporta attualmente diversi sink di output per archiviare i dati elaborati in tempo reale.

Screenshot che mostra le opzioni di output di streaming.

Azure Data Lake Storage Gen2

Data Lake Storage Gen2 usa Archiviazione di Azure come base per la compilazione di Enterprise Data Lake (EDL) in Azure. È progettato per gestire più petabyte di informazioni, supportando centinaia di gigabit di velocità effettiva. Consente di gestire facilmente grandi quantità di dati. Archiviazione BLOB di Azure offre una soluzione conveniente e scalabile per l'archiviazione di grandi quantità di dati non strutturati nel cloud.

Nella sezione Output sulla barra multifunzione selezionare ADLS Gen2 come output per il processo di Analisi di flusso. Selezionare quindi il contenitore in cui si vuole inviare l'output del processo. Per altre informazioni sull'output di Azure Data Lake Gen2 per un processo di Analisi di flusso, vedere Blob Archiviazione e output di Azure Data Lake Gen2 da Analisi di flusso di Azure.

Quando ci si connette ad Azure Data Lake Archiviazione Gen2, se si seleziona Identità gestita come modalità di autenticazione, al ruolo Collaboratore dati BLOB Archiviazione verrà concesso all'identità gestita per il processo di Analisi di flusso. Per altre informazioni sulle identità gestite per Azure Data Lake Archiviazione Gen2, vedere Usare le identità gestite per autenticare il processo di Analisi di flusso di Azure per Archiviazione BLOB di Azure.

Le identità gestite eliminano le limitazioni dei metodi di autenticazione basati sull'utente. Queste limitazioni includono la necessità di ripetere l'autenticazione a causa delle modifiche apportate alla password o delle scadenze dei token utente che si verificano ogni 90 giorni.

Screenshot che mostra la selezione dell'identità gestita come metodo di autenticazione per Azure Data Lake Archiviazione Gen2

Esattamente una volta che il recapito (anteprima) è supportato in ADLS Gen2 come output dell'editor di codice. È possibile abilitarlo nella sezione Modalità di scrittura nella configurazione di ADLS Gen2. Per altre informazioni su questa funzionalità, vedere Consegna esattamente una volta (anteprima) in Azure Data Lake Gen2

Screenshot che mostra la configurazione esattamente una volta nell'output di ADLS Gen2.

La scrittura nella tabella Delta Lake (anteprima) è supportata in ADLS Gen2 come output dell'editor di codice. È possibile accedere a questa opzione nella sezione Serializzazione nella configurazione di ADLS Gen2. Per altre informazioni su questa funzionalità, vedere Scrivere nella tabella Delta Lake.

Screenshot che mostra la configurazione delta lake nell'output di ADLS Gen2.

Azure Synapse Analytics

I processi di Analisi di flusso di Azure possono inviare output a una tabella del pool SQL dedicata in Azure Synapse Analytics e possono elaborare velocità effettiva fino a 200 MB al secondo. Analisi di flusso supporta le esigenze di analisi in tempo reale più impegnative e l'elaborazione dei dati dei percorsi ad accesso frequente per carichi di lavoro come la creazione di report e il dashboard.

Importante

La tabella del pool SQL dedicato deve esistere prima di poterla aggiungere come output al processo di Analisi di flusso. Lo schema della tabella deve corrispondere ai campi e ai relativi tipi nell'output del processo.

Nella sezione Output sulla barra multifunzione selezionare Synapse come output per il processo di Analisi di flusso. Selezionare quindi la tabella del pool SQL in cui si vuole inviare l'output del processo. Per altre informazioni sull'output di Azure Synapse per un processo di Analisi di flusso, vedere Output di Azure Synapse Analytics da Analisi di flusso di Azure.

Azure Cosmos DB

Azure Cosmos DB è un servizio di database distribuito a livello globale che offre scalabilità elastica illimitata in tutto il mondo. Offre anche query avanzate e indicizzazione automatica su modelli di dati indipendenti dallo schema.

Nella sezione Output sulla barra multifunzione selezionare CosmosDB come output per il processo di Analisi di flusso. Per altre informazioni sull'output di Azure Cosmos DB per un processo di Analisi di flusso, vedere Output di Azure Cosmos DB da Analisi di flusso di Azure.

Quando ci si connette ad Azure Cosmos DB, se si seleziona Identità gestita come modalità di autenticazione, il ruolo Collaboratore verrà concesso all'identità gestita per il processo di Analisi di flusso. Per altre informazioni sulle identità gestite per Azure Cosmos DB, vedere Usare le identità gestite per accedere ad Azure Cosmos DB da un processo di Analisi di flusso di Azure (anteprima).

Il metodo di autenticazione delle identità gestite è supportato anche nell'output di Azure Cosmos DB nell'editor senza codice che ha lo stesso vantaggio di quello nell'output di ADLS Gen2 precedente.

Database SQL di Azure

database SQL di Azure è un motore di database PaaS (Platform as a Service) completamente gestito che consente di creare un livello di archiviazione dati a disponibilità elevata e ad alte prestazioni per le applicazioni e le soluzioni in Azure. Usando l'editor senza codice, è possibile configurare i processi di Analisi di flusso di Azure per scrivere i dati elaborati in una tabella esistente in database SQL.

Per configurare database SQL di Azure come output, selezionare database SQL nella sezione Output sulla barra multifunzione. Compilare quindi le informazioni necessarie per connettere il database SQL e selezionare la tabella in cui scrivere i dati.

Importante

La tabella database SQL di Azure deve esistere prima di poterla aggiungere come output al processo di Analisi di flusso. Lo schema della tabella deve corrispondere ai campi e ai relativi tipi nell'output del processo.

Per altre informazioni sull'output database SQL di Azure per un processo di Analisi di flusso, vedere database SQL di Azure output di Analisi di flusso di Azure.

Hub eventi

Con i dati in tempo reale provenienti da ASA, l'editor senza codice può trasformare, arricchire i dati e quindi restituire i dati in un altro hub eventi. È possibile scegliere l'output di Hub eventi quando si configura il processo di Analisi di flusso di Azure.

Per configurare Hub eventi come output, selezionare Hub eventi nella sezione Output sulla barra multifunzione. Compilare quindi le informazioni necessarie per connettere l'hub eventi in cui si vogliono scrivere i dati.

Per altre informazioni sull'output di Hub eventi per un processo di Analisi di flusso, vedere Output di Hub eventi da Analisi di flusso di Azure.

Esplora dati di Azure

Azure Esplora dati è una piattaforma di analisi dei Big Data completamente gestita e ad alte prestazioni che semplifica l'analisi di volumi elevati di dati. È possibile usare Azure Esplora dati come output per il processo di Analisi di flusso di Azure usando anche l'editor senza codice.

Per configurare Azure Esplora dati come output, selezionare Azure Esplora dati nella sezione Output sulla barra multifunzione. Compilare quindi le informazioni necessarie per connettere il database di Azure Esplora dati e specificare la tabella in cui scrivere i dati.

Importante

La tabella deve esistere nel database selezionato e lo schema della tabella deve corrispondere esattamente ai campi e ai relativi tipi nell'output del processo.

Per altre informazioni sull'output di Azure Esplora dati per un processo di Analisi di flusso, vedere Output di Azure Esplora dati da Analisi di flusso di Azure (anteprima).

Power BI

Power BI offre un'esperienza di visualizzazione completa per il risultato dell'analisi dei dati. Con l'output di Power BI in Analisi di flusso, i dati di streaming elaborati vengono scritti nel set di dati di streaming di Power BI, quindi possono essere usati per compilare il dashboard di Power BI quasi in tempo reale. Per altre informazioni su come creare il dashboard quasi in tempo reale, vedere Creare un dashboard in tempo reale con il set di dati di Power BI prodotto da Analisi di flusso senza editor di codice.

Per configurare Power BI come output, selezionare Power BI nella sezione Output sulla barra multifunzione. Compilare quindi le informazioni necessarie per connettere l'area di lavoro di Power BI e specificare i nomi per il set di dati di streaming e la tabella in cui si vogliono scrivere i dati. Per altre informazioni sui dettagli di ogni campo, vedere Output di Power BI da Analisi di flusso di Azure.

Anteprima dei dati, creazione di errori, log di runtime e metriche

L'esperienza di trascinamento della selezione senza codice offre strumenti che consentono di creare, risolvere i problemi e valutare le prestazioni della pipeline di analisi per i dati di streaming.

Anteprima dei dati in tempo reale per gli input

Quando ci si connette a un'origine di input, ad esempio hub eventi e si seleziona il relativo riquadro nella visualizzazione diagramma (scheda Anteprima dati), si otterrà un'anteprima in tempo reale dei dati in arrivo se sono soddisfatte tutte le condizioni seguenti:

  • Viene eseguito il push dei dati.
  • L'input è configurato correttamente.
  • Sono stati aggiunti campi.

Come illustrato nello screenshot seguente, se si vuole visualizzare o eseguire il drill-down in un elemento specifico, è possibile sospendere l'anteprima (1). Oppure puoi ricominciare se hai finito.

È anche possibile visualizzare i dettagli di un record specifico, una cella nella tabella, selezionandola e quindi selezionando Mostra/Nascondi dettagli (2). Lo screenshot mostra la visualizzazione dettagliata di un oggetto annidato in un record.

Screenshot che mostra la scheda Anteprima dati, in cui è possibile sospendere l'anteprima di streaming e mostrare o nascondere i dettagli.

Anteprima statica per trasformazioni e output

Dopo aver aggiunto e configurato tutti i passaggi nella visualizzazione diagramma, è possibile testarne il comportamento selezionando Ottieni anteprima statica.

Screenshot che mostra il pulsante per ottenere un'anteprima statica.

Al termine, il processo di Analisi di flusso valuta tutte le trasformazioni e gli output per assicurarsi che siano configurati correttamente. Analisi di flusso visualizza quindi i risultati nell'anteprima dei dati statici, come illustrato nell'immagine seguente.

Screenshot che mostra la scheda Anteprima dati, in cui è possibile aggiornare l'anteprima statica.

È possibile aggiornare l'anteprima selezionando Aggiorna anteprima statica (1). Quando si aggiorna l'anteprima, il processo di Analisi di flusso accetta nuovi dati dall'input e valuta tutte le trasformazioni. Invia quindi di nuovo l'output con tutti gli aggiornamenti che potrebbero essere stati eseguiti. L'opzione Mostra/Nascondi dettagli è disponibile anche (2).

Errori di creazione

Se sono presenti errori o avvisi di creazione, nella scheda Errori di creazione verranno elencati, come illustrato nello screenshot seguente. L'elenco include informazioni dettagliate sull'errore o l'avviso, il tipo di scheda (input, trasformazione o output), il livello di errore e una descrizione dell'errore o dell'avviso.

Screenshot che mostra un elenco di errori di creazione di esempio.

Log di runtime

I log di runtime vengono visualizzati a livello di avviso, errore o informazioni quando un processo è in esecuzione. Questi log sono utili quando si vuole modificare la topologia o la configurazione del processo di Analisi di flusso per la risoluzione dei problemi. È consigliabile attivare i log di diagnostica e inviarli all'area di lavoro Log Analytics in Impostazioni per ottenere altre informazioni dettagliate sui processi in esecuzione per il debug.

Screenshot che mostra la configurazione del log di diagnostica nell'editor senza codice.

Nell'esempio di screenshot seguente l'utente ha configurato database SQL output con uno schema di tabella che non corrisponde ai campi dell'output del processo.

Screenshot che mostra la scheda relativa agli errori di runtime.

Metriche

Se il processo è in esecuzione, è possibile monitorare l'integrità del processo nella scheda Metriche. Le quattro metriche visualizzate per impostazione predefinita sono Ritardo filigrana, Eventi di input, Eventi di input registrati e Eventi di output. È possibile usare queste metriche per capire se gli eventi vengono trasmessi all'interno e all'esterno del processo senza alcun backlog di input.

Screenshot che mostra le metriche per un processo creato dall'editor senza codice.

È possibile selezionare altre metriche dall'elenco. Per comprendere in dettaglio tutte le metriche, vedere Metriche dei processi di Analisi di flusso di Azure.

Avviare un processo di Analisi di flusso

È possibile salvare il processo in qualsiasi momento durante la creazione. Dopo aver configurato gli input, le trasformazioni e gli output di streaming per il processo, è possibile avviare il processo.

Nota

Anche se l'editor no-code nel portale di Analisi di flusso di Azure è disponibile in anteprima, il servizio Analisi di flusso di Azure è disponibile a livello generale.

Screenshot che mostra i pulsanti Salva e Avvia.

È possibile configurare queste opzioni:

  • Ora di inizio dell'output: quando si avvia un processo, si seleziona un'ora in cui il processo inizia a creare l'output.
    • Ora: questa opzione rende il punto iniziale del flusso di eventi di output uguale a quello dell'avvio del processo.
    • Personalizzato: è possibile scegliere il punto iniziale dell'output.
    • Quando l'ultima operazione è stata arrestata: questa opzione è disponibile quando il processo è stato avviato in precedenza ma è stato arrestato manualmente o non riuscito. Quando si sceglie questa opzione, verrà usata l'ora dell'ultimo output per riavviare il processo, quindi non vengono persi dati.
  • Unità di streaming: le unità di streaming rappresentano la quantità di calcolo e memoria assegnata al processo durante l'esecuzione. Se non si è certi del numero di UR da scegliere, è consigliabile iniziare con tre e regolare in base alle esigenze.
  • Gestione degli errori dei dati di output: i criteri per la gestione degli errori dei dati di output si applicano solo quando l'evento di output prodotto da un processo di Analisi di flusso non è conforme allo schema del sink di destinazione. È possibile configurare i criteri scegliendo Riprova o Rilascia. Per altre informazioni, vedere Criteri di errore di output di Analisi di flusso di Azure.
  • Start: questo pulsante avvia il processo di Analisi di flusso.

Screenshot che mostra la finestra di dialogo per esaminare la configurazione del processo di Analisi di flusso e avviare il processo.

Elenco di processi di Analisi di flusso nel portale di Hub eventi di Azure

Per visualizzare un elenco di tutti i processi di Analisi di flusso creati usando l'esperienza di trascinamento senza codice nel portale di Hub eventi di Azure, selezionare Elabora processi di Analisi di flusso dei dati>.

Screenshot che mostra l'elenco dei processi di Analisi di flusso in cui si esamina lo stato del processo.

Questi sono gli elementi della scheda Processi di Analisi di flusso:

  • Filtro: è possibile filtrare l'elenco in base al nome del processo.
  • Aggiorna: attualmente l'elenco non viene aggiornato automaticamente. Usare il pulsante Aggiorna per aggiornare l'elenco e visualizzare lo stato più recente.
  • Nome processo: il nome in questa area è quello fornito nel primo passaggio della creazione del processo. Non è possibile modificarlo. Selezionare il nome del processo per aprire il processo nell'esperienza di trascinamento senza codice, in cui è possibile arrestare il processo, modificarlo e riavviarlo.
  • Stato: questa area mostra lo stato del processo. Selezionare Aggiorna nella parte superiore dell'elenco per visualizzare lo stato più recente.
  • Unità di streaming: questa area mostra il numero di unità di streaming selezionate al momento dell'avvio del processo.
  • Filigrana di output: questa area fornisce un indicatore di vivacità per i dati prodotti dal processo. Tutti gli eventi prima del timestamp sono già calcolati.
  • Monitoraggio dei processi: selezionare Apri metriche per visualizzare le metriche correlate a questo processo di Analisi di flusso. Per altre informazioni sulle metriche che è possibile usare per monitorare il processo di Analisi di flusso, vedere Metriche dei processi di Analisi di flusso di Azure.
  • Operazioni: avviare, arrestare o eliminare il processo.

Passaggi successivi

Informazioni su come usare l'editor senza codice per gestire scenari comuni usando modelli predefiniti: