Ottenere i dati di streaming in lakehouse e accedere con l'endpoint SQL
Questa guida introduttiva illustra come creare una definizione di processo Spark che contiene codice Python con Spark Structured Streaming per trasferire i dati in una lakehouse e quindi usarla tramite un endpoint SQL. Dopo aver completato questa guida introduttiva, si avrà una definizione di processo Spark che viene eseguita continuamente e l'endpoint SQL può visualizzare i dati in ingresso.
Importante
Microsoft Fabric è disponibile in anteprima.
Creare uno script Python
Usare il codice Python seguente che usa lo streaming strutturato Spark per ottenere dati in una tabella lakehouse.
Salvare lo script come file Python (con estensione py) nel computer locale.
Creare una lakehouse
Per creare una lakehouse, seguire questa procedura:
In Microsoft Fabric selezionare l'esperienza di Ingegneria dei dati Synapse.
Passare all'area di lavoro desiderata o crearne una nuova, se necessario.
Per creare una lakehouse, selezionare l'icona Lakehouse nella sezione Nuovo nel riquadro principale.
Immettere il nome della lakehouse e selezionare Crea.
Creare una definizione di processo Spark
Per creare una definizione di processo Spark, seguire questa procedura:
Nella stessa area di lavoro in cui è stata creata una lakehouse selezionare l'icona Crea dal menu a sinistra.
In "Ingegneria dei dati", selezionare Definizione processo Spark.
Immettere il nome della definizione del processo Spark e selezionare Crea.
Selezionare Carica e selezionare il file Python creato nel passaggio precedente.
In Riferimento a Lakehouse scegliere la lakehouse creata.
Impostare i criteri di ripetizione dei tentativi per la definizione del processo Spark
Usare la procedura seguente per impostare i criteri di ripetizione dei tentativi per la definizione del processo Spark:
Nel menu in alto selezionare l'icona Impostazione .
Aprire la scheda Ottimizzazione e impostare Triggercriteri di ripetizione.
Definire il numero massimo di tentativi o selezionare Consenti tentativi illimitati.
Specificare il tempo tra ogni tentativo di ripetizione e selezionare Applica.
Eseguire e monitorare la definizione del processo Spark
Nel menu in alto selezionare l'icona Esegui .
Verificare se la definizione del processo Spark è stata inviata correttamente ed è in esecuzione.
Visualizzare i dati usando un endpoint SQL
Nella visualizzazione dell'area di lavoro selezionare lakehouse.
Nell'angolo destro selezionare Lakehouse e selezionare Endpoint SQL.
Nella vista endpoint SQL in Tabelle selezionare la tabella usata dallo script per trasferire i dati. È quindi possibile visualizzare in anteprima i dati dall'endpoint SQL.