Esercitazione: Analizzare i dati con un notebook
Si applica a:✅ Endpoint sql analitica e Warehouse in Microsoft Fabric
In questa esercitazione viene illustrato come salvare i dati una sola volta e usarli con molti altri servizi. È anche possibile creare collegamenti ai dati archiviati in Azure Data Lake Storage e S3 per consentire l'accesso diretto alle tabelle delta da sistemi esterni.
Creare una lakehouse
Prima di tutto, creiamo una nuova lakehouse. Per creare una nuova lakehouse nell'area di lavoro di Microsoft Fabric:
Selezionare l'area
Data Warehouse Tutorial
di lavoro nel menu di spostamento.Selezionare + Nuovo>lakehouse.
Nel campo Nome immettere
ShortcutExercise
e selezionare Crea.Il nuovo lakehouse viene caricato e si apre la visualizzazione Esplora risorse, con il menu Recupera dati nel lakehouse . In Carica dati nel lakehouse selezionare il pulsante Nuovo collegamento .
Nella finestra Nuovo collegamento selezionare il pulsante per Microsoft OneLake.
Nella finestra Selezionare un tipo di origine dati scorrere l'elenco fino a trovare il warehouse denominato
WideWorldImporters
creato in precedenza. Selezionarlo, quindi selezionare Avanti.Nel visualizzatore oggetti OneLake espandere Tabelle, espandere lo
dbo
schema e quindi selezionare la casella di controllo perdimension_customer
. Selezionare Avanti. Seleziona Crea.Se viene visualizzata una cartella denominata
Unidentified
in Tabelle, selezionare l'icona Aggiorna nella barra dei menu orizzontale.Selezionare nell'elenco
dimension_customer
Tabella per visualizzare in anteprima i dati. Il lakehouse mostra i dati delladimension_customer
tabella del warehouse.Creare quindi un nuovo notebook per eseguire query sulla
dimension_customer
tabella. Nella barra multifunzione Home selezionare l'elenco a discesa Apri notebook e scegliere Nuovo notebook.In Esplora risorse selezionare la cartella di origine Lakehouses.
Selezionare, quindi trascinare dall'elenco
dimension_customer
Tabelle nella cella aperta del notebook. È possibile vedere che è stata scritta una query PySpark per eseguire query su tutti i dati daShortcutExercise.dimension_customer
. Questa esperienza notebook è simile all'esperienza jupyter di Visual Studio Code. È anche possibile aprire il notebook in VS Code.Nella barra multifunzione Home selezionare il pulsante Esegui tutto. Una volta completata la query, si noterà che è possibile usare facilmente PySpark per eseguire query sulle tabelle warehouse.