Condividi tramite


Esercitazione: Analizzare i dati con un notebook

Si applica a:✅ Endpoint sql analitica e Warehouse in Microsoft Fabric

In questa esercitazione viene illustrato come salvare i dati una sola volta e usarli con molti altri servizi. È anche possibile creare collegamenti ai dati archiviati in Azure Data Lake Storage e S3 per consentire l'accesso diretto alle tabelle delta da sistemi esterni.

Creare una lakehouse

Prima di tutto, creiamo una nuova lakehouse. Per creare una nuova lakehouse nell'area di lavoro di Microsoft Fabric:

  1. Selezionare l'area Data Warehouse Tutorial di lavoro nel menu di spostamento.

  2. Selezionare + Nuovo>lakehouse.

    Screenshot del portale di Infrastruttura che mostra il menu + Nuovo. Lakehouse è boxed in rosso.

  3. Nel campo Nome immettere ShortcutExercisee selezionare Crea.

  4. Il nuovo lakehouse viene caricato e si apre la visualizzazione Esplora risorse, con il menu Recupera dati nel lakehouse . In Carica dati nel lakehouse selezionare il pulsante Nuovo collegamento .

    Screenshot del portale di Fabric che mostra il menu Carica dati nel lakehouse nella pagina di destinazione. Il pulsante Di scelta rapida nuovo è in rosso.

  5. Nella finestra Nuovo collegamento selezionare il pulsante per Microsoft OneLake.

    Screenshot del portale di Fabric che mostra la finestra Di scelta rapida Nuovo. Il pulsante per Microsoft OneLake è in rosso.

  6. Nella finestra Selezionare un tipo di origine dati scorrere l'elenco fino a trovare il warehouse denominato WideWorldImporters creato in precedenza. Selezionarlo, quindi selezionare Avanti.

  7. Nel visualizzatore oggetti OneLake espandere Tabelle, espandere lo dbo schema e quindi selezionare la casella di controllo per dimension_customer. Selezionare Avanti. Seleziona Crea.

  8. Se viene visualizzata una cartella denominata Unidentified in Tabelle, selezionare l'icona Aggiorna nella barra dei menu orizzontale.

    Screenshot del portale di Fabric che mostra il pulsante di aggiornamento sulla barra dei menu orizzontale e le tabelle non identificate in ShortcutExercise in Lakehouse Explorer.

  9. Selezionare nell'elenco dimension_customer Tabella per visualizzare in anteprima i dati. Il lakehouse mostra i dati della dimension_customer tabella del warehouse.

    Screenshot del portale di Infrastruttura che mostra l'anteprima dei dati della tabella dimension_customer.

  10. Creare quindi un nuovo notebook per eseguire query sulla dimension_customer tabella. Nella barra multifunzione Home selezionare l'elenco a discesa Apri notebook e scegliere Nuovo notebook.

  11. In Esplora risorse selezionare la cartella di origine Lakehouses.

  12. Selezionare, quindi trascinare dall'elenco dimension_customer Tabelle nella cella aperta del notebook. È possibile vedere che è stata scritta una query PySpark per eseguire query su tutti i dati da ShortcutExercise.dimension_customer. Questa esperienza notebook è simile all'esperienza jupyter di Visual Studio Code. È anche possibile aprire il notebook in VS Code.

    Screenshot della visualizzazione notebook del portale di Infrastruttura. Una freccia indica il percorso da selezionare dimension_customer, quindi trascinarlo nella cella aperta del notebook.

  13. Nella barra multifunzione Home selezionare il pulsante Esegui tutto. Una volta completata la query, si noterà che è possibile usare facilmente PySpark per eseguire query sulle tabelle warehouse.

    Screenshot del portale di Infrastruttura che mostra i risultati dell'esecuzione del notebook per visualizzare i dati da dimension_customer.

Passaggio successivo