Condividi tramite


Esercitazione per Lakehouse: inserire i dati nel lakehouse

In questa esercitazione si inseriscono altre tabelle dimensionali e dei fatti da Wide World Importers (WWI) nel lakehouse.

Prerequisiti

Inserire i dati

In questa sezione si usa l'attività Copia dati della pipeline di Data Factory per inserire dati di esempio da un account di archiviazione di Azure nella sezione File del lakehouse creato in precedenza.

  1. Selezionare Aree di lavoro nel riquadro di spostamento sinistro e quindi selezionare la nuova area di lavoro dal menu Aree di lavoro. Appare la visualizzazione degli elementi dell'area di lavoro.

  2. Nell'opzione Nuovo elemento nella barra multifunzione dell'area di lavoro seleziona Data pipeline.

  3. Nella finestra di dialogo Nuova pipeline, specificare il nome IngestDataFromSourceToLakehouse e selezionare Crea. Viene creata e aperta una nuova pipeline di Azure Data Factory.

  4. Quindi, configura una connessione HTTP per importare i dati di esempio World Wide Importers nel Lakehouse. Nell'elenco Nuove origini, selezionare Visualizza altro, cercare Http e selezionarlo.

    Screenshot che mostra dove selezionare l'origine HTTP.

  5. Nella finestra Connetti all'origine dati, immettere i dettagli della tabella seguente e selezionare Avanti.

    Proprietà valore
    URL https://assetsprod.microsoft.com/en-us/wwi-sample-dataset.zip
    Connessione Creare una nuova connessione
    Nome connessione wwisampledata
    Gateway di dati None
    Tipo di autenticazione Anonimo

    Screenshot che mostra i parametri per configurare la connessione HTTP.

  6. Nel passaggio successivo, abilitare la Copia binaria e scegliere ZipDeflate (.zip) come Tipo di compressione, perché l'origine è un file .zip. Mantenere gli altri campi con i valori predefiniti e selezionare Avanti.

    Screenshot che mostra come scegliere il tipo di compressione.

  7. Nella finestra Connetti alla destinazione dati specificare cartella radice come File e selezionare Avanti. I dati verranno scritti nella sezione File della casa sul lago.

    Screenshot che mostra le impostazioni di connessione di destinazione del lakehouse.

  8. Selezionare Avanti, il formato del file di destinazione viene impostato automaticamente su Binary. Selezionare quindi Salva+Esegui. È possibile pianificare pipeline per aggiornare i dati periodicamente. In questa esercitazione, la pipeline viene eseguita solo una volta. Il completamento del processo di copia dei dati richiede circa 10-15 minuti.

    Screenshot che mostra il riepilogo dell'attività di copia.

  9. È possibile monitorare l'esecuzione e l'attività della pipeline nella scheda Output. È anche possibile visualizzare informazioni dettagliate sul trasferimento dei dati selezionando l'icona a forma di occhiali accanto al nome della pipeline, visualizzata quando si passa il puntatore del mouse sul nome.

    Screenshot che rappresenta lo stato dell'attività di copia nella pipeline.

  10. Una volta completata correttamente l'esecuzione della pipeline, passare al lakehouse (wwilakehouse) e aprire Esplora per visualizzare i dati importati.

    Screenshot che mostra come navigare verso la lakehouse.

  11. Assicurarsi che la cartella WideWorldImportersDW sia presente nella vista Esplora e che contenga i dati per tutte le tabelle.

    Screenshot che mostra i dati di origine copiati nell'Esplora Lakehouse.

  12. I dati vengono creati nella sezione File dell'Esploratore Lakehouse. Una nuova cartella con GUID contiene tutti i dati necessari. Rinominare il GUID in wwi-raw-data

Per caricare dati incrementali in un lakehouse, vedere Caricare dati in modo incrementale da un data warehouse in un lakehouse.

Passaggio successivo