Condividi tramite


Modulo 1: Creare una pipeline con Data Factory

Questo modulo richiede 10 minuti, l'inserimento di dati non elaborati dall'archivio di origine nella tabella Bronze di un data Lakehouse usando il attività Copy in una pipeline.

I passaggi generali del modulo 1 sono i seguenti:

  1. Creare una pipeline di dati.
  2. Usare un'attività di copia nella pipeline per caricare dati di esempio in un data Lakehouse.

Creare una pipeline di dati

  1. È necessario un account tenant di Microsoft Fabric con una sottoscrizione attiva. Creare un account gratuito.

  2. Assicurarsi di disporre di un'area di lavoro abilitata per Microsoft Fabric: Creare un'area di lavoro.

  3. Accedi a Power BI.

  4. Selezionare l'icona predefinita di Power BI nella parte inferiore sinistra della schermata e passare all'esperienza data factory .

    Screenshot showing the selection of the Data Factory experience.

  5. Selezionare Pipeline di dati e specificare un nome di pipeline. Selezionare Crea.

    Screenshot of the Data Factory start page with the button to create a new data pipeline selected.

    Screenshot showing the dialog to give the new pipeline a name.

Usare un attività Copy nella pipeline per caricare dati di esempio in un data Lakehouse

Passaggio 1: Usare l'assistente copia per configurare un'attività di copia.

Selezionare Copia dati per aprire lo strumento Di assistente copia.

Screenshot showing the selection of the Copy data activity from the new pipeline start page.

Passaggio 2: Configurare le impostazioni nell'Assistente copia.

  1. La finestra di dialogo Copia dati viene visualizzata con il primo passaggio, Scegliere l'origine dati, evidenziata. Scorrere verso il basso, se necessario, alla sezione Origini dati e selezionare il tipo di origine dati Archiviazione BLOB di Azure. Quindi seleziona Avanti.

    Screenshot showing the selection of the Azure Blob Storage data source type in the copy assistant on the Choose data source tab.

  2. Nel passaggio successivo selezionare Crea nuova connessione e quindi specificare l'URL per l'archivio BLOB che ospita i dati di esempio forniti per questa esercitazione all'indirizzo https://nyctaxisample.blob.core.windows.net/sample. Il tipo di autenticazione è Anonymous. Selezionare Avanti dopo aver specificato l'URL.

    Screenshot showing the creation of a new Azure Blob Storage connection with the URL for the sample data in the tutorial.

  3. Viene visualizzato il passaggio Connessione all'origine dati e inizialmente viene visualizzato un errore Impossibile elencare i file, perché le autorizzazioni sono state concesse solo alla cartella di esempio nell'archivio BLOB. Specificare il nome della cartella, l'esempio e selezionare Riprova.

    Screenshot showing the Unable to list files error with the folder name Sample provided.

    Nota

    La cartella di archiviazione BLOB fa distinzione tra maiuscole e minuscole e deve essere in lettere minuscole.

  4. Verrà visualizzato il browser di archiviazione BLOB successivo. Selezionare il file NYC-Taxi-Green-2015-01.parquet e attendere la visualizzazione dell'anteprima dei dati. Quindi seleziona Avanti.

    Screenshot showing the preview data for the NYC-Taxi-Green-2015-01.parquet file.

  5. Per il passaggio Scegli destinazione dati dell'Assistente copia selezionare Lakehouse e quindi Avanti.

    Screenshot showing the selection of the Lakehouse destination on the Choose data destination tab of the Copy data assistant.

  6. Selezionare Crea nuovo Lakehouse nella pagina di configurazione della destinazione dati visualizzata e immettere un nome per il nuovo Lakehouse. Selezionare quindi di nuovo Avanti .

    Screenshot showing the data destination configuration page of the Copy assistant, choosing the Create new Lakehouse option and providing a Lakehouse name.

  7. Configurare ora i dettagli della destinazione Lakehouse nella pagina Seleziona ed esegui il mapping al percorso o alla tabella della cartella. Selezionare Tabelle per la cartella Radice, specificare un nome di tabella e scegliere l'azione Sovrascrivi . Non selezionare la casella di controllo Abilita partizione visualizzata dopo aver selezionato l'azione Sovrascrivi tabella.

    Screenshot showing the Connect to data destination tab of the Copy data assistant, on the Select and map to folder path or table step.

  8. Infine, nella pagina Rivedi e salva dell'Assistente copia dati esaminare la configurazione. Per questa esercitazione deselezionare la casella di controllo Avvia trasferimento dati immediatamente , perché l'attività viene eseguita manualmente nel passaggio successivo. Selezionare OK.

    Screenshot showing the Copy data assistant on the Review + save page.

Passaggio 3: Eseguire e visualizzare i risultati del attività Copy.

  1. Selezionare la scheda Esegui nell'editor della pipeline. Selezionare quindi il pulsante Esegui, quindi Salvare ed eseguire al prompt per eseguire il attività Copy.

    Screenshot showing the pipeline Run tab with the Run button highlighted.

    Screenshot showing the Save and run dialog with the Save and run button highlighted.

  2. È possibile monitorare l'esecuzione e controllare i risultati nella scheda Output sotto l'area di disegno della pipeline. Selezionare il pulsante Dettagli esecuzione (icona "occhiali" visualizzata quando si passa il puntatore del mouse sull'esecuzione della pipeline) per visualizzare i dettagli dell'esecuzione.

    Screenshot showing the run details button in the pipeline Output tab.

  3. I dettagli dell'esecuzione mostrano 1.508.501 righe lette e scritte.

    Screenshot of the Copy data details for the pipeline run.

  4. Espandere la sezione Suddivisione durata per visualizzare la durata di ogni fase del attività Copy. Dopo aver esaminato i dettagli della copia, selezionare Chiudi.

    Screenshot showing the duration breakdown of the Copy activity run.

In questo primo modulo dell'esercitazione end-to-end per la prima integrazione dei dati con Data Factory in Microsoft Fabric si è appreso come:

  • Creare una pipeline di dati.
  • Aggiungere un attività Copy alla pipeline.
  • Usare dati di esempio e creare un data Lakehouse per archiviare i dati in una nuova tabella.
  • Eseguire la pipeline e visualizzarne i dettagli e la suddivisione della durata.

Continuare con la sezione successiva per creare il flusso di dati.