Avvio rapido: Caricare dati in un pool SQL dedicato con l'attività di copia

Azure Synapse Analytics offre vari motori di analisi che consentono di inserire, trasformare, modellare e analizzare i dati. Un pool SQL dedicato offre funzionalità di calcolo e archiviazione basate su T-SQL. Dopo aver creato un pool SQL dedicato nell'area di lavoro di Synapse, è possibile caricare, modellare, elaborare e distribuire i dati per ottenere dati analitici in modo più rapido.

Questo argomento di avvio rapido illustra come caricare dati da Database SQL di Azure in Azure Synapse Analytics. È possibile seguire una procedura simile a quella usata per copiare dati da altri tipi di archivi dati. Questo flusso simile si applica anche alla copia di dati per altre origini e sink.

Prerequisiti

  • Sottoscrizione di Azure: Se non si ha una sottoscrizione di Azure, creare un account gratuito prima di iniziare.
  • Area di lavoro di Azure Synapse: creare un'area di lavoro di Synapse usando il portale di Azure e seguendo le istruzioni in Avvio rapido: Creare un'area di lavoro di Synapse.
  • Database SQL di Azure: questa esercitazione copia i dati del set di dati di esempio di Adventure Works LT nel database SQL di Azure. È possibile creare questo database di esempio in Database SQL seguendo le istruzioni fornite in Creare un database di esempio in Database SQL di Azure. È anche possibile usare altri archivi dati seguendo una procedura simile.
  • Account di archiviazione Azure: Archiviazione di Azure viene usato come area di staging nell'operazione di copia. Se non è disponibile un account di archiviazione di Azure, vedere le istruzioni fornite in Creare un account di archiviazione.
  • Azure Synapse Analytics: si usa un pool SQL dedicato come archivio dati sink. Se non è disponibile un'istanza di Azure Synapse Analytics, vedere Creare un pool SQL dedicato per crearne una.

Dopo aver creato l'area di lavoro di Synapse, è possibile aprire Synapse Studio in due modi diversi:

  • Aprire l'area di lavoro di Synapse nel portale di Azure. Selezionare Apri nella scheda Apri Synapse Studio sotto Attività iniziali.
  • Aprire Azure Synapse Analytics e accedere all'area di lavoro.

In questo argomento di avvio rapido viene usata come esempio l'area di lavoro denominata "adftest2020". Si verrà indirizzati automaticamente alla home page di Synapse Studio.

Home page di Synapse Studio

Creare servizi collegati

In Azure Synapse Analytics si usano i servizi collegati per definire le informazioni di connessione ad altri servizi. In questa sezione si creeranno due tipi di servizi collegati: Azure SQL Database e Azure Data Lake Storage Gen2 (ADLS Gen2).

  1. Nella home page di Azure Synapse Studio selezionare la scheda Gestisci nel riquadro di spostamento sinistro.

  2. In Connessioni esterne selezionare Servizi collegati.

    Creare un nuovo servizio collegato

  3. Per aggiungere un servizio collegato, selezionare Nuovo.

  4. Selezionare Database SQL di Azure nella raccolta e quindi Continua. È possibile digitare "sql" nella casella di ricerca per filtrare i connettori.

    Creare un nuovo servizio collegato Database SQL di Azure

  5. Nella pagina Nuovo Servizio collegato selezionare il nome del server e il nome del database dall'elenco a discesa, quindi specificare il nome utente e la password. Fare clic su Verifica connessione per verificare le impostazioni, quindi selezionare Crea.

    Configurare il servizio collegato Database SQL di Azure

  6. Ripetere i passaggi 3 e 4 selezionando però Azure Data Lake Storage Gen2 dalla raccolta. Nella pagina Nuovo servizio collegato selezionare il nome dell'account di archiviazione dall'elenco a discesa. Fare clic su Verifica connessione per verificare le impostazioni, quindi selezionare Crea.

    Configurare Azure Data Lake Storage Gen2

Creare una pipeline

Una pipeline contiene il flusso logico per un'esecuzione di un set di attività. In questa sezione verrà creata una pipeline contenente un'attività di copia che inserisce i dati da Database SQL di Azure in un pool SQL dedicato.

  1. Passare alla scheda Integrazione. Selezionare l'icona con il segno più accanto all'intestazione della pipeline e quindi selezionare Pipeline.

    Creare una nuova pipeline

  2. In Move & transform (Sposta e trasforma) nel riquadro Attività trascinare Copia dati sul canvas della pipeline.

  3. Selezionare l'attività di copia e passare alla scheda Origine. Selezionare Nuovo per creare un nuovo set di dati di origine.

    Creare set di dati di origine

  4. Selezionare Database SQL di Azure come archivio dati e quindi selezionare Continua.

  5. Nel riquadro Imposta proprietà selezionare il servizio collegato Database SQL di Azure creato nel passaggio precedente.

  6. In Nome tabella selezionare una tabella di esempio da usare nell'attività di copia seguente. In questo avvio rapido si usa la tabella "SalesLT.Customer" come esempio.

    Configurare le proprietà del set di dati di origine

  7. Selezionare OK al termine.

  8. Selezionare l'attività di copia e passare alla scheda Sink. Selezionare Nuovo per creare un nuovo set di dati sink.

  9. Selezionare Azure Synapse dedicated SQL pool (Pool SQL dedicato di Azure Synapse) come archivio dati e quindi selezionare Continua.

  10. Nel riquadro Imposta proprietà selezionare il pool di Analisi SQL creato in precedenza. Se si sta scrivendo su una tabella esistente, selezionarla dall'elenco a discesa Nome tabella. Altrimenti selezionare "Modifica" e immettere il nome della nuova tabella. Selezionare OK al termine.

  11. Per le impostazioni del set di dati sink abilitare Auto create table (Crea tabella automaticamente) in Table option (Opzione tabella).

    Abilitare la creazione automatica

  12. Nella pagina Impostazioni selezionare la casella di controllo Enable staging (Abilita staging). Questa opzione può essere applicata se i dati di origine non sono compatibili con PolyBase. Nella sezione Staging settings (Impostazioni di staging) selezionare come archivio di staging il servizio collegato Azure Data Lake Storage Gen2 creato nel passaggio precedente.

    L'archivio viene usato per eseguire lo staging dei dati prima di caricarli in Azure Synapse Analytics tramite PolyBase. Al termine della copia, viene eseguita la pulizia automatica dei dati provvisori in Azure Data Lake Storage Gen2.

    Abilitare lo staging

  13. Per convalidare la pipeline, selezionare Convalida sulla barra degli strumenti. Il risultato dell'output di convalida della pipeline viene visualizzato sul lato destro della pagina.

Eseguire il debug della pipeline e pubblicarla

Dopo aver completato la configurazione della pipeline, è possibile eseguire il debug prima di pubblicare gli artefatti per verificare che tutto sia corretto.

  1. Per eseguire il debug della pipeline, selezionare Debug sulla barra degli strumenti. Lo stato dell'esecuzione della pipeline verrà visualizzato nella scheda Output nella parte inferiore della finestra.

    Eseguire il debug della pipeline

  2. Una volta che la pipeline viene eseguita correttamente, sulla barra degli strumenti superiore selezionare Pubblica tutto. Questa azione pubblica le entità create (set di dati e pipeline) create nel servizio Synapse Analytics.

  3. Attendere fino alla visualizzazione del messaggio Pubblicazione riuscita. Per visualizzare i messaggi di notifica, selezionare il pulsante a forma di campana in alto a destra.

Attivare e monitorare la pipeline

In questa sezione si attiverà manualmente la pipeline pubblicata nel passaggio precedente.

  1. Selezionare Aggiungi trigger nella barra degli strumenti, quindi selezionare Attiva adesso. Nella pagina Esecuzione della pipeline selezionare OK.

  2. Passare alla scheda Monitora nella barra laterale sinistra. Viene visualizzata un'esecuzione della pipeline attivata da un trigger manuale.

  3. Al termine dell'esecuzione della pipeline, selezionare il collegamento nella colonna Nome pipeline per visualizzare i dettagli dell'esecuzione attività o per eseguire di nuovo la pipeline. In questo esempio è presente una sola attività, quindi nell'elenco viene visualizzata una sola voce.

  4. Per informazioni dettagliate sull'operazione di copia, selezionare il collegamento Dettagli (icona a forma di occhiali) nella colonna Nome attività. È possibile monitorare dettagli come il volume dei dati copiati dall'origine al sink, la velocità effettiva dei dati, i passaggi di esecuzione con la durata corrispondente e le configurazioni usate.

    Dettagli dell'attività

  5. Per tornare alla visualizzazione delle esecuzioni di pipeline, selezionare il collegamento Tutte le esecuzioni della pipeline in alto. Selezionare Aggiorna per aggiornare l'elenco.

  6. Verificare che i dati siano scritti correttamente nel pool SQL dedicato.

Passaggi successivi

Leggere gli articoli seguenti per altre informazioni sul supporto di Azure Synapse Analytics: