Condividi tramite


Attività Copy in Azure Data Factory e Azure Synapse Analytics

Con un servizio collegato è possibile connettersi all'istanza del server flessibile di Database di Azure per PostgreSQL e usarlo nelle attività di Azure Data Factory e Synapse Analytics.

L'attività di Copy supporta il Copy Command, Bulk Insert e Upsert. Per altre informazioni, vedere Copiare e trasformare i dati in Database di Azure per PostgreSQL usando Azure Data Factory o Synapse Analytics.

La sezione successiva include una guida dettagliata su come creare manualmente un'attività di copia e su come creare una pipeline.

Prerequisites

Creare un'attività di copia dei dati tramite il portale

  1. In Azure Data Factory Studio, selezionare l'hub Autore. Passare il puntatore del mouse sulla sezione Pipeline , selezionare ... a sinistra e selezionare Nuova pipeline per creare una nuova pipeline.

    Screenshot che mostra dove selezionare l'autore in Azure Data Factory.

    Screenshot che mostra dove selezionare la nuova pipeline.

  2. In Sposta e trasforma, trascinare e rilasciare l'attività Copia dati nella pipeline.

    Screenshot che mostra dove selezionare Copia dati.

  3. Nella scheda Generale assegnare un nome alla pipeline.

    Screenshot che mostra dove assegnare un nome alla pipeline nella scheda generale.

  4. Nella scheda Origine selezionare o creare un set di dati di origine. In questo esempio selezionare una tabella di Database di Azure per PostgreSQL.

    Screenshot che mostra dove selezionare o creare un set di dati di origine nella scheda origine.

    Screenshot che mostra un set di dati di origine selezionato.

  5. Nella scheda Sink, creare o selezionare un set di dati di Database di Azure per PostgreSQL come set di dati di Sink e scegliere il metodo di scrittura. Per altre informazioni, vedere Attività di copia di Azure e metodo di scrittura.

    Screenshot che mostra dove selezionare o creare un'origine dati sink nella scheda Sink.

  6. Selezionare tra il comando Copia, l'inserimento in blocco e Upsert per il metodo di scrittura.

    Screenshot che mostra un esempio di comando di copia selezionato.

  7. Se è necessario un mapping personalizzato, configurare il mapping nella scheda Mapping .

  8. Convalidare la pipeline.

  9. Selezionare Debug per eseguire manualmente la pipeline.

  10. Configura un trigger per il tuo flusso di lavoro.

Per esempi di payload JSON, vedere Database di Azure per PostgreSQL come sink.

Comportamento delle colonne chiave in upsert

Quando si esegue l'upsert dei dati con il connettore Database di Azure per PostgreSQL, è possibile specificare campi facoltativi denominati Colonne chiave.

Screenshot che mostra le colonne chiave facoltative. Esistono tre modi accettabili per usare le colonne chiave:

  1. Selezionare Nuovo e aggiungere tutte le colonne di chiave primaria della tabella dell'origine dati sink

    Screenshot che mostra un esempio con tutte le colonne chiave.

  2. Selezionare Nuovo e aggiungere una o più colonne uniche della tabella di destinazione dei dati sink

  3. Lascia le colonne chiave vuote. In questo caso, il connettore trova le colonne chiave primaria e le usa come colonne chiave

    Screenshot che mostra un esempio senza colonne chiave selezionate.