Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Con un servizio collegato è possibile connettersi all'istanza del server flessibile di Database di Azure per PostgreSQL e usarlo nelle attività di Azure Data Factory e Synapse Analytics.
L'attività di Copy supporta il Copy Command, Bulk Insert e Upsert. Per altre informazioni, vedere Copiare e trasformare i dati in Database di Azure per PostgreSQL usando Azure Data Factory o Synapse Analytics.
La sezione successiva include una guida dettagliata su come creare manualmente un'attività di copia e su come creare una pipeline.
Prerequisites
- Istanza del server flessibile di Database di Azure per PostgreSQL. Per altre informazioni, vedere Creare un database di Azure per PostgreSQL.
- (Facoltativo) Un runtime di integrazione di Azure creato all'interno di una rete virtuale gestita.
- Servizio collegato di Azure Data Factory connesso a Database di Azure per PostgreSQL.
- Un set di dati di Azure Data Factory con il Database di Azure per PostgreSQL.
Creare un'attività di copia dei dati tramite il portale
In Azure Data Factory Studio, selezionare l'hub Autore. Passare il puntatore del mouse sulla sezione Pipeline , selezionare ... a sinistra e selezionare Nuova pipeline per creare una nuova pipeline.
In Sposta e trasforma, trascinare e rilasciare l'attività Copia dati nella pipeline.
Nella scheda Generale assegnare un nome alla pipeline.
Nella scheda Origine selezionare o creare un set di dati di origine. In questo esempio selezionare una tabella di Database di Azure per PostgreSQL.
Nella scheda Sink, creare o selezionare un set di dati di Database di Azure per PostgreSQL come set di dati di Sink e scegliere il metodo di scrittura. Per altre informazioni, vedere Attività di copia di Azure e metodo di scrittura.
Selezionare tra il comando Copia, l'inserimento in blocco e Upsert per il metodo di scrittura.
Se è necessario un mapping personalizzato, configurare il mapping nella scheda Mapping .
Convalidare la pipeline.
Selezionare Debug per eseguire manualmente la pipeline.
Configura un trigger per il tuo flusso di lavoro.
Per esempi di payload JSON, vedere Database di Azure per PostgreSQL come sink.
Comportamento delle colonne chiave in upsert
Quando si esegue l'upsert dei dati con il connettore Database di Azure per PostgreSQL, è possibile specificare campi facoltativi denominati Colonne chiave.
Esistono tre modi accettabili per usare le colonne chiave:
Selezionare Nuovo e aggiungere tutte le colonne di chiave primaria della tabella dell'origine dati sink
Selezionare Nuovo e aggiungere una o più colonne uniche della tabella di destinazione dei dati sink
Lascia le colonne chiave vuote. In questo caso, il connettore trova le colonne chiave primaria e le usa come colonne chiave