Note
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier les répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de changer de répertoire.
Avec un service lié, vous pouvez vous connecter à votre instance de serveur flexible Azure Database pour PostgreSQL et l’utiliser dans les activités Azure Data Factory et Synapse Analytics.
L’activité de copie prend en charge la commande de copie, l’insertion en bloc et Upsert. Pour plus d’informations, consultez Copier et transformer des données dans Azure Database pour PostgreSQL à l’aide d’Azure Data Factory ou Synapse Analytics.
La section suivante contient un guide pas à pas sur la création manuelle d’une activité de copie et la création d’un pipeline.
Prerequisites
- Une instance de serveur flexible Azure Database pour PostgreSQL. Pour plus d’informations, consultez Créer une base de données Azure pour PostgreSQL.
- (Facultatif) Runtime d’intégration Azure créé dans un réseau virtuel managé.
- Un service lié Azure Data Factory connecté à Azure Database pour PostgreSQL.
- Un jeu de données Azure Data Factory avec votre base de données Azure pour PostgreSQL.
Créer une activité de copie de données via le portail
Dans Azure Data Factory Studio, sélectionnez le hub Auteur . Pointez sur la section Pipelines , sélectionnez ... à gauche, puis sélectionnez Nouveau pipeline pour créer un pipeline.
Sous Déplacer et transformer, faites glisser et déposez l’activité Copier des données dans le pipeline.
Sous l’onglet Général , donnez un nom à votre pipeline.
Sous l'onglet Source, sélectionnez ou créez un ensemble de données Source. Dans cet exemple, sélectionnez une table Azure Database pour PostgreSQL.
Sous l’onglet Récepteur , sélectionnez ou créez un jeu de données Azure Database pour PostgreSQL en tant que jeu de données Récepteur, puis choisissez la méthode Write. Pour plus d’informations, consultez l’activité de copie Azure et la méthode d’écriture.
Sélectionnez entre la commande Copy, l’insertion en bloc et Upsert pour la méthode Write.
Si un mappage personnalisé est requis, configurez votre mappage sous l’onglet Mappage .
Validez votre pipeline.
Sélectionnez Déboguer pour exécuter le pipeline manuellement.
Configurez un déclencheur pour votre pipeline.
Pour obtenir des exemples de charge utile JSON, consultez Azure Database pour PostgreSQL en tant que récepteur.
Comportement des colonnes clés sur upsert
Lorsque vous mettez à jour et insérez des données avec le connecteur Azure Database pour PostgreSQL, vous pouvez spécifier des champs facultatifs appelés Colonnes clés.
Il existe trois façons acceptables d’utiliser les colonnes clés :
Sélectionnez Nouveau et ajoutez toutes les colonnes clés primaires de la table de source de données récepteur
Sélectionnez Nouveau et ajoutez une ou plusieurs colonnes uniques de la table de source de données récepteur
Laissez les colonnes clés vides . Dans ce cas, le connecteur recherche les colonnes clés primaires et les utilise comme colonnes clés