Partager via


Activité de copie dans Azure Data Factory et Azure Synapse Analytics

Avec un service lié, vous pouvez vous connecter à votre instance de serveur flexible Azure Database pour PostgreSQL et l’utiliser dans les activités Azure Data Factory et Synapse Analytics.

L’activité de copie prend en charge la commande de copie, l’insertion en bloc et Upsert. Pour plus d’informations, consultez Copier et transformer des données dans Azure Database pour PostgreSQL à l’aide d’Azure Data Factory ou Synapse Analytics.

La section suivante contient un guide pas à pas sur la création manuelle d’une activité de copie et la création d’un pipeline.

Prerequisites

Créer une activité de copie de données via le portail

  1. Dans Azure Data Factory Studio, sélectionnez le hub Auteur . Pointez sur la section Pipelines , sélectionnez ... à gauche, puis sélectionnez Nouveau pipeline pour créer un pipeline.

    Capture d’écran montrant où sélectionner l’auteur dans Azure Data Factory.

    Capture d’écran montrant où sélectionner un nouveau pipeline.

  2. Sous Déplacer et transformer, faites glisser et déposez l’activité Copier des données dans le pipeline.

    Capture d’écran montrant où sélectionner Copier des données.

  3. Sous l’onglet Général , donnez un nom à votre pipeline.

    Capture d’écran montrant où donner un nom au pipeline sous l’onglet Général.

  4. Sous l'onglet Source, sélectionnez ou créez un ensemble de données Source. Dans cet exemple, sélectionnez une table Azure Database pour PostgreSQL.

    Capture d’écran montrant où sélectionner ou créer un jeu de données source sous l’onglet source.

    Capture d’écran montrant un jeu de données source sélectionné.

  5. Sous l’onglet Récepteur , sélectionnez ou créez un jeu de données Azure Database pour PostgreSQL en tant que jeu de données Récepteur, puis choisissez la méthode Write. Pour plus d’informations, consultez l’activité de copie Azure et la méthode d’écriture.

    Capture d’écran montrant où sélectionner ou créer une source de données cible dans l’onglet cible.

  6. Sélectionnez entre la commande Copy, l’insertion en bloc et Upsert pour la méthode Write.

    Capture d’écran montrant un exemple de commande de copie sélectionnée.

  7. Si un mappage personnalisé est requis, configurez votre mappage sous l’onglet Mappage .

  8. Validez votre pipeline.

  9. Sélectionnez Déboguer pour exécuter le pipeline manuellement.

  10. Configurez un déclencheur pour votre pipeline.

Pour obtenir des exemples de charge utile JSON, consultez Azure Database pour PostgreSQL en tant que récepteur.

Comportement des colonnes clés sur upsert

Lorsque vous mettez à jour et insérez des données avec le connecteur Azure Database pour PostgreSQL, vous pouvez spécifier des champs facultatifs appelés Colonnes clés.

Capture d’écran montrant les colonnes clés facultatives. Il existe trois façons acceptables d’utiliser les colonnes clés :

  1. Sélectionnez Nouveau et ajoutez toutes les colonnes clés primaires de la table de source de données récepteur

    Capture d’écran montrant un exemple avec toutes les colonnes clés.

  2. Sélectionnez Nouveau et ajoutez une ou plusieurs colonnes uniques de la table de source de données récepteur

  3. Laissez les colonnes clés vides . Dans ce cas, le connecteur recherche les colonnes clés primaires et les utilise comme colonnes clés

    Capture d’écran montrant un exemple sans colonnes clés sélectionnées.