Démarrage rapide : créer votre premier pipeline pour copier des données
Dans ce guide de démarrage rapide, vous allez générer un pipeline de données pour déplacer un exemple de jeu de données vers le Lakehouse. Cette expérience vous montre une démonstration rapide sur l’utilisation de l’activité de copie de pipeline et sur le chargement de données dans Lakehouse.
Prérequis
Pour commencer, vous devez remplir les conditions préalables suivantes :
- Un compte client Microsoft Fabric avec un abonnement actif. Créez un compte gratuit.
- Vérifiez que vous disposez d’un espace de travail avec Microsoft Fabric : Créer un espace de travail.
Créer un pipeline de données
Accédez à Power BI.
Sélectionnez l’icône Power BI en bas à gauche de l’écran, puis Data Factory pour ouvrir la page d’accueil de Data Factory.
Accédez à votre espace de travail Microsoft Fabric. Si vous avez créé un espace de travail dans la section Prérequis précédente, utilisez celui-ci.
Sélectionnez Pipeline de données, puis entrez un nom de pipeline pour créer un pipeline.
Copier des données à l’aide d’un pipeline
Dans cette session, vous commencez à générer votre premier pipeline en suivant les étapes ci-dessous sur la copie depuis un exemple de jeu de données fourni par le pipeline dans Lakehouse.
Étape 1 : commencer avec l’Assistant pour copier des données
Après avoir sélectionné Assistant pour copier des données sur le canevas, l’outil Assistant de copie est ouvert pour démarrer.
Étape 2 : configurer votre source
Choisissez l’onglet Exemples de données en haut de la page du navigateur de source de données, puis sélectionnez les exemples de données Jours fériés, puis Suivant.
À la page Se connecter à la source de données du assistant, l’aperçu de l’exemple de données jours fériés s’affiche. Cliquez alors sur Suivant.
Étape 3 : configurer votre destination
Sélectionnez Lakehouse, puis Suivant.
Entrez un nom de lakehouse, puis sélectionnez Créer et connecter.
Configurez, puis mappez vos données sources sur la table Lakehouse de destination. Sélectionnez Tables pour le dossier racine et Charger dans une nouvelle table pour Paramètres de chargement. Indiquez un nom de table et sélectionnez Suivant.
Étape 4 : vérifier et créer votre activité Copy
Passez en revue vos paramètres d’activité Copy dans les étapes précédentes, puis sélectionnez Enregistrer + Exécuter pour terminer. Vous pouvez également revenir sur les étapes précédentes de l’outil pour modifier vos paramètres, si nécessaire. Si vous souhaitez simplement enregistrer, mais pas exécuter le pipeline, vous pouvez décocher immédiatement la case Démarrer le transfert de données immédiatement.
L’activité Copy est ajoutée à votre nouveau canevas de pipeline de données. Tous les paramètres, y compris les paramètres avancés pour l’activité, sont disponibles dans les onglets situés sous le canevas du pipeline lorsque l’activité Copier les données créée est sélectionnée.
Exécuter et planifier votre pipeline de données
Si vous n’avez pas choisi d’enregistrer Enregistrer + Exécuter sur la page Vérifier + enregistrer de l’Assistant pour copier des données, basculez vers l’onglet Accueil et sélectionnez Exécuter. Une boîte de dialogue de confirmation s’affiche. Sélectionnez ensuite Enregistrer et exécuter pour démarrer l’activité.
Vous pouvez superviser le processus en cours d’exécution, puis vérifier les résultats sous l’onglet Sortie sous le canevas du pipeline. Sélectionnez le lien correspondant au nom de l’activité dans votre sortie pour afficher les détails de l’exécution.
Les détails de l’exécution indiquent la quantité de données lues et écrites, ainsi que divers autres détails sur l’exécution.
Vous pouvez également planifier l’exécution du pipeline avec une fréquence spécifique si nécessaire. Voici un exemple de planification de l’exécution du pipeline toutes les 15 minutes.
Contenu connexe
Le pipeline de cet exemple montre comment copier des exemples de données vers Lakehouse. Vous avez appris à :
- Créer un pipeline de données.
- Copiez des données avec l’assistant de copie.
- Exécutez et planifiez votre pipeline de données.
Ensuite, avancez pour en savoir plus sur la surveillance des exécutions de votre pipeline.