Démarrage rapide : Créer votre premier pipeline pour copier des données
Dans ce guide de démarrage rapide, vous allez créer un pipeline de données pour déplacer un exemple de jeu de données vers Lakehouse. Cette expérience vous montre une démonstration rapide sur l’utilisation de l’activité de copie de pipeline et sur le chargement de données dans Lakehouse.
Important
Microsoft Fabric est actuellement en préversion. Certaines informations portent sur un produit en préversion susceptible d’être substantiellement modifié avant sa publication. Microsoft ne donne aucune garantie, expresse ou implicite, concernant les informations fournies ici. Reportez-vous à la documentation Azure Data Factory pour le service dans Azure.
Prérequis
Pour commencer, vous devez remplir les conditions préalables suivantes :
- Un compte de locataire Microsoft Fabric avec un abonnement actif. Créez un compte gratuit.
- Vérifiez que vous disposez d’un espace de travail Microsoft Fabric activé : Créer un espace de travail.
Créer un pipeline de données
Accédez à Power BI.
Sélectionnez l’icône Power BI en bas à gauche de l’écran, puis sélectionnez Fabrique de données pour ouvrir la page d’accueil de Data Factory.
Accédez à votre espace de travail Microsoft Fabric. Si vous avez créé un espace de travail dans la section Prérequis précédente, utilisez celui-ci.
Sélectionnez Pipeline de données , puis entrez un nom de pipeline pour créer un pipeline.
Copier des données à l’aide d’un pipeline
Dans cette session, vous commencez à générer votre premier pipeline en suivant les étapes ci-dessous sur la copie à partir d’un exemple de jeu de données fourni par le pipeline dans Lakehouse.
Étape 1 : Démarrer avec l’Assistant Copie
Après avoir sélectionné Copier les données sur le canevas, l’outil Assistant Copie est ouvert pour commencer.
Étape 2 : Configurer votre source
Choisissez l’exemple de données Jours fériés , puis sélectionnez Suivant.
Dans la page Se connecter à la source de données de l’Assistant, l’aperçu des exemples de données Jours fériés s’affiche, puis cliquez sur Suivant.
Étape 3 : Configurer votre destination
Sélectionnez Lakehouse , puis Suivant.
Sélectionnez Créer un lakehouse, entrez un nom Lakehouse, puis sélectionnez Suivant.
Configurez et mappez vos données sources à la table Lakehouse de destination. Sélectionnez tables et fournissez un nom de table sous Dossier racine, puis choisissez l’option Remplacer pour l’action Table, puis sélectionnez Suivant.
Étape 4 : Vérifier et créer votre activité de copie
Passez en revue vos paramètres d’activité de copie dans les étapes précédentes, puis sélectionnez OK pour terminer. Vous pouvez également revenir sur les étapes précédentes de l’outil pour modifier vos paramètres, si nécessaire.
Le activité Copy est ajouté à votre nouveau canevas de pipeline de données. Tous les paramètres, y compris les paramètres avancés de l’activité, sont disponibles dans les onglets sous le canevas du pipeline lorsque l’activité Copier les données créée est sélectionnée.
Exécuter et planifier votre pipeline de données
Basculez vers l’onglet Accueil et sélectionnez Exécuter. Une boîte de dialogue de confirmation s’affiche. Sélectionnez ensuite Enregistrer et exécuter pour démarrer l’activité.
Vous pouvez surveiller le processus en cours d’exécution et case activée les résultats sous l’onglet Sortie sous le canevas du pipeline. Sélectionnez le bouton Détails de l’exécution (avec l’icône de lunettes mise en surbrillance) pour afficher les détails de l’exécution.
Les détails de l’exécution indiquent la quantité de données lues et écrites, ainsi que divers autres détails sur l’exécution.
Vous pouvez également planifier l’exécution du pipeline avec une fréquence spécifique en fonction des besoins. Voici un exemple de planification de l’exécution du pipeline toutes les 15 minutes.
Étapes suivantes
Le pipeline de cet exemple vous montre comment copier des exemples de données vers Lakehouse. Vous avez appris à :
- Créez un pipeline de données.
- Copier des données avec l’Assistant Copie.
- Exécutez et planifiez votre pipeline de données.
Ensuite, avancez pour en savoir plus sur la surveillance des exécutions de votre pipeline.