Vue d’ensemble des connecteurs
Data Factory dans Microsoft Fabric offre un ensemble complet de connecteurs qui vous permettent de vous connecter à différents types de magasins de données. Vous pouvez tirer parti de ces connecteurs pour transformer des données dans des flux de données ou déplacer un jeu de données de niveau PB à grande échelle dans un pipeline de données.
Important
Microsoft Fabric est actuellement en préversion. Certaines informations portent sur un produit en préversion susceptible d’être substantiellement modifié avant sa publication. Microsoft ne donne aucune garantie, expresse ou implicite, concernant les informations fournies ici. Reportez-vous à la documentation Azure Data Factory pour le service dans Azure.
Connecteurs de données pris en charge dans les flux de données
Les flux de données fournissent des fonctionnalités d’ingestion et de transformation des données sur un large éventail de sources de données. Ces sources de données incluent différents types de fichiers, de bases de données, de sources de données en ligne, cloud et locales. Il existe plus de 135 connecteurs de données différents, qui sont accessibles à partir de l’expérience de création de flux de données dans l’expérience get data.
Vous trouverez une liste complète de tous les connecteurs pris en charge par le biais de notre référence sur les connecteurs de Power Query publics. Les connecteurs pris en charge correspondent à ceux marqués comme pris en charge dans la colonne Power BI (flux de données) de la table de référence Power Query.
Les connecteurs suivants sont actuellement disponibles pour les destinations de sortie dans Dataflow Gen2 :
- Explorateur de données Azure
- Azure SQL
- entrepôt de données
- Lakehouse
Magasins de données pris en charge dans le pipeline de données
Data Factory dans Microsoft Fabric prend en charge les magasins de données suivants dans un pipeline de données via les activités Copier, Rechercher, Obtenir des métadonnées et Supprimer des données. Accédez à chaque magasin de données pour découvrir en détail les fonctionnalités prises en charge et les configurations correspondantes.
Catégorie | Data store (Magasin de données) | activité Copy (source/destination) | Activité de recherche | Activité d’obtention des métadonnées | Supprimer l’activité | Activité de script | Activité de procédure stockée |
---|---|---|---|---|---|---|---|
Espace de travail | entrepôt de données | ✓/✓ | ✓ | ✓ | - | ✓ | ✓ |
Base de données KQL | ✓/✓ | ✓ | - | - | - | - | |
Lakehouse | ✓/✓ | - | - | ✓ | - | - | |
Microsoft Azure | Stockage Blob Azure | ✓/✓ | ✓ | ✓ | ✓ | - | - |
Azure Cosmos DB pour NoSQL | ✓/✓ | ✓ | ✓ | ✓ | - | - | |
Azure Data Lake Storage Gen1 | ✓/✓ | ✓ | ✓ | ✓ | - | - | |
Azure Data Lake Storage Gen2 | ✓/✓ | ✓ | ✓ | ✓ | - | - | |
Azure Database pour PostgreSQL | ✓/✓ | ✓ | - | - | - | - | |
Azure SQL Database | ✓/✓ | ✓ | ✓ | ✓ | ✓ | ✓ | |
Azure SQL Database Managed Instance | ✓/✓ | ✓ | ✓ | - | ✓ | ✓ | |
Azure SQL Explorer | ✓/✓ | ✓ | - | - | - | - | |
Azure Synapse Analytics | ✓/✓ | ✓ | ✓ | - | ✓ | ✓ | |
Stockage de table Azure | ✓/✓ | ✓ | - | - | - | - | |
Sauvegarde de la base de données | Amazon Redshift | ✓/- | ✓ | - | - | - | - |
Amazon RDS pour SQL Server | ✓/- | ✓ | ✓ | ✓ | - | - | |
Apache Impala | ✓/- | ✓ | - | - | - | - | |
Hive | ✓/- | ✓ | - | - | - | - | |
PostgreSQL | ✓/- | ✓ | - | - | - | - | |
Spark | ✓/- | ✓ | - | - | - | - | |
SQL Server | ✓/✓ | ✓ | ✓ | - | ✓ | ✓ | |
File | Amazon S3 | ✓/- | ✓ | ✓ | ✓ | - | - |
Amazon S3 Compatible | ✓/- | ✓ | ✓ | ✓ | - | - | |
Google Cloud Storage | ✓/- | ✓ | ✓ | ✓ | - | - | |
Générique | HTTP | ✓/- | ✓ | - | - | - | - |
OData | ✓/- | ✓ | - | - | - | - | |
REST | ✓/✓ | - | - | - | - | - | |
Services et applications | Dataverse | ✓/✓ | ✓ | - | - | - | - |
Dynamics CRM | ✓/✓ | ✓ | - | - | - | - | |
Microsoft 365 | ✓/- | - | - | - | - | - | |
Liste SharePoint Online | ✓/- | ✓ | - | - | - | - | |
Snowflake | ✓/✓ | ✓ | - | - | ✓ | - |