Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’applique à :✅Base de données SQL dans Microsoft Fabric
Cet article explique comment utiliser la base de données SQL dans Fabric comme cible ETL inverse dans un patrimoine de données basé sur Fabric. Il fournit des conseils architecturaux, des modèles opérationnels et des considérations d’implémentation pour déplacer des données organisées à partir de sources analytiques (telles que Microsoft Fabric Data Warehouse ou Fabric Lakehouse) dans une base de données SQL dans Fabric pour une consommation opérationnelle par applications, API et expériences en temps réel.
Qu’est-ce que l’ETL inverse dans Fabric ?
De nombreux clients ont investi beaucoup de temps et d’efforts dans la création de processus d’extraction, de transformation, de chargement (ETL) pour transformer les données opérationnelles brutes en données analytiques plus affinées qui peuvent être utilisées pour la création de rapports métier. Le résultat final d’un processus ETL est généralement un magasin analytique tel qu’un entrepôt ou un lakehouse auquel une couche de création de rapports comme Power BI accède. Cette architecture sert bien les utilisateurs professionnels, mais la création de rapports est relativement statique et les insights ne peuvent être dérivés que par une intervention humaine. En utilisant ETL inverse, vous pouvez alimenter les données transformées en systèmes opérationnels afin que les applications et les agents puissent obtenir des insights à partir de ces données analysées en temps réel. Reverse ETL transfère des données à partir des faits et des dimensions des magasins analytiques vers une couche de service où elles sont accessibles via des points de terminaison tels que GraphQL ou directement via des requêtes TDS (Flux de données tabulaires).
Bien que vous puissiez connecter des applications opérationnelles directement à un entrepôt de données ou à un lakehouse, ces stockages de données sont conçus pour des charges de travail d'analyse. Les magasins de données opérationnels, comme la base de données SQL dans Fabric, sont conçus pour prendre en charge les requêtes transactionnelles et offrent de meilleures performances et scalabilité pour les charges de travail opérationnelles. Les bases de données opérationnelles vous permettent également d’enrichir davantage les données avec des incorporations vectorielles et des métadonnées supplémentaires pour faciliter la recherche vectorielle et hybride, ainsi que la génération augmentée par récupération (RAG).
- Dans ce modèle, l'entrepôt ou le lakehouse reste le système de référence analytique.
- La base de données SQL dans Fabric sert de magasin opérationnel qui offre une faible latence, une indexation affinée, des contraintes strictes de données et de relation et les contrats SLA attendus par les équipes d’application.
Cibles ETL inverses courantes
Les cibles ETL inversées courantes représentent généralement des tranches de données organisées et à valeur élevée que les systèmes opérationnels peuvent consommer avec une transformation minimale. Ces cibles sont conçues pour fournir un accès à faible latence aux données approuvées tout en préservant la logique métier appliquée dans la couche analytique. Voici quelques exemples :
- Données client et utilisateur (par exemple, métriques d’engagement telles que l’activité de session, l’utilisation des fonctionnalités et les interactions)
- Données ventes et marketing (par exemple, métriques de scoring telles que la propension à acheter, les scores d’engagement, la probabilité de convertir)
- Données opérationnelles et transactionnelles (par exemple, les données de commande et d’inventaire telles que les niveaux de stock, l’état des commandes et les délais de livraison)
- Données dérivées de l’IA/ML (par exemple, des recommandations de produits personnalisées, des scores prédictifs tels que le risque d’attrition, la propension à la vente incitative ou l’analyse des sentiments)
Mécanismes de déplacement des données
Le processus commence par définir vos données sources, définir la destination, puis sélectionner un mécanisme de déplacement de données. Choisissez un ou plusieurs des mécanismes suivants pour déplacer des données de votre magasin analytique vers une base de données SQL dans Fabric.
Conseil / Astuce
En règle générale, utilisez :
- Pipelines pour les charges de copie simples et planifiées.
- Dataflows Gen2 pour les transformations à faible code.
- Spark pour le traitement complexe et à grande échelle (y compris le Machine Learning).
- T-SQL transversal, lorsqu'elle est disponible, afin de maintenir les opérations centrées sur SQL, par exemple, joiner une table dans une base de données SQL à une table dans un entrepôt ou un point d'accès analytique SQL.
| Mécanisme | Utiliser quand | Forces | Considérations |
|---|---|---|---|
| Pipelines de données Fabric | Vous avez besoin de charges managées et reproductibles (lots ou micro-lots) d’opérations de copie de données | Intégration de première classe ; prend en charge le tatouage numérique et les procédures stockées | Concurrence; Adapter la base de données SQL pendant les opérations de chargement |
| Dataflow Gen2 | Vous avez besoin de transformations de données à faible code et d’une logique de processus améliorée | Adapté aux entreprises ; prend en charge le formatage et le nettoyage des colonnes | Débit inférieur pour les grandes quantités ; planification du partitionnement |
| Spark (notebooks/travaux) | Vous avez besoin de transformations complexes basées sur du code et d’un remodelage à grande échelle | Contrôle de code complet ; lectures delta efficaces ; Prise en charge de l’écriture JDBC | Authentification et traitement par lots ; éviter les transactions volumineuses |
| Requêtes T-SQL inter-éléments | Vous avez besoin d’un déplacement SQL dans la base de données entre les éléments Fabric | Plomberie minimale ; SQL native ; facile à planifier |
Architecture de référence : inverser ETL vers une base de données SQL dans Fabric
L’architecture de référence pour ETL inverse dans Fabric rassemble les blocs de construction essentiels nécessaires à l’opérationnalisation des données analytiques organisées. Il montre comment les données circulent de sources analytiques approuvées via des couches de transformation dans une base de données SQL structurée. La base de données opérationnelle sert d’interface pour les systèmes en aval. Ce modèle garantit que les applications, LES API et les outils de création de rapports peuvent accéder à des données de faible latence et de haute qualité sans compromettre l’intégrité du système analytique d’enregistrement.
Les principaux composants de ce flux sont les suivants :
- Source : Jeux de données organisés à partir d’un entrepôt de données Fabric ou d’un Lakehouse (Delta).
- Transformations : transformations Reverse ETL appliquées à l'aide de Pipelines, Dataflow Gen2, Spark ou T-SQL entre éléments.
- Cible : base de données SQL dans Fabric avec atterrissage, historique (facultatif), mise en quarantaine et schémas de service définis.
- Consommateurs : applications via GraphQL ou TDS, API et Power BI pour les tableaux de bord et les rapports en temps réel.
Components
Les composants suivants sont impliqués dans le flux général d’utilisation de la base de données SQL dans Fabric en tant que cible ETL inverse.
Schémas de service et d’atterrissage
- Mapper les données sources aux schémas d’atterrissage appropriés dans la base de données SQL dans Fabric.
- Si vous le souhaitez, conservez un
historyschéma pour l’auditabilité. - Utilisez un
quarantineschéma pour les rejet (problèmes de qualité des données). - Définissez un
servingschéma pour la consommation en aval avec les contraintes et l’indexation appropriées.
Orchestration
- Planifiez les transferts dans Fabric à l’aide de pipelines, flux de données ou de travaux Spark.
- Utilisez la planification intégrée pour configurer la cadence, l’heure de début et le fuseau horaire.
- Planifiez des notebooks Spark via le portail Fabric ou l’API.
- Surveillez les exécutions de bout en bout dans le hub de supervision Fabric.
Consumption
- Exposer des données via des points de terminaison GraphQL ou T-SQL via TDS à l’aide de bibliothèques clientes telles que ADO.NET (et d’autres).
- Créez des tableaux de bord et des visualisations Power BI directement sur une base de données SQL dans Fabric.
Gouvernance et sécurité
- Utilisez l’ID Microsoft Entra pour l’authentification et l’autorisation.
- Combinez les autorisations des rôles d’espace de travail Fabric et les autorisations SQL pour un contrôle granulaire.
- Si vous le souhaitez, configurez des clés gérées par le client pour le chiffrement des données au repos.
- Auditez l’accès et sécurisez les données en transit à l’aide de Private Link.
Serveur d'application
Une fois que vous avez organisé et actualisé des données dans la base de données SQL, déplacez le focus sur l’activation d’un accès rapide et fiable pour les consommateurs opérationnels. Dans ce contexte, le service d’application signifie exposer des jeux de données approuvés via des interfaces à faible latence qui s’alignent sur les modèles d’application modernes.
Une fois les données atterries et actualisées dans la base de données SQL dans Fabric :
- Pour traiter les charges de travail opérationnelles, exposez des données via des points de terminaison GraphQL ou le protocole TDS pour être consommées via ADO.NET et d’autres bibliothèques clientes. Par exemple, fournissez des informations sur le produit, une chaîne d’approvisionnement ou des cas d’utilisation du service clientèle.
- Associez le jeu de données à Power BI pour fournir des tableaux de bord en temps réel et des analyses en libre-service.
Considérations spécifiques au tissu
La base de données SQL dans Fabric utilise le même moteur SQL Database qu’Azure SQL Database et est contrôlée, sécurisée, facturée et exploitée via le portail Fabric. Il offre également une mise en miroir intégrée dans des fichiers Delta/Parquet stockés dans Microsoft OneLake, accessibles via un point de terminaison d’analytique SQL. Étant donné qu’il se trouve dans l’environnement Microsoft Fabric, il existe quelques considérations à prendre en compte lors de la création de votre conception :
- Parité des fonctionnalités : la base de données SQL dans Fabric converge avec Azure SQL Database. Validez des fonctionnalités spécifiques dont vous avez besoin pour garantir l’ajustement à usage et surveiller les mises à jour de la feuille de route.
- Modèle de sécurité : la base de données SQL dans Fabric utilise uniquement l’authentification Microsoft Entra ID . Planifiez les identités pour les Pipelines, Dataflows et les tâches Spark en conséquence.
- Réplication : la base de données SQL dans Fabric réplique automatiquement les données en lecture seule vers OneLake. Cette synchronisation est utile pour les besoins de création de rapports et d’analyse, tandis que la base de données reste disponible pour les charges de travail opérationnelles en lecture/écriture.