Partager via


Parcours d’intégration de Microsoft Fabric pour les ISV

Microsoft Fabric offre trois parcours distincts pour que les fournisseurs de logiciels indépendants (ISV) s’intègrent de façon fluide à Fabric. Pour un ISV qui entreprend ce parcours, nous voulons présenter différentes ressources qui sont disponibles sous chacune de ces voies.

Figure montrant différentes façons d’intégrer à Fabric.

Interop avec Fabric OneLake

L’intérêt majeur du modèle d’interopérabilité est qu’il permet aux ISV d’intégrer leurs solutions à OneLake Foundation. Pour interagir avec Microsoft Fabric, nous fournissons une intégration à l’aide d’une multitude de connecteurs dans Data Factory et dans Real-Time Intelligence. Nous fournissons également des API REST pour OneLake, des raccourcis dans OneLake, le partage de données entre les locataires Fabric et la mise en miroir de bases de données.

Figure montrant différentes façons d’interagir avec OneLake : API, Data Factory, intelligence en temps réel, raccourcis multiclouds, partage de données et mise en miroir de bases de données.

Les sections suivantes décrivent quelques-unes des façons dont vous pouvez commencer à utiliser ce modèle.

API OneLake

  • OneLake prend en charge les API et SDK Azure Data Lake Storage (ADLS) Gen2 existants pour une interaction directe, ce qui permet aux développeurs de lire, d’écrire et de gérer leurs données dans OneLake. Découvrez-en plus sur les API REST ADLS Gen2 et la procédure de connexion à OneLake.
  • Étant donné que toutes les fonctionnalités d’ADLS Gen2 ne sont pas directement mappées dans OneLake, OneLake applique également une structure de dossiers définie pour prendre en charge les espaces de travail et les éléments Fabric. Pour obtenir la liste complète des différents comportements entre OneLake et ADLS Gen2 lors de l’appel de ces API, consultez Parité des API OneLake.
  • Si vous utilisez Databricks et que vous voulez vous connecter à Microsoft Fabric, Databricks fonctionne avec les API ADLS Gen2. Intégrer OneLake à Azure Databricks.
  • Pour tirer pleinement parti de ce que le format de stockage Delta Lake peut faire pour vous, examinez et comprenez le format, l’optimisation des tables et V-Order. Optimisation des tables Delta Lake et V-Order.
  • Une fois que les données se trouvent dans OneLake, explorez-les localement à l’aide de l’explorateur de fichiers OneLake. L’Explorateur de fichiers OneLake intègre en toute transparence OneLake à l’Explorateur de fichiers Windows. Cette application synchronise automatiquement tous les éléments OneLake auxquels vous avez accès dans Windows Explorateur de fichiers. Vous pouvez également utiliser un autre outil compatible avec ADLS Gen2, comme l’Explorateur Stockage Azure.

Diagramme montrant comment les API OneLake interagissent avec les charges de travail Fabric.

API d’informations en temps réel

Fabric Real-Time Intelligence est une solution complète conçue pour prendre en charge l’ensemble du cycle de vie des données en temps réel, de l’ingestion et du traitement de flux à l’analytique, à la visualisation et à l’action. Conçu pour gérer les données de diffusion en continu à haut débit, il offre des fonctionnalités robustes pour l’ingestion, la transformation, l’interrogation et le stockage des données, ce qui permet aux organisations de prendre des décisions en temps opportun et pilotées par les données.

  • Les flux d’événements vous permettent d’apporter des événements en temps réel à partir de différentes sources et de les router vers différentes destinations, telles que Lakehouses, les bases de données KQL dans Eventhouse et Fabric Activateor. En savoir plus sur l’API Eventstreams et Eventstreams.
  • Vous pouvez ingérer des données de streaming dans Eventstreams via plusieurs protocoles incl. Kafka, Event Hubs, AMQP et une liste croissante de connecteurs répertoriés ici.
  • Après avoir traité les événements ingérés à l’aide de l’expérience sans code ou de l’opérateur SQL (préversion), le résultat peut être acheminé vers plusieurs destinations Fabric ou vers des points de terminaison personnalisés. En savoir plus sur les destinations Eventstreams ici.
  • Les entrepôts d’événements sont conçus pour la diffusion en continu de données, compatibles avec Real-Time hub et idéaux pour les événements basés sur le temps. Les données sont automatiquement indexées et partitionnées en fonction du temps d’ingestion, vous offrant ainsi des capacités d’interrogation analytique incroyablement rapides et complexes sur des données de haute granularité auxquelles il est possible d'accéder dans OneLake pour les utiliser à travers la suite d’expériences de Fabric.. Eventhouses prend en charge les API et SDK Eventhouse existants pour une interaction directe, ce qui permet aux développeurs de lire, écrire et gérer leurs données dans Eventhouses. Apprenez-en davantage sur l’API REST.
  • Si vous utilisez Databricks ou Jupyter Notebooks, vous pouvez utiliser la bibliothèque de client Kusto Python pour utiliser les bases de données KQL dans Fabric. En savoir plus sur le Kit de développement logiciel (SDK) Python Kusto.
  • Vous pouvez utiliser les connecteurs Microsoft Logic Apps, Azure Data Factory ou Microsoft Power Automate existants pour interagir avec Eventhouses ou vos bases de données KQL.
  • Les raccourcis de base de données dans Real-Time Intelligence sont des références intégrées dans un eventhouse à une base de données source. La base de données source peut être une base de données KQL dans Real-Time Intelligence ou une base de données Azure Data Explorer. Les raccourcis peuvent être utilisés pour le partage de données au sein d’un même client ou d’un client à l’autre. En savoir plus sur la gestion des raccourcis de base de données à l’aide de l’API.

Diagramme montrant comment les API Informations en temps réel interagissent avec les charges de travail Fabric.

Data Factory dans Fabric

  • Les pipelines disposent d'un vaste ensemble de connecteurs, ce qui permet aux ISVs de se connecter facilement à de nombreuses sources de données. Que vous vous connectiez à des bases de données traditionnelles ou à des solutions cloud modernes, nos connecteurs garantissent un processus d’intégration fluide. Vue d’ensemble des connecteurs.
  • Avec nos connecteurs Dataflow Gen2 pris en charge, les ISV peuvent maîtriser la puissance de Fabric Data Factory pour gérer des workflows de données complexes. Cette fonctionnalité est particulièrement utile pour les ISV qui cherchent à simplifier les tâches de traitement et de transformation des données. Connecteurs Dataflow Gen2 dans Microsoft Fabric.
  • Pour obtenir la liste complète des fonctionnalités prises en charge par Data Factory dans Fabric, consultez ce blog Data Factory dans Fabric.

Capture d’écran de l’interface fabrique de données Fabric.

Raccourcis multiclouds

Les raccourcis dans Microsoft OneLake vous permettent d’unifier vos données entre des domaines, des clouds et des comptes en créant un seul lac de données virtuel pour l’ensemble de votre entreprise. Toutes les expériences fabric et les moteurs analytiques peuvent pointer directement vers vos sources de données existantes telles que OneLake dans différents locataires, Azure Data Lake Storage (ADLS) Gen2, les comptes de stockage Amazon S3, Google Cloud Storage(GCS), les sources de données compatibles S3 et Dataverse via un espace de noms unifié. OneLake présente aux ISV une solution d’accès aux données de transformation, créant de façon fluide un pont pour l’intégration entre différents domaines et plateformes cloud.

Diagramme montrant les raccourcis multiclouds dans OneLake.

Partage des données

Le partage de données permet aux utilisateurs de Fabric de partager des données entre différents locataires Fabric sans la dupliquer. Cette fonctionnalité améliore la collaboration en permettant aux données d’être partagées « sur place » à partir des emplacements de stockage OneLake. Les données sont partagées en lecture seule, accessibles via divers moteurs de calcul Fabric, y compris SQL, Spark, KQL et modèles sémantiques. Pour utiliser cette fonctionnalité, les administrateurs Fabric doivent l’activer à la fois dans le partage et la réception des locataires. Le processus inclut la sélection de données dans le hub de données OneLake ou l’espace de travail, la configuration des paramètres de partage et l’envoi d’une invitation au destinataire prévu.

Diagramme montrant le fonctionnement du processus de partage de données dans Fabric.

Mise en miroir de bases de données

La mise en miroir dans Fabric offre une expérience simple pour éviter les opérations ETL complexes (Extraire la charge de transformation) et intégrer vos données existantes dans OneLake avec le reste de vos données dans Microsoft Fabric. Vous pouvez répliquer en continu vos données existantes directement dans OneLake de Fabric. Dans Fabric, vous pouvez déverrouiller de puissants scénarios de décisionnel, d’intelligence artificielle, d’ingénierie des données, de science des données et de partage de données.

Diagramme montrant la mise en miroir de bases de données dans Fabric.

La mise en miroir ouverte permet à n’importe quelle application d’écrire des données modifiées directement dans une base de données mise en miroir dans Fabric. La mise en miroir ouverte est conçue pour être extensible, personnalisable et ouverte. Il s’agit d’une fonctionnalité puissante qui étend la mise en miroir dans Fabric sur la base du format de table ouvert de Delta Lake. Une fois que les données arrivent dans OneLake dans Fabric, l’ouverture de la mise en miroir simplifie la gestion des modifications complexes des données, ce qui garantit que toutes les données mises en miroir sont continuellement up-to-date et prêtes à être analysées.

Développer sur Fabric

Diagramme montrant comment créer des applications sur Fabric.

Avec le modèle Développer sur Fabric, les ISV peuvent générer leurs produits et services en s’appuyant sur Fabric ou incorporer de manière fluide les fonctionnalités de Fabric dans leurs applications existantes. Il s’agit d’une transition de l’intégration de base vers l’application active des fonctionnalités proposées par Fabric. La principale surface d’exposition de l’intégration s’effectue par le biais d’API REST pour différentes expériences Fabric. Le tableau suivant contient un sous-ensemble d’API REST regroupées par l’expérience Fabric. Pour obtenir une liste complète, consultez la documentation de l’API REST de Fabric.

Expérience Fabric API
entrepôt de données - Entrepôt
- Entrepôt mis en miroir
Engineering données - Lakehouse
- Étincelle
- Définition de la tâche Spark
- Tables
- Tâches
Data Factory - DataPipeline
Intelligence en Temps Réel - Eventhouse
- Base de données KQL
- Ensemble de requêtes KQL
- Flux d’événements
Science des données - Carnet de notes
- Expérience ML
- Modèle ML
OneLake - Raccourci
- API ADLS Gen2
Power BI - Rapport
- Tableau de bord
- Modèle sémantique

Créer une charge de travail Fabric

Diagramme montrant comment créer votre propre charge de travail fabric.

Créer un modèle de charge de travail Fabric est conçu pour permettre aux fournisseurs de logiciels indépendants (ISV) de créer des expériences personnalisées sur la plateforme Fabric. Il fournit aux éditeurs de logiciels indépendants les outils et fonctionnalités nécessaires pour aligner leurs offres avec l’écosystème Fabric, en optimisant la combinaison de leurs propositions de valeur unique avec les fonctionnalités étendues de Fabric.

Le Kit de développement de charge de travail Microsoft Fabric offre un kit de ressources complet aux développeurs pour intégrer des applications dans le hub Microsoft Fabric. Cette intégration permet l’ajout de nouvelles fonctionnalités directement dans l’espace de travail Fabric, ce qui améliore le parcours d’analytique pour les utilisateurs. Il fournit aux développeurs et aux éditeurs de logiciels indépendants une nouvelle avenue pour atteindre les clients, fournir des expériences familières et nouvelles, et tirer parti des applications de données existantes. Les administrateurs d’infrastructure ont la possibilité de gérer qui peut ajouter des charges de travail dans une organisation.

Hub de charge de travail

Le hub de charge de travail dans Microsoft Fabric sert d’interface centralisée où les utilisateurs peuvent explorer, gérer et accéder à toutes les charges de travail disponibles. Chaque charge de travail dans Fabric est associée à un type d’élément spécifique qui peut être créé dans les espaces de travail Fabric. En accédant au Hub de charge de travail, les utilisateurs peuvent facilement découvrir et interagir avec différentes charges de travail, en améliorant leurs fonctionnalités analytiques et opérationnelles.

Capture d’écran montrant Le hub de charge de travail.

Les administrateurs fabric ont les droits de gérer la disponibilité des charges de travail , ce qui les rend accessibles dans l’ensemble du locataire ou dans des capacités spécifiques. Cette extensibilité garantit que Fabric reste une plateforme flexible et évolutive, ce qui permet aux organisations d’adapter leur environnement de charge de travail pour répondre aux besoins en constante évolution des données et de l’entreprise. En intégrant en toute transparence l’infrastructure de sécurité et de gouvernance de Fabric, le Hub de charge de travail simplifie le déploiement et la gestion des charges de travail. Chaque charge de travail est fournie avec une expérience d’essai pour que les utilisateurs commencent rapidement. Voici les charges de travail disponibles :

  • 2TEST : charge de travail d’assurance qualité complète qui automatise les tests et les contrôles de qualité des données.

    Capture d’écran montrant la charge de travail 2test.

  • Qualité des données Computinga Cloud : nous allons profiler, détecter et résoudre les problèmes de données, tels que les doublons, les valeurs manquantes et les incohérences, directement dans votre environnement Fabric.

    Capture d’écran montrant la charge de travail d’Informatica.

  • Lumel EPM : permet aux utilisateurs professionnels de créer des applications EPM (Enterprise Performance Management) sans code sur les modèles sémantiques.

    Capture d’écran montrant la charge de travail de Lumel.

  • Neo4j AuraDB avec Graph Analytics : créez des modèles de graphe à partir de données OneLake, analysez et explorez visuellement les connexions de données, interrogez vos données et exécutez l’un des algorithmes intégrés 65+ avec une expérience transparente dans la console Fabric.

    Capture d’écran montrant la charge de travail de Neo4j.

  • Osmos AI Data Wrangler : automatise la préparation des données avec des wranglers de données alimentés par l’IA, ce qui facilite la transformation des données.

    Capture d’écran montrant la charge de travail d’Osmos.

  • Power Designer : outil pour la création de modèles de style et de rapport à l’échelle de l’entreprise, ce qui améliore les conceptions de rapports Power BI.

    Capture d’écran montrant la charge de travail de PBI Tips.

  • Celonis Process Intelligence : permet aux organisations d’exposer la classe unique de données et de contexte de Celonis dans Microsoft Fabric.

    Capture d’écran montrant la charge de travail de Celonis.

  • Profisee Master Data Management : permet aux utilisateurs de correspondre efficacement, de fusionner, de normaliser, de corriger et de valider des données, de les transformer en produits de données approuvés et prêts à l’utilisation pour l’analytique et l’IA.

    Capture d’écran montrant la charge de travail de Profisee.

  • Quantexa Unify : améliore les sources de données Microsoft OneLake en fournissant une vue de 360 degrés avec des fonctionnalités avancées de résolution des données.

    Capture d’écran montrant la charge de travail de Quantexa.

  • Générateur de décision SAP : aide les organisations à automatiser, optimiser et mettre à l’échelle leurs processus décisionnels.

    Capture d’écran montrant la charge de travail de SAP.

  • Statsig : Apporte directement la visualisation et l’analyse des données à votre entrepôt.

    Capture d’écran montrant la charge de travail de Statsig.

  • Teradata AI Unlimited : combine le moteur analytique de Teradata avec les fonctionnalités de gestion des données de Microsoft Fabric via les fonctions dans la base de données de Teradata.

    Capture d’écran montrant la charge de travail de Teradata.

  • SQL2Fabric-Mirroring par Striim : solution de réplication de code zéro entièrement managée qui reflète en toute transparence les données SQL Server locales dans Microsoft Fabric OneLake

    Capture d’écran montrant la charge de travail de Striim.

À mesure que d’autres charges de travail deviennent disponibles, le Hub de charge de travail continuera à servir d’espace dynamique pour découvrir de nouvelles fonctionnalités, ce qui garantit que les utilisateurs disposent des outils dont ils ont besoin pour mettre à l’échelle et optimiser leurs solutions pilotées par les données.