Share via


Integratiepaden voor Microsoft Fabric voor ISV's

Microsoft Fabric biedt drie verschillende trajecten voor onafhankelijke softwareleveranciers (ISV's) om naadloos te integreren met Fabric. Voor een ISV die op deze reis begint, willen we verschillende resources doorlopen die we beschikbaar hebben op elk van deze trajecten.

Afbeelding van de drie trajecten die moeten worden geïntegreerd met Fabric: Interop, Apps ontwikkelen en Een infrastructuurworkload bouwen.

Interoperabiliteit met Fabric OneLake

De primaire focus met het Interop-model is het inschakelen van ISV's om hun oplossingen te integreren met de OneLake Foundation. Voor interop met Microsoft Fabric bieden we integratie met behulp van een groot aantal connectors in Data Factory en in realtime intelligence, REST API's voor OneLake, snelkoppelingen in OneLake, het delen van gegevens in Fabric-tenants en databasespiegeling.

Afbeelding met verschillende manieren om met OneLake te samenwerken: API's, Fabric Data Factory, realtime intelligence, snelkoppelingen voor meerdere clouds, gegevens delen en databasespiegeling.

In de volgende secties worden enkele manieren beschreven waarop u aan de slag kunt gaan met dit model.

OneLake-API's

  • OneLake ondersteunt bestaande API's van Azure Data Lake Storage (ADLS) Gen2 voor directe interactie, zodat ontwikkelaars hun gegevens in OneLake kunnen lezen, schrijven en beheren. Meer informatie over ADLS Gen2 REST API's en hoe u verbinding maakt met OneLake.
  • Omdat niet alle functionaliteit in ADLS Gen2 rechtstreeks aan OneLake wordt toegewezen, dwingt OneLake ook een set mapstructuur af om Infrastructuurwerkruimten en -items te ondersteunen. Voor een volledige lijst met verschillende gedragingen tussen OneLake en ADLS Gen2 bij het aanroepen van deze API's, raadpleegt u de pariteit van OneLake-API.
  • Als u Databricks gebruikt en verbinding wilt maken met Microsoft Fabric, werkt Databricks met ADLS Gen2-API's. Integreer OneLake met Azure Databricks.
  • Om optimaal te profiteren van wat de Delta Lake-opslagindeling voor u kan doen, bekijkt en begrijpt u de indeling, tabeloptimalisatie en V-Order. Optimalisatie van Delta Lake-tabellen en V-Order.
  • Zodra de gegevens zich in OneLake hebben opgeslagen, verkent u lokaal met OneLake Bestandenverkenner. OneLake-bestandsverkenner integreert OneLake naadloos met Windows Bestandenverkenner. Met deze toepassing worden automatisch alle OneLake-items gesynchroniseerd waartoe u toegang hebt in Windows Bestandenverkenner. U kunt ook elk ander hulpprogramma gebruiken dat compatibel is met ADLS Gen2, zoals Azure Storage Explorer.

Diagram waarin wordt getoond hoe OneLake-API's communiceren met Fabric-workloads.

Realtime Intelligence-API's

Realtime intelligence stroomlijnt gegevensanalyse en -visualisatie en biedt een gecentraliseerde oplossing voor onmiddellijke inzichten en acties op gegevens die in beweging zijn binnen een organisatie. Het beheert efficiënt grote hoeveelheden gegevens via robuuste query-, transformatie- en opslagmogelijkheden.

  • Eventhouses zijn speciaal ontworpen voor het streamen van gegevens, compatibel met realtime-hubs en ideaal voor gebeurtenissen op basis van tijd. Gegevens worden automatisch geïndexeerd en gepartitioneerd op basis van opnametijd, waardoor u ongelooflijk snel en complexe analysemogelijkheden voor query's kunt uitvoeren op gegevens met hoge granulariteit die kunnen worden geopend in OneLake voor gebruik in de suite met ervaringen van Fabric. Eventhouses ondersteunen bestaande Eventhouse-API's en SDK's voor directe interactie, zodat ontwikkelaars hun gegevens in Eventhouses kunnen lezen, schrijven en beheren. Meer informatie over REST API.
  • Met gebeurtenisstromen kunt u realtime gebeurtenissen uit verschillende bronnen overbrengen en deze routeren naar verschillende bestemmingen, zoals OneLake, KQL-databases in eventhouses en Data Activator. Meer informatie over gebeurtenisstromen en gebeurtenisstromen-API.
  • Als u Databricks of Jupyter Notebooks gebruikt, kunt u de Kusto Python-clientbibliotheek gebruiken om te werken met KQL-databases in Fabric. Meer informatie over Kusto Python SDK.
  • U kunt de bestaande Microsoft Logic Apps-, Azure Data Factory- of Microsoft Power Automate-connectors gebruiken om te communiceren met uw Eventhouses of KQL-databases.
  • Databasesnelkoppelingen in Realtime Intelligence zijn ingesloten verwijzingen binnen een eventhouse naar een brondatabase. De brondatabase kan een KQL-database zijn in realtime intelligence of een Azure Data Explorer-database. Snelkoppelingen kunnen worden gebruikt voor het delen van gegevens binnen dezelfde tenant of voor meerdere tenants. Meer informatie over het beheren van databasesnelkoppelingen met behulp van de API.

Diagram waarin wordt getoond hoe realtime intelligence-API's communiceren met Fabric-workloads.

Data Factory in Fabric

  • Data Pipelines bieden een uitgebreide set connectors, waardoor ISV's moeiteloos verbinding kunnen maken met een groot aantal gegevensarchieven. Of u nu traditionele databases of moderne cloudoplossingen gebruikt, onze connectors zorgen voor een soepel integratieproces. Overzicht van connectoren.
  • Met onze ondersteunde Dataflow Gen2-connectors kunnen ISV's de kracht van Fabric Data Factory benutten om complexe gegevenswerkstromen te beheren. Deze functie is vooral nuttig voor ISV's die gegevensverwerkings- en transformatietaken willen stroomlijnen. Gegevensstroom Gen2-connectors in Microsoft Fabric.
  • Bekijk deze Data Factory in Fabric-blog voor een volledige lijst met mogelijkheden die worden ondersteund door Data Factory in Fabric.

Schermopname van de Fabric Data Factory-interface.

Snelkoppelingen met meerdere clouds

Met snelkoppelingen in Microsoft OneLake kunt u uw gegevens samenvoegen tussen domeinen, clouds en accounts door één virtuele data lake voor uw hele onderneming te maken. Alle Fabric-ervaringen en analytische engines kunnen rechtstreeks verwijzen naar uw bestaande gegevensbronnen, zoals OneLake in een andere tenant, Azure Data Lake Storage (ADLS) Gen2, Amazon S3-opslagaccounts, Google Cloud Storage (GCS), S3 Compatibele gegevensbronnen en Dataverse via een geïntegreerde naamruimte. OneLake presenteert ISV's met een transformatieve oplossing voor gegevenstoegang, waarbij integratie naadloos wordt overbrugd tussen verschillende domeinen en cloudplatforms.

Diagram met snelkoppelingen met meerdere clouds in OneLake.

Delen van gegevens

Met gegevens delen kunnen Fabric-gebruikers gegevens delen in verschillende Fabric-tenants zonder deze te dupliceren. Deze functie verbetert de samenwerking door het mogelijk te maken dat gegevens 'in-place' kunnen worden gedeeld vanuit OneLake-opslaglocaties. De gegevens worden gedeeld als alleen-lezen, toegankelijk via verschillende Fabric-berekeningsengines, waaronder SQL, Spark, KQL en semantische modellen. Als u deze functie wilt gebruiken, moeten Fabric-beheerders deze inschakelen in zowel de tenants voor delen als ontvangen. Het proces omvat het selecteren van gegevens in de OneLake-gegevenshub of -werkruimte, het configureren van instellingen voor delen en het verzenden van een uitnodiging naar de beoogde ontvanger.

Diagram met het delen van gegevens in Fabric.

Databasespiegeling

Spiegelen biedt een moderne manier om continu en naadloos toegang te krijgen tot en op te nemen van gegevens uit externe databases of datawarehouses in de datawarehousingervaring in Microsoft Fabric. Spiegelen is bijna in realtime, waardoor gebruikers direct toegang hebben tot wijzigingen in de bron. Meer informatie over spiegeling en de ondersteunde databases.

Diagram met databasespiegeling in Fabric.

Ontwikkelen op infrastructuur

Diagram waarin wordt getoond hoe u apps bouwt in Fabric.

Met de ISV's ontwikkelen op fabric-modellen kunnen hun producten en services op fabric bouwen of de functionaliteiten van Fabric naadloos insluiten binnen hun bestaande toepassingen. Het is een overgang van basisintegratie tot het actief toepassen van de mogelijkheden die Fabric biedt. Het belangrijkste integratieoppervlak is via REST API's voor verschillende Fabric-workloads. In de volgende tabel ziet u een subset van REST API's die zijn gegroepeerd op de Fabric-ervaring. Zie de documentatie van de Fabric REST API voor een volledige lijst.

Infrastructuurervaring API
Datawarehouse - Magazijn
- Gespiegeld magazijn
Data engineer - Lakehouse
- Spark
- Spark-taakdefinitie
- Tabellen
- Taken
Data Factory - DataPipeline
Realtime intelligentie - Eventhouse
- KQL-database
- KQL-queryset
- Gebeurtenisstroom
Gegevenswetenschap - Notebook
- ML-experiment
- ML-model
OneLake - Toetsencombinatie
- ADLS Gen2-API's
Power BI - Rapport
- Dashboard
- Semantisch model

Een Infrastructuurworkload bouwen

Diagram waarin wordt getoond hoe u uw eigen infrastructuurworkload maakt.

Het bouwen van een Fabric-workloadmodel is ontworpen om ISV's in staat te stellen aangepaste workloads en ervaringen op het Fabric-platform te maken. Het biedt ISV's de benodigde hulpprogramma's en mogelijkheden om hun aanbiedingen af te stemmen op het Fabric-ecosysteem, waarbij de combinatie van hun unieke waardeproposities wordt geoptimaliseerd met de uitgebreide mogelijkheden van Fabric.

De Microsoft Fabric Workload Development Kit biedt een uitgebreide toolkit voor ontwikkelaars om toepassingen te integreren in de Microsoft Fabric-workloadhub. Dankzij deze integratie kunnen nieuwe mogelijkheden rechtstreeks in de Infrastructuurwerkruimte worden toegevoegd, waardoor het analysetraject voor gebruikers wordt verbeterd. Het biedt ontwikkelaars en ISV's een nieuwe mogelijkheid om klanten te bereiken, zowel vertrouwde als nieuwe ervaringen te leveren en bestaande gegevenstoepassingen te gebruiken. Fabric-beheerders krijgen de mogelijkheid om toegang tot de workloadhub te beheren, deze in te schakelen voor de hele tenant of deze toe te wijzen met een specifiek bereik om de toegang binnen de organisatie te beheren.