Beslissingshandleiding voor Microsoft Fabric: kopieeractiviteit, gegevensstroom of Spark
Gebruik deze referentiehandleiding en de voorbeeldscenario's om te bepalen of u een kopieeractiviteit, een gegevensstroom of Spark nodig hebt voor uw Microsoft Fabric-workloads.
eigenschappen Copy-activiteit, gegevensstroom en Spark
Kopieeractiviteit pijplijn | Gegevensstroom Gen 2 | Spark | |
---|---|---|---|
Gebruiksscenario | Data lake- en datawarehouse-migratie, gegevensopname, lichtgewicht transformatie |
Gegevensopname, gegevenstransformatie, gegevens wrangling, gegevensprofilering |
Gegevensopname, gegevenstransformatie, gegevensverwerking, gegevensprofilering |
Primaire persona voor ontwikkelaars | Data engineer, gegevensintegrator |
Data engineer, gegevensintegrator, bedrijfsanalist |
Data engineer, data scientist, gegevensontwikkelaar |
Vaardighedenset voor primaire ontwikkelaars | ETL SQL JSON |
ETL M SQL |
Spark (Scala, Python, Spark SQL, R) |
Geschreven code | Geen code, lage code |
Geen code, lage code |
Code |
Gegevensvolume | Laag naar hoog | Laag naar hoog | Laag naar hoog |
Ontwikkelinterface | Wizard Canvas |
Power Query | Notebook Spark-taakdefinitie |
Bronnen | 30+ connectors | 150+ connectors | Honderden Spark-bibliotheken |
Bestemmingen | 18+ connectors | Lakehouse, Azure SQL-database, Azure Data Explorer, Azure Synapse Analytics |
Honderden Spark-bibliotheken |
Complexiteit van transformatie | Laag: lichtgewicht - typeconversie, kolomtoewijzing, samenvoeging/gesplitste bestanden, platgemaakte hiërarchie |
Laag tot hoog: Meer dan 300 transformatiefuncties |
Laag tot hoog: ondersteuning voor systeemeigen Spark- en opensource-bibliotheken |
Bekijk de volgende drie scenario's voor hulp bij het kiezen van uw gegevens in Fabric.
Scenario 1
Leo, een data engineer, moet een grote hoeveelheid gegevens opnemen uit externe systemen, zowel on-premises als in de cloud. Deze externe systemen omvatten databases, bestandssystemen en API's. Leo wil geen code schrijven en onderhouden voor elke connector- of gegevensverplaatsingsbewerking. Hij wil de best practices voor medailles in lagen volgen, met brons, zilver en goud. Leo heeft geen ervaring met Spark, dus hij geeft de voorkeur aan de gebruikersinterface voor slepen en neerzetten, met minimale codering. En hij wil ook de gegevens volgens een schema verwerken.
De eerste stap is het ophalen van de onbewerkte gegevens in het bronslaag lakehouse van Azure-gegevensbronnen en verschillende bronnen van derden (zoals Snowflake Web, REST, AWS S3, GCS, enzovoort). Hij wil een geconsolideerd lakehouse, zodat alle gegevens uit verschillende LOB-, on-premises en cloudbronnen zich op één plaats bevinden. Leo beoordeelt de opties en selecteert pijplijnkopieactiviteit als de juiste keuze voor zijn onbewerkte binaire kopie. Dit patroon is van toepassing op zowel historische als incrementele gegevensvernieuwing. Met kopieeractiviteit kan Leo Gold-gegevens laden in een datawarehouse zonder code als dat nodig is en pijplijnen grootschalige gegevensopname bieden waarmee petabyte-scale-gegevens kunnen worden verplaatst. Copy-activiteit is de beste keuze voor weinig code en geen code om petabytes aan gegevens te verplaatsen naar lakehouses en magazijnen van soorten bronnen, ad-hoc of via een schema.
Scenario 2
Mary is een data engineer met uitgebreide kennis van de rapportagevereisten voor meerdere LOB-analyse. Een upstream-team heeft een oplossing geïmplementeerd om historische en incrementele gegevens van meerdere LOB's te migreren naar een common lakehouse. Mary is belast met het opschonen van de gegevens, het toepassen van bedrijfslogica en het laden ervan in meerdere bestemmingen (zoals Azure SQL DB, ADX en een lakehouse) ter voorbereiding op hun respectieve rapportageteams.
Mary is een ervaren Power Query-gebruiker en het gegevensvolume bevindt zich in het lage tot middelgrote bereik om de gewenste prestaties te bereiken. Gegevensstromen bieden interfaces zonder code of weinig code voor het opnemen van gegevens uit honderden gegevensbronnen. Met gegevensstromen kunt u gegevens transformeren met behulp van meer dan 300 opties voor gegevenstransformatie en de resultaten naar meerdere bestemmingen schrijven met een gebruiksvriendelijke, zeer visuele gebruikersinterface. Mary beoordeelt de opties en besluit dat het zinvol is om Dataflow Gen 2 te gebruiken als voorkeurstransformatieoptie.
Scenario 3
Adam is een data engineer die werkt voor een groot retailbedrijf dat gebruikmaakt van een lakehouse om de klantgegevens op te slaan en te analyseren. Als onderdeel van zijn taak is Adam verantwoordelijk voor het bouwen en onderhouden van de gegevenspijplijnen die gegevens extraheren, transformeren en laden in lakehouse. Een van de zakelijke vereisten van het bedrijf is het uitvoeren van analyse van klanten om inzicht te krijgen in de ervaringen van hun klanten en hun services te verbeteren.
Adam besluit de beste optie om Spark te gebruiken om de logica voor extraheren en transformatie te bouwen. Spark biedt een gedistribueerd computingplatform dat grote hoeveelheden gegevens parallel kan verwerken. Hij schrijft een Spark-toepassing met Behulp van Python of Scala, die gestructureerde, semi-gestructureerde en ongestructureerde gegevens uit OneLake leest voor beoordelingen en feedback van klanten. De toepassing schoont, transformeert en schrijft gegevens naar Delta-tabellen in lakehouse. De gegevens kunnen vervolgens worden gebruikt voor downstreamanalyse.