Erstellen und Verwenden von Dataflows in Microsoft Power Platform

Die Verwendung von Dataflows mit Microsoft Power Platform erleichtert die Datenvorbereitung und ermöglicht die Wiederverwendung Ihrer Datenvorbereitung in nachfolgenden Berichten, Anwendungen und Modellen.

In der Welt der ständig wachsenden Datenmengen kann die Datenaufbereitung schwierig und teuer sein. Sie kann bis zu 60 bis 80 Prozent der Zeit und Kosten eines typischen Analyseprojekts in Anspruch nehmen. Solche Projekte können den Umgang mit fragmentierten und unvollständigen Daten, eine komplexe Systemintegration, Daten mit strukturellen Inkonsistenzen und eine hohe Qualifikationshürde erfordern.

Um die Datenaufbereitung zu vereinfachen und Ihnen dabei zu helfen, mehr aus Ihren Daten herauszuholen, wurden die Dataflows Power Query und Power Platform entwickelt.

Screenshot showing how to select the Power Platform Dataflows connector.

Mit Dataflows bringt Microsoft die Self-Service-Datenvorbereitungsfunktionen von Power Query in die Online-Dienste Power BI und Power Apps ein und erweitert die bestehenden Funktionen auf folgende Weise:

  • Self-Service-Datenvorbereitung für Big Data mit Dataflows: Dataflows können verwendet werden, um Daten aus einer großen und ständig wachsenden Anzahl von Transaktions- und Beobachtungsquellen auf einfache Weise aufzunehmen, zu bereinigen, umzuwandeln, zu integrieren, anzureichern und zu schematisieren, wobei die gesamte Datenaufbereitungslogik berücksichtigt wird. Bisher konnte die ETL-Logik (Extrahieren, Transformieren, Laden) nur in semantischen Modellen in Power BI enthalten sein, immer wieder zwischen semantischen Modellen kopiert werden und an Einstellungen für die Verwaltung von semantischen Modellen gebunden sein.

    Mit Dataflows wird die ETL-Logik zu einem erstklassigen Artefakt innerhalb der Microsoft Power Platform-Dienste erhoben und umfasst spezielle Authoring- und Verwaltungsfunktionen. Unternehmensanalysten, BI-Experten und Datenwissenschaftler können mit Dataflows die komplexesten Herausforderungen bei der Datenaufbereitung bewältigen und dank einer revolutionären modellgesteuerten Berechnungs-Engine gegenseitig auf ihrer Arbeit aufbauen. Diese Engine kümmert sich um die gesamte Transformations- und Abhängigkeitslogik und reduziert Zeit, Kosten und Fachwissen auf einen Bruchteil dessen, was bisher für diese Aufgaben erforderlich war. Sie können Dataflows erstellen, indem Sie die bekannte Self-Service-Datenvorbereitung von Power Query nutzen. Dataflows werden in App-Workspaces oder -Umgebungen in Power BI bzw. Power Apps erstellt und einfach verwaltet, wobei alle Funktionen dieser Dienste genutzt werden können, z. B. die Verwaltung von Berechtigungen und geplante Aktualisierungen.

  • Laden von Daten in Dataverse oder Azure Data Lake Storage: Je nach Anwendungsfall können Sie die von Power Platform-Dataflows aufbereiteten Daten im Dataverse oder im Azure Data Lake Storage-Konto Ihres Unternehmens speichern:

    • Dataverse ermöglicht Ihnen die sichere Speicherung und Verwaltung von Daten, die von Geschäftsanwendungen genutzt werden. Die Daten in Dataverse werden in einer Reihe von Tabellen gespeichert. Eine Tabelle ist eine Reihe von Zeilen (früher als Datensätze bezeichnet) und Spalten (früher als Felder/Attribute bezeichnet). Jede Spalte in der Tabelle dient zum Speichern eines bestimmten Datentyps, z. B. Name, Alter, Gehalt usw. Dataverse enthält eine Reihe von Standardtabellen, die typische Szenarien abdecken. Sie können aber auch benutzerdefinierte Tabellen für Ihr Unternehmen erstellen und diese mit Daten füllen, indem Sie Dataflows verwenden. App-Entwickler können dann Power Apps und Power Automate verwenden, um umfangreiche Anwendungen zu erstellen, die diese Daten nutzen.

    • Azure Data Lake Storage ermöglicht die Zusammenarbeit mit Personen in Ihrer Organisation mithilfe von Power BI, Azure Data und KI-Diensten oder mithilfe von benutzerdefinierten Branchenanwendungen, die Daten aus dem Lake lesen. Dataflows, die Daten in ein Azure Data Lake Storage-Konto laden, speichern Daten in Common Data Model-Ordnern. Common Data Model-Ordner enthalten schematisierte Daten und Metadaten in einem standardisierten Format, um den Datenaustausch zu erleichtern und eine vollständige Interoperabilität zwischen Diensten zu ermöglichen, die Daten erzeugen oder nutzen, die im Azure Data Lake Storage-Konto eines Unternehmens als gemeinsame Speicherebene gespeichert sind.

  • Erweiterte Analysen und KI mit Azure: Power Platform-Dataflows speichern Daten in Dataverse oder Azure Data Lake Storage. Das bedeutet, dass Daten, die durch Dataflows aufgenommen werden, jetzt für Dateningenieure und Datenwissenschaftler verfügbar sind, um die volle Leistung von Azure Data Services, wie Azure Machine Learning, Azure Databricks und Azure Synapse Analytics für erweiterte Analysen und KI, zu nutzen. Dies ermöglicht es Geschäftsanalysten, Dateningenieuren und Datenwissenschaftlern, innerhalb ihrer Organisation an denselben Daten zusammenzuarbeiten.

  • Unterstützung für das gemeinsame Datenmodell: Das gemeinsame Datenmodell ist ein Satz standardisierter Datenschemata und ein Metadatensystem, das die Konsistenz von Daten und ihrer Bedeutung über Anwendungen und Geschäftsprozesse hinweg ermöglicht. Dataflows unterstützen das Common Data Model, indem sie ein einfaches Mapping von beliebigen Daten in beliebiger Form in die Standardtabellen des Common Data Model, wie z. B. Konto und Kontakt, ermöglichen. Dataflows landen auch die Daten, sowohl Standard- als auch benutzerdefinierte Tabellen, in schematisierter Common Data Model-Form. Unternehmensanalysten können die Vorteile des Standardschemas und seiner semantischen Konsistenz nutzen oder ihre Tabellen auf der Grundlage ihrer individuellen Anforderungen anpassen. Das gemeinsame Datenmodell wird im Rahmen der Open Data Initiativeweiterentwickelt.

Dataflow-Funktionen in Microsoft Power Platform-Diensten

Die meisten Dataflowfunktionen sind sowohl in Power Apps als auch in Power BI verfügbar. Dataflows sind im Rahmen der Pläne dieser Dienste verfügbar. Einige Dataflowfunktionen sind entweder produktspezifisch oder in verschiedenen Produktplänen verfügbar. In der folgenden Tabelle werden die Dataflowfunktionen und ihre Verfügbarkeit beschrieben.

Dataflow-Fähigkeit Power Apps Power BI
Geplante Aktualisierung Bis zu 48 pro Tag Bis zu 48 pro Tag
Maximale Aktualisierungszeit pro Tabelle Bis zu 2 Stunden Bis zu 2 Stunden
Dataflowerstellung mit Power Query Online Ja Ja
Verwaltung des Dataflows Im Power Apps-Verwaltungsportal Im Power BI-Verwaltungsportal
Neue Connectors Ja Ja
Standardisiertes Schema / integrierte Unterstützung für das Common Data Model Ja Ja
Dataflows Datenverbindung in Power BI Desktop Für Dataflows mit Azure Data Lake Storage als Ziel Ja
Integration mit dem Azure Data Lake Storage des Unternehmens Ja Ja
Integration in Dataverse Ja Nein
Mit Dataflow verbundene Tabellen Für Dataflows mit Azure Data Lake Storage als Ziel Ja
Berechnete Tabellen (speicherinterne Transformationen mit M) Für Dataflows mit Azure Data Lake Storage als Ziel nur Power BI Premium
Inkrementelle Aktualisierung des Dataflows Für Dataflows mit Azure Data Lake Storage als Ziel ist Power Apps Plan2 erforderlich nur Power BI Premium
Ausführung auf Power BI Premium Kapazität / parallele Ausführung von Transformationen Nein Ja

Bekannte Einschränkungen

Nächste Schritte

Weitere Informationen über Dataflows in Power Apps:

Weitere Informationen über Dataflows in Power BI:

In den folgenden Artikeln wird näher auf gängige Verwendungsszenarien für Dataflows eingegangen.

Weitere Informationen über das Common Data Model und den Common Data Model Ordnerstandard finden Sie in den folgenden Artikeln: