Erstellen und Verwenden von Dataflows in Microsoft Power Platform
Die Verwendung von Dataflows mit Microsoft Power Platform erleichtert die Datenvorbereitung und ermöglicht die Wiederverwendung Ihrer Datenvorbereitung in nachfolgenden Berichten, Anwendungen und Modellen.
In der Welt der ständig wachsenden Datenmengen kann die Datenaufbereitung schwierig und teuer sein. Sie kann bis zu 60 bis 80 Prozent der Zeit und Kosten eines typischen Analyseprojekts in Anspruch nehmen. Solche Projekte können den Umgang mit fragmentierten und unvollständigen Daten, eine komplexe Systemintegration, Daten mit strukturellen Inkonsistenzen und eine hohe Qualifikationshürde erfordern.
Um die Datenaufbereitung zu vereinfachen und Ihnen dabei zu helfen, mehr aus Ihren Daten herauszuholen, wurden die Dataflows Power Query und Power Platform entwickelt.
Mit Dataflows bringt Microsoft die Self-Service-Datenvorbereitungsfunktionen von Power Query in die Online-Dienste Power BI und Power Apps ein und erweitert die bestehenden Funktionen auf folgende Weise:
Self-Service-Datenvorbereitung für Big Data mit Dataflows: Dataflows können verwendet werden, um Daten aus einer großen und ständig wachsenden Anzahl von Transaktions- und Beobachtungsquellen auf einfache Weise aufzunehmen, zu bereinigen, umzuwandeln, zu integrieren, anzureichern und zu schematisieren, wobei die gesamte Datenaufbereitungslogik berücksichtigt wird. Bisher konnte die ETL-Logik (Extrahieren, Transformieren, Laden) nur in semantischen Modellen in Power BI enthalten sein, immer wieder zwischen semantischen Modellen kopiert werden und an Einstellungen für die Verwaltung von semantischen Modellen gebunden sein.
Mit Dataflows wird die ETL-Logik zu einem erstklassigen Artefakt innerhalb der Microsoft Power Platform-Dienste erhoben und umfasst spezielle Authoring- und Verwaltungsfunktionen. Unternehmensanalysten, BI-Experten und Datenwissenschaftler können mit Dataflows die komplexesten Herausforderungen bei der Datenaufbereitung bewältigen und dank einer revolutionären modellgesteuerten Berechnungs-Engine gegenseitig auf ihrer Arbeit aufbauen. Diese Engine kümmert sich um die gesamte Transformations- und Abhängigkeitslogik und reduziert Zeit, Kosten und Fachwissen auf einen Bruchteil dessen, was bisher für diese Aufgaben erforderlich war. Sie können Dataflows erstellen, indem Sie die bekannte Self-Service-Datenvorbereitung von Power Query nutzen. Dataflows werden in App-Workspaces oder -Umgebungen in Power BI bzw. Power Apps erstellt und einfach verwaltet, wobei alle Funktionen dieser Dienste genutzt werden können, z. B. die Verwaltung von Berechtigungen und geplante Aktualisierungen.
Laden von Daten in Dataverse oder Azure Data Lake Storage: Je nach Anwendungsfall können Sie die von Power Platform-Dataflows aufbereiteten Daten im Dataverse oder im Azure Data Lake Storage-Konto Ihres Unternehmens speichern:
Dataverse ermöglicht Ihnen die sichere Speicherung und Verwaltung von Daten, die von Geschäftsanwendungen genutzt werden. Die Daten in Dataverse werden in einer Reihe von Tabellen gespeichert. Eine Tabelle ist eine Reihe von Zeilen (früher als Datensätze bezeichnet) und Spalten (früher als Felder/Attribute bezeichnet). Jede Spalte in der Tabelle dient zum Speichern eines bestimmten Datentyps, z. B. Name, Alter, Gehalt usw. Dataverse enthält eine Reihe von Standardtabellen, die typische Szenarien abdecken. Sie können aber auch benutzerdefinierte Tabellen für Ihr Unternehmen erstellen und diese mit Daten füllen, indem Sie Dataflows verwenden. App-Entwickler können dann Power Apps und Power Automate verwenden, um umfangreiche Anwendungen zu erstellen, die diese Daten nutzen.
Azure Data Lake Storage ermöglicht die Zusammenarbeit mit Personen in Ihrer Organisation mithilfe von Power BI, Azure Data und KI-Diensten oder mithilfe von benutzerdefinierten Branchenanwendungen, die Daten aus dem Lake lesen. Dataflows, die Daten in ein Azure Data Lake Storage-Konto laden, speichern Daten in Common Data Model-Ordnern. Common Data Model-Ordner enthalten schematisierte Daten und Metadaten in einem standardisierten Format, um den Datenaustausch zu erleichtern und eine vollständige Interoperabilität zwischen Diensten zu ermöglichen, die Daten erzeugen oder nutzen, die im Azure Data Lake Storage-Konto eines Unternehmens als gemeinsame Speicherebene gespeichert sind.
Erweiterte Analysen und KI mit Azure: Power Platform-Dataflows speichern Daten in Dataverse oder Azure Data Lake Storage. Das bedeutet, dass Daten, die durch Dataflows aufgenommen werden, jetzt für Dateningenieure und Datenwissenschaftler verfügbar sind, um die volle Leistung von Azure Data Services, wie Azure Machine Learning, Azure Databricks und Azure Synapse Analytics für erweiterte Analysen und KI, zu nutzen. Dies ermöglicht es Geschäftsanalysten, Dateningenieuren und Datenwissenschaftlern, innerhalb ihrer Organisation an denselben Daten zusammenzuarbeiten.
Unterstützung für das gemeinsame Datenmodell: Das gemeinsame Datenmodell ist ein Satz standardisierter Datenschemata und ein Metadatensystem, das die Konsistenz von Daten und ihrer Bedeutung über Anwendungen und Geschäftsprozesse hinweg ermöglicht. Dataflows unterstützen das Common Data Model, indem sie ein einfaches Mapping von beliebigen Daten in beliebiger Form in die Standardtabellen des Common Data Model, wie z. B. Konto und Kontakt, ermöglichen. Dataflows landen auch die Daten, sowohl Standard- als auch benutzerdefinierte Tabellen, in schematisierter Common Data Model-Form. Unternehmensanalysten können die Vorteile des Standardschemas und seiner semantischen Konsistenz nutzen oder ihre Tabellen auf der Grundlage ihrer individuellen Anforderungen anpassen. Das gemeinsame Datenmodell wird im Rahmen der Open Data Initiativeweiterentwickelt.
Dataflow-Funktionen in Microsoft Power Platform-Diensten
Die meisten Dataflowfunktionen sind sowohl in Power Apps als auch in Power BI verfügbar. Dataflows sind im Rahmen der Pläne dieser Dienste verfügbar. Einige Dataflowfunktionen sind entweder produktspezifisch oder in verschiedenen Produktplänen verfügbar. In der folgenden Tabelle werden die Dataflowfunktionen und ihre Verfügbarkeit beschrieben.
Dataflow-Fähigkeit | Power Apps | Power BI |
---|---|---|
Geplante Aktualisierung | Bis zu 48 pro Tag | Bis zu 48 pro Tag |
Maximale Aktualisierungszeit pro Tabelle | Bis zu 2 Stunden | Bis zu 2 Stunden |
Dataflowerstellung mit Power Query Online | Ja | Ja |
Verwaltung des Dataflows | Im Power Apps-Verwaltungsportal | Im Power BI-Verwaltungsportal |
Neue Connectors | Ja | Ja |
Standardisiertes Schema / integrierte Unterstützung für das Common Data Model | Ja | Ja |
Dataflows Datenverbindung in Power BI Desktop | Für Dataflows mit Azure Data Lake Storage als Ziel | Ja |
Integration mit dem Azure Data Lake Storage des Unternehmens | Ja | Ja |
Integration in Dataverse | Ja | Nein |
Mit Dataflow verbundene Tabellen | Für Dataflows mit Azure Data Lake Storage als Ziel | Ja |
Berechnete Tabellen (speicherinterne Transformationen mit M) | Für Dataflows mit Azure Data Lake Storage als Ziel | nur Power BI Premium |
Inkrementelle Aktualisierung des Dataflows | Für Dataflows mit Azure Data Lake Storage als Ziel ist Power Apps Plan2 erforderlich | nur Power BI Premium |
Ausführung auf Power BI Premium Kapazität / parallele Ausführung von Transformationen | Nein | Ja |
Bekannte Einschränkungen
- Das Kopieren von Dataflows als Teil eines Kopiervorgangs der Power Platform-Umgebung wird nicht unterstützt.
Nächste Schritte
Weitere Informationen über Dataflows in Power Apps:
- Self-Service-Datenvorbereitung in Power Apps
- Erstellen und Verwenden von Dataflows in Power Apps
- Verbinden Sie Azure Data Lake Storage Gen2 für die Dataflowspeicherung
- Hinzufügen von Daten zu einer Tabelle in Dataverse mithilfe von Power Query
- Besuchen Sie die Power Apps dataflow community und tauschen Sie sich über Ihre Arbeit aus, stellen Sie Fragen oder reichen Sie neue Ideen ein
- Besuchen Sie das Power Apps Dataflow Community Forum und teilen Sie mit, was Sie tun, stellen Sie Fragen oder reichen Sie unter neue Ideen ein
Weitere Informationen über Dataflows in Power BI:
- Self-Service-Datenaufbereitung in Power BI
- Dataflows in Power BI erstellen und verwenden
- Whitepaper über Dataflows
- Detailliertes Video eines Dataflow-Walkthroughs
- Besuchen Sie die Power BI-Community dataflows und teilen Sie Ihre Erfahrungen mit, stellen Sie Fragen oder reichen Sie neue Ideen ein
In den folgenden Artikeln wird näher auf gängige Verwendungsszenarien für Dataflows eingegangen.
- Verwenden der inkrementellen Aktualisierung mit Dataflows
- Erstellen von berechneten Tabellen in Dataflows
- Verbindung zu Datenquellen für Dataflows
- Verknüpfung von Tabellen zwischen Dataflows
Weitere Informationen über das Common Data Model und den Common Data Model Ordnerstandard finden Sie in den folgenden Artikeln: