Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Tip
Power BI Dataflow Gen1 befindet sich jetzt in einem Legacyzustand und erhält keine neuen Featureinvestitionen. Für Premium-Kunden mit Fabric-Zugriff ist Dataflow Gen2 der empfohlene Weg, der Verbesserungen an Leistung, Skalierung, Zuverlässigkeit, Funktionalität und integrierter KI bietet. Pro/PPU-Kunden können Gen1 weiterhin verwenden, während die Richtlinien für Gen2 sich für diese Szenarien weiterentwickeln. Anleitungen zum Upgrade von Dataflow Gen1 auf Dataflow Gen2 finden Sie unter dem Titel "Upgrade von Dataflow Gen1 auf Dataflow Gen2".
Power BI-Dataflows sind eine auf das Unternehmen fokussierte Lösung für die Datenaufbereitung, die ein Ökosystem aus Daten ermöglicht, das sofort für die Nutzung, Wiederverwendung und Integration zur Verfügung steht. Dieser Artikel enthält eine Liste der bewährten Methoden mit Links zu Artikeln und anderen Informationen, die Ihnen helfen, Dataflows zu verstehen und deren Potenzial vollständig auszuschöpfen.
Dataflows über die Power Platform
Dataflows können im Zusammenhang mit verschiedenen Power Platform-Technologien wie Power Query, Microsoft Dynamics 365 und anderen Angeboten von Microsoft verwendet werden. Weitere Informationen darüber, wie Dataflows in der Power Platform funktionieren können, finden Sie unter Was sind Dataflows.
Gelöschte Datenflüsse können nicht wiederhergestellt werden
Gelöschte Datenflüsse können nicht wiederhergestellt werden, aber Sie können sie mit verschiedenen Methoden sichern, die in diesem Abschnitt beschrieben sind.
Wenn Sie die Azure-Speicherverbindung in Ihrem Power BI-Arbeitsbereich aktivieren, werden automatisch Kopien Ihrer Datenflussdefinition und Momentaufnahmen in einem Datensee gespeichert. Anschließend können Sie einen gelöschten oder geänderten Datenfluss wiederherstellen, indem Sie die Datei „model.json“ aus dem Datensee herunterladen und dann wieder in Power BI importieren.
Sie können Power Automate oder Azure Logic Apps verwenden, um Ihre Datenflussdefinition in eine JSON-Datei zu exportieren und sie dann in SharePoint oder Azure Data Lake Gen2 zu speichern. Mithilfe einer dieser Methoden können Sie Ihren Datenfluss mithilfe alternativer Dateispeicheroptionen sichern und den Prozess automatisieren.
Sie können ihren Datenfluss auch manuell in eine JSON-Datei exportieren und in einen anderen Arbeitsbereich oder Speicherort importieren. Das manuelle Exportieren des Datenflusses ist einfach und schnell, ist jedoch ein manueller Vorgang, der jedes Mal durchgeführt werden muss, wenn Sie den Datenfluss sichern möchten.
Die Funktion "Speichern unter" für Datenflüsse wird im Falle einer Notfallwiederherstellung nicht unterstützt, da sie eine Kopie im gleichen Arbeitsbereich erstellt.
Tabelle mit bewährten Methoden und Links für Dataflows
Die folgende Tabelle bietet eine Sammlung von Links zu Artikeln, in denen bewährte Methoden für das Erstellen von oder Arbeiten mit Dataflows beschrieben werden. Dies sind Links zu Artikeln mit Informationen zum Entwickeln einer Geschäftslogik, dem Entwickeln komplexer Dataflows, dem Wiederverwenden von Dataflows und dem Erreichen der Skalierbarkeit auf Unternehmensniveau im Zusammenhang mit Ihren Dataflows.
| Thema | Leitfadenbereich | Link zu Artikel oder Inhalt |
|---|---|---|
| Power Query | Tipps und Tricks für Ihr bestmögliches Data-Wrangling-Erlebnis | Bewährte Methoden beim Arbeiten mit Power Query |
| Nutzen berechneter Tabellen | Leistungsvorteile bei der Verwendung berechneter Tabellen in einem Dataflow | Szenarien für berechnete Tabellen |
| Entwickeln komplexer Dataflows | Muster für die Entwicklung umfangreicher, leistungsfähiger Dataflows | Bewährte Methoden für das Entwerfen und Entwickeln komplexer Dataflows |
| Wiederverwenden von Dataflows | Muster, Leitfaden und Anwendungsfälle | Bewährte Methoden für die Wiederverwendung von Dataflows in Umgebungen und Arbeitsbereichen |
| Umfangreiche Implementierungen | Einsatz und Leitfaden für großflächige Nutzung zur Ergänzung der Unternehmensarchitektur | Bewährte Methoden zum Erstellen eines Dimensionsmodells mithilfe von Dataflows |
| Verwendung von erweitertem Rechnen | Mögliche Verbesserung der Dataflowleistung um das bis zu 25-Fache | Verwenden der Compute-Engine zum Verbessern der Leistung |
| Optimieren der Workloadeinstellungen | Nutzen Sie Ihre Dataflows-Infrastruktur optimal aus, indem Sie verstehen, welche Stellhebel Sie betätigen können, um die Leistung zu maximieren. | Konfigurieren von Power BI Premium-Dataflow-Workloads |
| Verknüpfen und Erweitern von Tabellen | Erstellen leistungsfähiger Verknüpfungen | Optimieren von Power Query beim Erweitern von Tabellenspalten |
| Leitfaden zum Query Folding | Beschleunigen von Transformationen mithilfe des Quellsystems | Abfragefaltung in Power Query |
| Datenprofilierung verwenden | Verstehen Sie die Spaltenqualität, -verteilung und -profile. | Verwenden der Tools zur Datenprofilerstellung |
| Fehlerbehandlung implementieren | Entwickeln robuster Dataflows, die in Bezug auf Aktualisierungsfehler resilient sind (mit Vorschlägen) |
Umgang mit Fehlern in der Power Query-Fehlerbehandlung |
| Verwenden der Schemaansicht | Verbesserung der Benutzererfahrung beim Erstellen von Dokumenten bei der Arbeit mit einer großen Tabelle und beim Ausführen von Vorgängen auf Schemaebene | Schemaansicht |
| Verknüpfte Tabellen | Wiederverwenden von und Verweisen auf Transformationen | Erstellen eines Dataflows aus verknüpften Tabellen |
| Inkrementelle Aktualisierung | Laden der neuesten oder geänderten Daten im Vergleich zum vollständigen erneuten Laden | Inkrementelle Aktualisierung mit Dataflows verwenden |
Zugehöriger Inhalt
In den folgenden Artikeln finden Sie weitere Informationen zu Dataflows und Power BI:
- Einführung in Dataflows und Self-Service-Datenaufbereitung
- Erstellen eines Dataflows
- Konfigurieren und Verwenden eines Dataflows
- Premiumfunktionen von Dataflows
- Konfigurieren des Dataflowspeichers zur Verwendung von Azure Data Lake Gen 2
- Planung der Power BI-Implementierung – Integration in andere Dienste
- Überlegungen und Einschränkungen zu Dataflows