Grundlegendes zu den Unterschieden zwischen Dataflowtypen

Dataflows werden verwendet, um Daten zu extrahieren, umzuwandeln und in ein Speicherziel zu laden, wo sie für verschiedene Szenarien genutzt werden können. Da nicht alle Speicherziele dieselben Merkmale aufweisen, unterscheiden sich einige Dataflowfunktionen und Verhaltensweisen je nach dem Speicherziel, in das der Dataflow Daten lädt. Bevor Sie einen Dataflow erstellen, müssen Sie sich darüber im Klaren sein, wie die Daten verwendet werden sollen, und das Speicherziel entsprechend den Anforderungen Ihrer Lösung auswählen.

Die Auswahl eines Speicherziels für einen Dataflow bestimmt den Typ des Dataflows. Ein Dataflow, der Daten in Dataverse-Tabellen lädt, wird als Standard-Dataflowkategorisiert. Dataflows, die Daten in analytische Tabellen laden, werden als analytischer Dataflow kategorisiert.

In Power BI erstellte Dataflows sind immer analytische Dataflows. In Power Apps erstellte Dataflows können entweder standardmäßig oder analytisch sein, je nachdem, was Sie beim Erstellen des Dataflows ausgewählt haben.

Standard-Dataflows

Ein Standard-Dataflow lädt Daten in Dataverse-Tabellen. Standard-Dataflows können nur in Power Apps erstellt werden. Ein Vorteil dieser Art von Dataflow ist, dass jede Anwendung, die von Daten in Dataverse abhängt, mit den Daten arbeiten kann, die durch Standard-Dataflows erstellt wurden. Typische Anwendungen, die Dataverse-Tabellen nutzen, sind Power Apps, Power Automate, AI Builder und Power Virtual Agents.

Erstellen eines Standard-Dataflows.

Versionen der Standard-Dataflows

Wir haben an umfangreichen Aktualisierungen der Standarddatenströme gearbeitet, um ihre Leistung und Zuverlässigkeit zu verbessern. Diese Verbesserungen werden schließlich für alle Standard-Dataflows verfügbar sein. In der Zwischenzeit werden wir jedoch zwischen bestehenden Standard-Dataflows (Version 1) und neuen Standard-Dataflows (Version 2) unterscheiden, indem wir einen Versionsindikator in Power Apps hinzufügen.

Versionen der Standard-Dataflows.

Vergleich der Merkmale der Standard-Dataflowversionen

In der folgenden Tabelle sind die wichtigsten Unterschiede zwischen den Standard-Dataflows V1 und V2 aufgeführt, und sie enthält Informationen über das Verhalten der einzelnen Funktionen in jeder Version.

Feature V1 Standard Standard V2
Maximale Anzahl von Dataflows, die mit automatischem Zeitplan pro Kundenmieter gespeichert werden können 50 Unbegrenzt
Maximale Anzahl von Datensätzen, die pro Abfrage/Tabelle aufgenommen werden 500.000 Unbegrenzt. Die maximale Anzahl der Datensätze, die pro Abfrage oder Tabelle importiert werden können, hängt nun von den Dataverse-Service-Schutzgrenzen zum Zeitpunkt des Ingestion ab.
Geschwindigkeit der Aufnahme in das Dataverse Baselineleistung Die Leistung wurde um einige Faktoren verbessert. Die tatsächlichen Ergebnisse können variieren und hängen von den Merkmalen der eingelesenen Daten und der Auslastung des Dataverse-Dienstes zum Zeitpunkt der Einlesung ab.
Inkrementelle Aktualisierungspolitik Nicht unterstützt Unterstützt
Resilienz Wenn die Schutzgrenzen des Dataverse-Dienstes erreicht sind, wird ein Datensatz bis zu 3 Mal wiederholt. Wenn die Schutzgrenzen des Dataverse-Dienstes erreicht sind, wird ein Datensatz bis zu 3 Mal wiederholt.
Integration von Power Automate Nicht unterstützt Unterstützt

Analytische Dataflows

Ein analytischer Dataflow lädt Daten in Speichertypen, die für Analysen optimiert sind - Azure Data Lake Storage. Microsoft Power Platform-Umgebungen und Power BI-Workspaces bieten Kunden einen verwalteten analytischen Speicherort, der mit diesen Produktlizenzen gebündelt ist. Darüber hinaus können Kunden das Azure Data Lake-Speicherkonto ihres Unternehmens als Ziel für Dataflows verknüpfen.

Analytische Dataflows bieten zusätzliche analytische Funktionen. Zum Beispiel die Integration mit den KI-Funktionen von Power BI oder die Verwendung von berechneten Entitäten, auf die wir später noch eingehen werden.

Sie können in Power BI analytische Dataflows erstellen. Standardmäßig werden die Daten in den verwalteten Speicher von Power BI geladen. Sie können Power BI aber auch so konfigurieren, dass die Daten im Azure Data Lake Storage des Unternehmens gespeichert werden.

Erstellung eines analytischen Dataflows in Power BI.

Sie können auch analytische Dataflows in Power Apps und Dynamics 365 Customer Insights Portalen erstellen. Wenn Sie einen Dataflow im Power Apps-Portal erstellen, können Sie zwischen dem von Dataverse verwalteten analytischen Speicher oder dem Azure Data Lake Storage-Konto Ihres Unternehmens wählen.

Erstellen eines analytischen Dataflows in Power Platform.

KI-Integration

Je nach Anforderung kann es erforderlich sein, einige KI- und maschinelle Lernfunktionen über den Dataflow auf die Daten anzuwenden. Diese Funktionalitäten sind in Power BI-Dataflows verfügbar und erfordern einen Premium-Arbeitsbereich.

KI Insights in einem analytischen Dataflow.

In den folgenden Artikeln wird erörtert, wie AI-Funktionen in einem Dataflow verwendet werden:

Beachten Sie, dass die oben aufgeführten Funktionen spezifisch für Power BI sind und nicht verfügbar sind, wenn Sie einen Dataflow in den Portalen Power Apps oder Dynamics 365 Customer Insights erstellen.

Berechnete Tabellen

Einer der Gründe für die Verwendung einer berechneten Tabelle ist die Fähigkeit, große Datenmengen zu verarbeiten. Die berechnete Tabelle hilft in diesen Szenarien. Wenn Sie eine Tabelle in einem Dataflow haben und eine andere Tabelle in demselben Dataflow die Ausgabe der ersten Tabelle verwendet, erstellt diese Aktion eine berechnete Tabelle.

Die berechnete Tabelle hilft bei der Durchführung der Datentransformationen. Anstatt die in der ersten Tabelle erforderlichen Transformationen mehrfach zu wiederholen, wird die Transformation nur einmal in der berechneten Tabelle durchgeführt. Dann wird das Ergebnis mehrfach in anderen Tabellen verwendet.

Berechnete Tabellen in einem analytischen Dataflow.

Weitere Informationen über berechnete Tabellen finden Sie unter Erstellen von berechneten Tabellen in Dataflows.

Berechnete Tabellen sind nur in einem analytischen Dataflow verfügbar.

Standard- vs. analytische Dataflows

In der folgenden Tabelle sind einige Unterschiede zwischen einer Standardtabelle und einer analytischen Tabelle aufgeführt.

Vorgang Standard Analytisch
Vorgehensweise: Erstellen Power Platform-Dataflows Power BI-Dataflows
Power Platform-Dataflows durch Auswahl des Kontrollkästchens Analytical Entities only beim Erstellen des Dataflows
Speicheroptionen Dataverse Von Power BI bereitgestellter Azure Data Lake-Speicher für Power BI-Dataflows, von Dataverse bereitgestellter Azure Data Lake-Speicher für Power Platform-Dataflows oder vom Kunden bereitgestellter Azure Data Lake-Speicher
Power Query-Umwandlungen Ja Ja
KI-Funktionen No Ja
Berechnete Tabelle No Ja
Kann in anderen Anwendungen verwendet werden Ja, durch Dataverse Power BI-Dataflows: Nur in Power BI
Power Platform-Dataflows oder externe Power BI-Dataflows: Ja, über Azure Data Lake Storage
Zuordnung zur Standardtabelle Ja Ja
Inkrementelles Laden Standardmäßige inkrementelle Belastung
Kann über das Kontrollkästchen Zeilen löschen, die in der Abfrageausgabe nicht mehr vorhanden sind bei den Ladeeinstellungen geändert werden
Standard-Volllast
Es ist möglich, eine inkrementelle Aktualisierung einzurichten, indem die inkrementelle Aktualisierung in den Datafloweinstellungen eingerichtet wird
Geplante Aktualisierung Ja Ja, die Möglichkeit, die Datafloweigentümer bei einem Ausfall zu benachrichtigen

Szenarien für die Verwendung der einzelnen Dataflowtypen

Im Folgenden finden Sie einige Beispielszenarien und Empfehlungen für bewährte Verfahren für jede Art von Dataflow.

Plattformübergreifende Nutzung - Standard-Dataflow

Wenn Ihr Plan für die Erstellung von Dataflows darin besteht, gespeicherte Daten in mehreren Plattformen zu verwenden (nicht nur Power BI, sondern auch andere Microsoft Power Platform-Dienste, Dynamics 365 usw.), ist ein Standard-Dataflow eine gute Wahl. Standard-Dataflows speichern die Daten in Dataverse, auf das Sie über viele andere Plattformen und Dienste zugreifen können.

Umfangreiche Datentransformationen bei großen Datentabellen - analytischer Dataflow

Analytische Dataflows sind eine hervorragende Option für die Verarbeitung großer Datenmengen. Analytische Dataflows erhöhen auch die Rechenleistung hinter der Transformation. Wenn die Daten in Azure Data Lake Storage gespeichert werden, erhöht sich die Schreibgeschwindigkeit an einem Zielort. Im Vergleich zu Dataverse (bei dem zum Zeitpunkt der Datenspeicherung viele Regeln überprüft werden müssen) ist Azure Data Lake Storage schneller für Lese-/Schreibtransaktionen bei großen Datenmengen.

AI-Funktionen - analytischer Dataflow

Wenn Sie planen, KI-Funktionen in der Datenumwandlungsphase zu nutzen, ist es hilfreich, einen analytischen Dataflow zu verwenden, da Sie alle unterstützten KI-Funktionen mit dieser Art von Dataflow nutzen können.