Freigeben über


Verstehen und Optimieren der Aktualisierung von Datenflüssen

Mit Power BI-Datenflüssen können Sie Daten verbinden, transformieren, kombinieren und für nachgelagerte Analysen verteilen. Ein wichtiges Element in Datenflüssen ist der Aktualisierungsprozess, der die Transformationsschritte anwendet, die Sie in den Datenflüssen erstellt haben, und aktualisiert die Daten in den Elementen selbst.

Um Laufzeiten, Leistung und die optimale Nutzung ihres Datenflusses zu verstehen, können Sie den Aktualisierungsverlauf herunterladen, nachdem Sie einen Datenfluss aktualisiert haben.

Aktualisierungen verstehen

Es gibt zwei Arten von Aktualisierungen für Datenflüsse:

  • Vollständig, wodurch eine vollständige Spülung und erneutes Laden Ihrer Daten ausgeführt wird.

  • Inkrementelle (nur Premium),die eine Teilmenge Ihrer Daten basierend auf zeitbasierten Regeln verarbeitet, ausgedrückt als Filter, die Sie konfigurieren. Der Filter in der Datumsspalte partitioniert die Daten dynamisch in Bereiche im Power BI-Dienst. Nachdem Sie die inkrementelle Aktualisierung konfiguriert haben, ändert der Datenfluss ihre Abfrage automatisch so, dass sie nach Datum gefiltert wird. Sie können die automatisch generierte Abfrage bearbeiten, indem Sie den erweiterten Editor in Power Query verwenden, um Ihre Aktualisierung zu optimieren oder anzupassen. Wenn Sie Ihren eigenen Azure Data Lake Storage mitbringen, können Sie Zeitsegmente Ihrer Daten basierend auf der von Ihnen festgelegten Aktualisierungsrichtlinie sehen.

    Hinweis

    Weitere Informationen zur inkrementellen Aktualisierung und deren Funktionsweise finden Sie unter Verwenden der inkrementellen Aktualisierung mit Datenflüssen.

Die inkrementelle Aktualisierung ermöglicht große Datenflüsse in Power BI mit den folgenden Vorteilen:

  • Aktualisierungen sind aufgrund der folgenden Fakten schneller nach der ersten Aktualisierung:

    • Power BI aktualisiert die letzten N-Partitionen , die vom Benutzer angegeben wurden (wobei Partition Tag/Woche/Monat usw.) ist, oder
    • Power BI aktualisiert nur Daten, die aktualisiert werden müssen. Aktualisieren Sie beispielsweise nur die letzten fünf Tage eines 10-Jahres-Semantikmodells.
    • Power BI aktualisiert nur Daten, die geändert wurden, solange Sie die Spalte angeben, die Sie auf Änderungen überprüfen möchten.
  • Aktualisierungen sind zuverlässiger – es ist nicht mehr erforderlich, lange laufende Verbindungen mit volatilen Quellsystemen aufrechtzuerhalten.

  • Der Ressourcenverbrauch wird reduziert – weniger Daten zur Aktualisierung reduzieren den Gesamtverbrauch des Arbeitsspeichers und anderer Ressourcen.

  • Wo immer möglich, verwendet Power BI parallele Verarbeitung auf Partitionen, was zu schnelleren Aktualisierungen führen kann.

Wenn eine Aktualisierung fehlschlägt, werden die Daten in einem dieser Aktualisierungsszenarien nicht aktualisiert. Ihre Daten sind möglicherweise veraltet, bis die neueste Aktualisierung abgeschlossen ist, oder Sie können sie manuell aktualisieren und dann ohne Fehler abschließen. Die Aktualisierung erfolgt bei einer Partition oder Entität. Wenn eine inkrementelle Aktualisierung fehlschlägt oder eine Entität einen Fehler aufweist, tritt die gesamte Aktualisierungstransaktion nicht auf. Anders gesagt, wenn eine Partition (inkrementelle Aktualisierungsrichtlinie) oder Entität für einen Datenfluss fehlschlägt, schlägt der gesamte Aktualisierungsvorgang fehl, und es werden keine Daten aktualisiert.

Verstehen und Optimieren von Aktualisierungen

Um besser zu verstehen, wie ein Datenflussaktualisierungsvorgang ausgeführt wird, überprüfen Sie den Aktualisierungsverlauf für den Datenfluss, indem Sie zu einem Ihrer Datenflüsse navigieren. Wählen Sie "Weitere Optionen" (...) für den Datenfluss aus. Wählen Sie dann die Option "Einstellungen > Aktualisierungsverlauf". Sie können auch den Datenfluss im Arbeitsbereich auswählen. Wählen Sie dann Weitere Optionen (…) > Verlauf aktualisieren.

Screenshot des Aktualisierungsverlaufs von Datenflüssen.

Der Aktualisierungsverlauf bietet eine Übersicht über Aktualisierungen, einschließlich des Typs – bei Bedarf oder geplant, der Dauer und des Ausführungsstatus. Um Details in Form einer CSV-Datei anzuzeigen, wählen Sie das Downloadsymbol ganz rechts in der Zeile der Aktualisierungsbeschreibung aus. Die heruntergeladene CSV enthält die in der folgenden Tabelle beschriebenen Attribute. Premium-Aktualisierungen bieten weitere Informationen basierend auf den zusätzlichen Rechen- und Datenfluss-Fähigkeiten im Vergleich zu Pro-Datenflüssen, die auf gemeinsamer Kapazität basieren. Einige der folgenden Metriken sind daher nur in Premium verfügbar.

Artikel Description Pro Premium
Angefordert am Die Zeitaktualisierung wurde geplant oder in der Ortszeit der Befehl "Jetzt aktualisieren" geklickt.
Name des Datenflusses Name des Dataflows.
Aktualisierungsstatus des Datenflusses Mögliche Status für eine Entität sind: abgeschlossen, fehlgeschlagen oder übersprungen. Anwendungsfälle wie verknüpfte Entitäten sind Gründe, warum man möglicherweise übersprungen wird.
Name der Entität Tabellenname.
Partitionsname Dieses Element hängt davon ab, ob der Datenfluss premium ist oder nicht, und wenn Pro als NV angezeigt wird, da es keine inkrementellen Aktualisierungen unterstützt. Premium zeigt entweder FullRefreshPolicyPartition oder IncrementalRefreshPolicyPartition-[DateRange] an.
Aktualisierungsstatus Aktualisierungsstatus der einzelnen Entität oder Partition, die den Status für dieses Zeitsegment der zu aktualisierenden Daten bereitstellt.
Startzeit In Premium gibt dieses Element die Zeit an, zu der der Datenfluss für die Verarbeitung der Entität oder Partition in die Warteschlange gestellt wurde. Diese Zeit kann variieren, wenn Datenflüsse Abhängigkeiten aufweisen und warten müssen, bis das Resultset eines upstream-Datenflusses mit der Verarbeitung beginnt.
Endzeitpunkt Endzeit ist der Zeitpunkt, zu dem die Datenflussentität oder Partition abgeschlossen ist, falls zutreffend.
Dauer Gesamtverstrichene Zeit für die Aktualisierung des Datenflusses, ausgedrückt in HH:MM:SS.
Verarbeitete Zeilen Bei einer bestimmten Entität oder Partition wird die Anzahl der Zeilen, die von der Datenfluss-Engine gescannt oder geschrieben wurden. Dieses Element enthält möglicherweise nicht immer Daten basierend auf dem von Ihnen ausgeführten Vorgang. Daten können weggelassen werden, wenn die Rechen-Engine nicht verwendet wird oder wenn Sie ein Gateway nutzen, da die Daten dort verarbeitet werden.
Verarbeitete Bytes Bei einer bestimmten Entität oder Partition werden vom Datenflussmodul geschriebene Daten in Byte ausgedrückt.

Wenn Sie ein Gateway für diesen bestimmten Datenfluss verwenden, werden diese Informationen nicht bereitgestellt.
Maximale Speicherzusage (KB) Max Commit ist der Höchst-Commit-Speicher nützlich, um Out-of-Memory-Fehler zu diagnostizieren, wenn die M-Abfrage nicht optimiert ist.

Wenn Sie ein Gateway für diesen bestimmten Datenfluss verwenden, werden diese Informationen nicht bereitgestellt.
Prozessorzeit Für eine bestimmte Entität oder Partition, Zeit, ausgedrückt in HH:MM:SS, die das Datenflussmodul für transformationen aufgewendet hat.

Wenn Sie ein Gateway für diesen bestimmten Datenfluss verwenden, werden diese Informationen nicht bereitgestellt.
Wartezeit Für eine bestimmte Entität oder Partition ist die Zeit relevant, während der eine Entität im Wartestatus verbracht hat, basierend auf der Arbeitslast innerhalb der Premium-Kapazität.
Rechen-Engine Details darüber, wie der Aktualisierungsvorgang bei einer bestimmten Entität oder Partition die Rechen-Engine nutzt. Die Werte sind:
-NA
-Gefaltet
- Zwischengespeichert
- Im Cache gespeichert + zusammengeklappt

Diese Elemente werden weiter unten in diesem Artikel ausführlicher beschrieben.
Fehler Falls zutreffend, wird die detaillierte Fehlermeldung pro Entität oder Partition beschrieben.

Leitfaden zur Datenflussaktualisierung

Die Aktualisierungsstatistiken liefern wertvolle Informationen, die Sie verwenden können, um die Leistung Ihrer Datenflüsse zu optimieren und zu beschleunigen. In den folgenden Abschnitten beschreiben wir einige Szenarien, was Sie beobachten müssen, und wie Sie basierend auf den bereitgestellten Informationen optimieren können.

Orchestrierung

Die Verwendung von Datenflüssen im selben Arbeitsbereich ermöglicht eine einfache Orchestrierung. Als Beispiel können Sie Datenflüsse A, B und C in einem einzigen Arbeitsbereich haben und wie A > B > C verketten. Wenn Sie die Quelle (A) aktualisieren, werden die nachgeschalteten Entitäten ebenfalls aktualisiert. Wenn Sie C jedoch aktualisieren, müssen Sie andere unabhängig voneinander aktualisieren. Wenn Sie außerdem eine neue Datenquelle in Dataflow B hinzufügen (die nicht in A enthalten ist), werden die Daten nicht als Teil der Orchestrierung aktualisiert.

Möglicherweise möchten Sie Elemente miteinander verketten, die nicht in die verwaltete Orchestrierung passen, die Power BI ausführt. In diesen Szenarien können Sie die APIs und/oder Power Automate verwenden. Sie können auf die API-Dokumentation und das PowerShell-Skript für die programmgesteuerte Aktualisierung verweisen. Es gibt einen Power Automate-Connector, der das Ausführen dieses Verfahrens ermöglicht, ohne Code zu schreiben. Sie können detaillierte Beispiele mit spezifischen Schritt-für-Schritt-Anleitungen für sequenzielle Aktualisierungen finden.

Überwachung

Mithilfe der weiter oben in diesem Artikel beschriebenen erweiterten Aktualisierungsstatistiken können Sie detaillierte Aktualisierungsinformationen pro Datenfluss abrufen. Wenn Sie jedoch Datenflüsse mit mandantenweiten oder arbeitsbereichweiten Aktualisierungen sehen möchten, um möglicherweise ein Überwachungsdashboard zu erstellen, können Sie die APIs oder Power Automate-Vorlagen verwenden. Ebenso können Sie für Anwendungsfälle wie das Senden einfacher oder komplexer Benachrichtigungen den Power Automate-Connector verwenden oder Ihre eigene benutzerdefinierte Anwendung mithilfe der APIs erstellen.

Timeoutfehler

Die Optimierung der Zeit, die zum Ausführen von Extraktions-, Transformations- und Ladeszenarien (ETL) benötigt wird, ist ideal. In Power BI gelten die folgenden Fälle:

  • Einige Connectors verfügen über explizite Timeouteinstellungen, die Sie konfigurieren können. Weitere Informationen finden Sie unter Connectors in Power Query.
  • Power BI-Datenflüsse, die Power BI Pro verwenden, können auch Timeouts für lange ausgeführte Abfragen innerhalb einer Entität oder datenflüsse selbst erleben. Diese Einschränkung ist in Power BI Premium-Arbeitsbereichen nicht vorhanden.

Timeout-Leitfaden

Timeoutschwellenwerte für Power BI Pro-Datenflüsse sind:

  • Zwei Stunden auf der Ebene der einzelnen Entitäten.
  • Drei Stunden auf der gesamten Datenflussebene.

Wenn Sie z. B. einen Datenfluss mit drei Tabellen haben, kann keine einzelne Tabelle mehr als zwei Stunden dauern, und der gesamte Datenfluss ist abgelaufen, wenn die Dauer drei Stunden überschreitet.

Wenn Timeouts auftreten, sollten Sie ihre Datenflussabfragen optimieren und die Abfragefaltung auf Ihren Quellsystemen in Betracht ziehen.

Ziehen Sie separat ein Upgrade auf Premium Per User in Betracht, das diesen Timeouts nicht unterliegt und aufgrund vieler Power BI Premium Pro User-Features eine höhere Leistung bietet.

Lange Dauer

Komplexe oder große Datenflüsse können mehr Zeit in Anspruch nehmen, ebenso wie schlecht optimierte Datenflüsse. In den folgenden Abschnitten finden Sie Anleitungen zum Verringern langer Aktualisierungsdauern.

Anleitung zu längeren Aktualisierungszeiträumen

Der erste Schritt zur Verbesserung der langen Aktualisierungsdauer für Datenflüsse besteht darin, Datenflüsse gemäß den bewährten Methoden zu erstellen. Zu den wichtigsten Mustern gehören:

Als Nächstes kann es hilfreich sein, zu bewerten, ob Sie die inkrementelle Aktualisierung verwenden können.

Die inkrementelle Aktualisierung kann die Leistung verbessern. Es ist wichtig, dass die Partitionsfilter an das Quellsystem übertragen werden, wenn Abfragen für Aktualisierungsvorgänge übermittelt werden. Um die Filterung nach unten zu verschieben, bedeutet dies, dass die Datenquelle die Abfragefaltung unterstützen soll, oder Sie können Geschäftslogik über eine Funktion oder ein anderes Mittel ausdrücken, das Power Query dabei helfen kann, Dateien oder Ordner zu beseitigen und zu filtern. Die meisten Datenquellen, die SQL-Abfragen unterstützen, unterstützen die Abfragefaltung, und einige OData-Feeds können auch das Filtern unterstützen.

Datenquellen wie Flache Dateien, Blobs und APIs unterstützen jedoch in der Regel keine Filterung. In Fällen, in denen das Back-End der Datenquelle den Filter nicht unterstützt, kann er nicht nach unten verschoben werden. In solchen Fällen entschädigt und wendet das Mash-Up-Modul den Filter lokal an, wodurch möglicherweise das vollständige semantische Modell aus der Datenquelle abgerufen werden muss. Dieser Vorgang kann dazu führen, dass die inkrementelle Aktualisierung verlangsamt wird, und der Prozess kann entweder im Power BI-Dienst oder im lokalen Datengateway die Ressourcen erschöpfen, wenn er verwendet wird.

Angesichts der verschiedenen Ebenen der Abfragefaltungsunterstützung für jede Datenquelle sollten Sie eine Überprüfung durchführen, um sicherzustellen, dass die Filterlogik in den Quellabfragen enthalten ist. Um dies zu vereinfachen, versucht Power BI, diese Überprüfung für Sie vorzunehmen, mithilfe von Schrittindikatoren für Power Query Online. Viele dieser Optimierungen sind Entwurfszeiterfahrungen, aber nachdem eine Aktualisierung erfolgt, haben Sie die Möglichkeit, Ihre Aktualisierungsleistung zu analysieren und zu optimieren.

Schließlich sollten Sie die Optimierung Ihrer Umgebung in Betracht ziehen. Optimieren Sie Ihre Power BI-Umgebung, indem Sie Ihre Kapazität erhöhen, Datengateways richtig dimensionieren und die Netzwerklatenz mithilfe der folgenden Optimierungen reduzieren:

  • Wenn Sie Kapazitäten verwenden, die mit Power BI Premium oder Premium Per User verfügbar sind, können Sie die Leistung steigern, indem Sie Ihre Premium-Instanz erhöhen oder den Inhalt einer anderen Kapazität zuweisen.

  • Ein Gateway ist erforderlich, wenn Power BI auf Daten zugreifen muss, die nicht direkt über das Internet verfügbar sind. Sie können das lokale Datengateway auf einem lokalen Server oder auf einer virtuellen Maschine installieren.

    • Informationen zu Gateway-Workloads und Größenempfehlungen finden Sie unter Größenanpassung von lokalen Datengateways.
    • Bewerten Sie außerdem, ob die Daten zuerst in einen Staging-Datenfluss aufgenommen werden und ob auf sie stromabwärts verwiesen wird, indem verknüpfte und berechnete Entitäten verwendet werden.
  • Die Netzwerklatenz kann sich auf die Aktualisierungsleistung auswirken, indem die erforderliche Zeit für Anforderungen zum Erreichen des Power BI-Diensts und für zugestellte Antworten erhöht wird. Mandanten in Power BI werden einer bestimmten Region zugewiesen. Informationen dazu, wo sich Ihr Mandant befindet, finden Sie unter "Suchen der Standardregion für Ihre Organisation". Wenn Benutzer von einem Mandanten auf den Power BI-Dienst zugreifen, werden ihre Anforderungen immer an diese Region weitergeleitet. Wenn Anforderungen den Power BI-Dienst erreichen, kann der Dienst dann zusätzliche Anforderungen senden, z. B. an die zugrunde liegende Datenquelle oder ein Datengateway, die auch der Netzwerklatenz unterliegen.

    • Tools wie Azure Speed Test bieten einen Hinweis auf die Netzwerklatenz zwischen dem Client und der Azure-Region. Um die Auswirkungen der Netzwerklatenz zu minimieren, versuchen Sie, Datenquellen, Gateways und Ihren Power BI-Cluster so nah wie möglich zu halten. Wohnen in derselben Region ist vorzuziehen. Wenn die Netzwerklatenz ein Problem darstellt, versuchen Sie, Gateways und Datenquellen näher an Ihrem Power BI-Cluster zu suchen, indem Sie sie in in der Cloud gehosteten virtuellen Computern platzieren.

Hohe Prozessorzeit

Wenn hohe Prozessorzeit angezeigt wird, haben Sie wahrscheinlich teure Transformationen, die nicht gefaltet werden. Die hohe Prozessorzeit liegt entweder aufgrund der Anzahl der angewendeten Schritte oder der Art der Transformationen, die Sie vornehmen. Jede dieser Möglichkeiten kann zu höheren Aktualisierungszeiten führen.

Leitfaden für hohe Prozessorzeit

Es gibt zwei Optionen zum Optimieren der hohen Prozessorzeit.

Verwenden Sie zunächst die Abfragefaltung innerhalb der Datenquelle selbst, wodurch die Auslastung des Datenfluss-Computemoduls direkt reduziert werden soll. Die Abfragefaltung innerhalb der Datenquelle ermöglicht es dem Quellsystem, die meisten Aufgaben auszuführen. Der Datenfluss kann dann Abfragen in der nativen Sprache der Quelle übergeben, anstatt alle Berechnungen im Arbeitsspeicher nach der anfänglichen Abfrage ausführen zu müssen.

Nicht alle Datenquellen können Abfragefaltung durchführen, und selbst wenn die Abfragefaltung möglich ist, gibt es möglicherweise Datenflüsse, die bestimmte Transformationen ausführen, die nicht in die Quelle gefaltet werden können. In solchen Fällen hat Power BI die erweiterte Rechenengine eingeführt, um speziell die Leistung bei Transformationen um das bis zu 25-fache zu verbessern.

Verwenden Sie die Rechenmaschine, um die Leistung zu maximieren.

Während Power Query entwurfszeitbezogene Einblicke in die Abfragefaltung hat, enthält die Spalte des Computemoduls Details dazu, ob das interne Modul selbst verwendet wird. Die Rechenengine ist hilfreich, wenn Sie über einen komplexen Datenfluss verfügen und Transformations im Speicher ausführen. In dieser Situation können die verbesserten Aktualisierungsstatistiken hilfreich sein, da die Spalte des Rechenmoduls Details dazu bereitstellt, ob das Modul selbst verwendet wurde.

In den folgenden Abschnitten finden Sie Anleitungen zur Verwendung des Compute Engine und dessen Statistiken.

Warnung

Während der Entwurfszeit zeigt die Faltanzeige im Editor möglicherweise an, dass die Abfrage beim Verwenden von Daten aus einem anderen Datenfluss nicht gefaltet wird. Überprüfen Sie den Quelldatenfluss, wenn die erweiterte Berechnung aktiviert ist, um sicherzustellen, dass die Faltung für den Quelldatenfluss aktiviert ist.

Leitfaden für Compute Engine-Status

Das Aktivieren des erweiterten Rechenmoduls und das Verständnis der verschiedenen Statusmeldungen ist hilfreich. Intern verwendet das erweiterte Computemodul eine SQL-Datenbank zum Lesen und Speichern von Daten. Am besten lassen Sie Ihre Transformationen hier gegen die Abfrage-Engine ausführen. In den folgenden Absätzen finden Sie verschiedene Situationen und Anleitungen zu den jeweiligen Aktionen.

NA – Dieser Status bedeutet, dass die Rechenmaschine nicht verwendet wurde, entweder weil:

  • Sie verwenden Power BI Pro-Datenflüsse.
  • Sie haben die Rechner-Engine explizit deaktiviert.
  • Sie verwenden Abfragefaltung bei der Datenquelle.
  • Sie führen komplexe Transformationen aus, die nicht die SQL-Engine nutzen können, um Abfragen zu beschleunigen.

Wenn Sie längere Wartezeiten haben und trotzdem den Status "NA" erhalten, stellen Sie sicher, dass das Gerät eingeschaltet und nicht versehentlich ausgeschaltet ist. Ein empfohlenes Muster ist die Verwendung von Staging-Datenflüssen , um Ihre Daten zunächst in den Power BI-Dienst zu integrieren und dann Datenflüsse über diese Daten zu erstellen, nachdem sie sich in einem Stagingdatenfluss befindet. Dieses Muster kann die Auslastung von Quellsystemen reduzieren und zusammen mit der Rechenengine eine Geschwindigkeitssteigerung für Transformationen bieten und so die Leistung verbessern.

Zwischengespeichert – Wenn der Cachestatus angezeigt wird, wurden die Datenflussdaten im Computemodul gespeichert und stehen als Teil einer anderen Abfrage zur Verfügung. Diese Situation ist ideal, wenn Sie sie als verknüpfte Entität verwenden, da die Rechenmaschine diese Daten für die nachfolgende Verwendung zwischenspeichert. Die zwischengespeicherten Daten müssen nicht mehrmals im gleichen Datenfluss aktualisiert werden. Diese Situation ist auch potenziell ideal, wenn Sie sie für DirectQuery verwenden möchten.

Beim Speichern im Cache führen die Leistungseinbußen bei der anfänglichen Erfassung später zu Vorteilen, entweder im gleichen Datenfluss oder in einem anderen Datenfluss im selben Arbeitsbereich.

Wenn Sie eine längere Dauer für die Entität haben, sollten Sie die Rechenmaschine deaktivieren. Um die Entität zu speichern, schreibt Power BI sie in den Speicher und in SQL. Wenn es sich um eine Einzelverwendungsentität handelt, lohnt sich für die Benutzer der Leistungsvorteil möglicherweise nicht im Vergleich zu den Einbußen durch die doppelte Aufnahme.

Zusammengefasst – Zusammengefasst bedeutet, dass der Datenfluss die SQL-Berechnungsleistung nutzen konnte, um Daten zu lesen. Die berechnete Entität hat die Tabelle aus SQL zum Lesen von Daten verwendet, und die verwendete SQL-Datei bezieht sich auf die Konstrukte ihrer Abfrage.

Der Zusammengeklappte Status wird angezeigt, wenn Sie beim Verwenden lokaler oder Clouddatenquellen zuerst Daten in einen Stagingdatenfluss geladen und diesen in diesem Datenfluss referenziert haben. Dieser Status gilt nur für Entitäten, die auf eine andere Entität verweisen. Dies bedeutet, dass Ihre Abfragen über dem SQL-Modul ausgeführt wurden, und sie haben das Potenzial, mit sql compute verbessert zu werden. Um sicherzustellen, dass das SQL-Modul Ihre Transformationen verarbeitet, verwenden Sie Transformationen, die SQL-Faltung unterstützen, z. B. Zusammenführung (Verknüpfung), Gruppieren nach (Aggregation) und Anfügeaktionen (Union) im Abfrage-Editor.

Zwischengespeichert + gefaltet – Wenn zwischengespeichert + gefaltet angezeigt wird, ist die Datenaktualisierung wahrscheinlich optimiert, da Sie eine Entität haben, die beide auf eine andere Entität verweist und von einer anderen Entität vorgelagert referenziert wird. Dieser Vorgang wird auch über sql ausgeführt und hat daher auch das Potenzial zur Verbesserung mit sql compute. Um sicherzustellen, dass Sie die bestmögliche Leistung erzielen, verwenden Sie Transformationen, die DIE SQL-Faltung unterstützen, z. B. Zusammenführung (Verknüpfung), Gruppierung nach (Aggregation) und Anfügeaktionen (Union) im Abfrage-Editor.

Leitfaden zur Leistungsoptimierung der Rechen-Engine

Durch die folgenden Schritte können Workloads die Rechenmaschine auslösen und dadurch die Leistung stets verbessern.

Berechnete und verknüpfte Entitäten im selben Arbeitsbereich:

Konzentrieren Sie sich bei der Aufnahme auf das abrufen der Daten so schnell wie möglich in den Speicher, verwenden Sie Filter nur, wenn sie die gesamte Semantikmodellgröße reduzieren. Trennen Sie Ihre Transformationslogik von diesem Schritt. Trennen Sie als Nächstes Ihre Transformations- und Geschäftslogik in einen separaten Datenfluss im selben Arbeitsbereich. Verwenden Sie verknüpfte oder berechnete Entitäten. Auf diese Weise kann der Motor Ihre Berechnungen starten und beschleunigen. Zur Verdeutlichung durch eine einfache Analogie ist es wie die Lebensmittelszubereitung in einer Küche: Die Lebensmittelszubereitung ist in der Regel ein separater und eigenständiger Schritt vom Sammeln der Rohzutaten und eine Voraussetzung für die Vorbereitung für den Ofen. Ebenso müssen Sie Ihre Logik separat vorbereiten, bevor sie die Vorteile der Rechen-Engine nutzen kann.

Stellen Sie sicher, dass Sie die Vorgänge ausführen, die gefaltet werden, z. B. Zusammenführungen, Verknüpfungen, Konvertierungen und andere.

Erstellen von Datenflüssen innerhalb der veröffentlichten Richtlinien und Einschränkungen.

Wenn die Rechenmaschine eingeschaltet ist, aber die Leistung langsam ist:

Führen Sie die folgenden Schritte aus, wenn Sie Szenarien untersuchen, in denen die Rechenmaschine aktiviert ist, aber Sie eine schlechte Leistung feststellen:

  • Beschränken Sie berechnete und verknüpfte Entitäten, die im gesamten Arbeitsbereich vorhanden sind.
  • Wenn die anfängliche Aktualisierung bei eingeschaltetem Rechenmodul erfolgt, werden die Daten sowohl im Datensee als auch im Cache geschrieben. Diese doppelten Schreibvorgänge führen dazu, dass Aktualisierungen langsamer werden.
  • Wenn Sie über eine Datenflussverknüpfung mit mehreren Datenflüssen verfügen, stellen Sie sicher, dass Sie Aktualisierungen der Quelldatenflüsse planen, damit sie nicht alle gleichzeitig aktualisiert werden.

Überlegungen und Einschränkungen

Eine Power BI Pro-Lizenz verfügt über ein Datenfluss-Aktualisierungslimit von 8 Aktualisierungen pro Tag.