Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Es gibt einige Einschränkungen beim Datenfluss bei der Erstellung, Aktualisierung und Kapazitätsverwaltung, die Benutzer berücksichtigen sollten, wie in den folgenden Abschnitten beschrieben.
Allgemeine Einschränkungen
- Datenflüsse sind möglicherweise nicht für alle DoD-Kunden der US-Regierung verfügbar. Die Funktionsgleichheit in staatlichen Umgebungen finden Sie im Artikel zu den Power BI-Featureverfügbarkeiten für Behörden.
- Gelöschte Datenquellen werden nicht von der Datenflussdatenquellenseite entfernt. Dies ist ein harmloses Verhalten und wirkt sich nicht auf die Aktualisierung oder Bearbeitung von Datenflüssen aus. In der Linienansicht werden gelöschte Datenquellen als Linien für einen Datenfluss angezeigt.
- Gelöschte Datenquellen werden weiterhin auf der Seite "Einstellung" in der Dropdownliste des Gateways angezeigt.
- Die Tiefe entspricht Datenflüssen, die mit anderen Datenflüssen verknüpft sind. Die aktuelle maximale Tiefe beträgt 32.
-
Breite entspricht Entitäten innerhalb eines Datenflusses.
- Es gibt keine Anleitungen oder Grenzwerte für die optimale Anzahl von Entitäten in einem Datenfluss, freigegebene Datenflüsse weisen jedoch eine Aktualisierungsgrenze von zwei Stunden pro Entität und drei pro Datenfluss auf. Wenn Sie also zwei Entitäten haben und jede zwei Stunden benötigt, sollten Sie sie nicht im demselben Datenfluss platzieren.
- Für Power BI Premium basieren Anleitungen und Grenzwerte auf individuellen Anwendungsfällen und nicht auf spezifischen Anforderungen. Der einzige Grenzwert für Power BI Premium ist eine 24-Stunden-Aktualisierung pro Datenfluss.
- Ein Power BI Premium-Abonnement ist erforderlich, um mehr als 10 Datenflüsse über einen Arbeitsbereich hinweg zu aktualisieren.
- PowerQuery-Einschränkungen finden Sie im Power Query Online Limits-Artikel .
- Power BI-Datenflüsse unterstützen die Verwendung globaler Variablen in einem URL-Argument nicht.
- Multi-Geo wird derzeit nicht unterstützt, es sei denn, der Speicher wird so konfiguriert, dass Ihr eigenes Azure Data Lake Gen2-Speicherkonto verwendet wird.
- Die Vnet-Unterstützung wird mithilfe eines Gateways erreicht.
- Wenn Sie berechnete Entitäten mit Gatewaydatenquellen verwenden, sollte die Datenaufnahme in verschiedenen Datenquellen als bei den Berechnungen durchgeführt werden. Die berechneten Entitäten sollten auf Entitäten aufbauen, die nur für die Erfassung verwendet werden und keine Daten innerhalb ihrer eigenen Mashupschritte aufnehmen.
- In Power BI-Datenflüssen können Sie Parameter verwenden, sie können jedoch nur bearbeiten, wenn Sie den gesamten Datenfluss bearbeiten. In diesem Zusammenhang verhalten sich Parameter in Datenflüssen ähnlich wie deklarierte Konstanten.
- Einige Connectors in Fehlerbehebung bei Aktualisierungsszenarien werden für Datenflüsse und Datenmarts in Premium-Arbeitsbereichen nicht unterstützt.
- Bei der Verwendung von DirectQuery mit einem Datenfluss ist die Groß-/Kleinschreibung bei Suchen mit dem visuellen Datenschnitt relevant.
- Die folgenden Zeichen sind in Dataflow-Entitäten nicht zulässig:
\
/
Dataflowerstellung
Beachten Sie beim Erstellen von Datenflüssen die folgenden Überlegungen:
Die Erstellung von Datenflüssen erfolgt in der Power Query Online (PQO)-Umgebung; sehen Sie sich die in Den Power Query-Grenzwerten beschriebenen Einschränkungen an. Da die Erstellung von Datenflüssen in der Power Query Online (PQO)-Umgebung erfolgt, wirken sich Aktualisierungen der Konfigurationen der Datenflüsse nur auf Aktualisierungen aus und wirken sich nicht auf die Erstellungserfahrung aus.
Datenflüsse können nur von ihren Besitzern geändert werden.
Datenflüsse sind in "Mein Arbeitsbereich" nicht verfügbar.
Datenflüsse, die Gatewaydatenquellen verwenden, unterstützen nicht mehrere Anmeldeinformationen für dieselbe Datenquelle.
Für die Verwendung des Web.Page Connectors ist ein Gateway erforderlich.
In der Bearbeitungsoberfläche von "Dataflows Gen1" können Benutzer möglicherweise keine lokale Datengateway-Verbindung aus dem Datenfluss entfernen, indem sie im Dropdown-Menü "Data Gateway" unter dem Punkt OptionenProjektdaten>>>(keine). Die folgenden Schritte können das Problem beheben:
- Beginnen Sie mit der Bearbeitung des Datenflusses, in dem Sie die lokale Datengatewayverbindung entfernen möchten.
- Wählen Sie Optionen, Projektdatenlade> und Datengateway aus, wählen Sie Keine und dann OK aus.
- Wenn eine gelbe Warnung mit der Schaltfläche "Verbindung konfigurieren" angezeigt wird, wählen Sie " Verbindung konfigurieren" aus, wählen Sie die Cloudverbindung aus dem Dropdownfeld aus, und fügen Sie bei Bedarf Anmeldeinformationen für die Cloudverbindung ein.
- Wählen Sie "Verbindungen> verwalten" und dann die Schaltfläche " Verknüpfung aufheben " der Gatewayverbindung aus.
- Schließen Sie das Dialogfeld "Verbindungen verwalten ", wenn dies erfordert, dass Sie die Verbindung erneut konfigurieren. Wählen Sie "Speichern und schließen" aus, und warten Sie, bis der Speichervorgang abgeschlossen ist.
- Wenn die Warnung "Verbindung konfigurieren" nach dem Anwenden der vorherigen Schritte nicht angezeigt wird, wenden Sie die vorherigen Schritte an, speichern und schließen Sie den Datenfluss, bearbeiten Sie ihn erneut, und überprüfen Sie, ob die Warnung "Verbindung konfigurieren" angezeigt wird, damit Sie entsprechende Maßnahmen ausführen können.
Wenn die Verbindung mit dem Gateway immer noch nicht aus dem Datenfluss entfernt wird, müssen Sie möglicherweise einen neuen Datenfluss mit denselben Abfragen neu erstellen, nicht an das Gateway gebunden.
API-Überlegungen
Weitere Informationen zu unterstützten Dataflows-REST-APIs finden Sie in der REST-API-Referenz. Im Folgenden finden Sie einige Überlegungen, die Sie berücksichtigen sollten:
Beim Exportieren und Importieren eines Datenflusses erhält dieser Datenfluss eine neue ID.
Beim Importieren von Datenflüssen, die verknüpfte Tabellen enthalten, werden die vorhandenen Verweise im Datenfluss nicht aktualisiert (diese Abfragen sollten vor dem Importieren des Datenflusses manuell aktualisiert werden).
Wenn Sie einen Datenfluss bereitstellen, können Sie die Konflikthandler "GenerateUniqueName " und " Abort " verwenden, um den Vorgang entweder abzubrechen, wenn er bereits vorhanden ist, oder die API anweisen, stattdessen automatisch einen eindeutigen Namen zu erstellen. Dataflows können mit dem Parameter CreateOrOverwrite überschrieben werden, wenn sie zunächst mithilfe der Import-API erstellt wurden.
Datenflüsse in gemeinsam genutzten Kapazitäten
Es gibt Einschränkungen für Datenflüsse in gemeinsam genutzten Kapazitäten (nicht Premium-Kapazitäten):
- Wenn ein Datenfluss aktualisiert wird, betragen die Timeouts in einer freigegebenen Kapazität 2 Stunden pro Tabelle und 3 Stunden pro Datenfluss.
- Verknüpfte Tabellen können in freigegebenen Datenflüssen nicht erstellt werden, obwohl sie innerhalb des Datenflusses vorhanden sein können, solange die Eigenschaft "Load Enabled " für die Abfrage deaktiviert ist.
- Berechnete Tabellen können nicht in freigegebenen Datenflüssen erstellt werden.
- AutoML- und Cognitive-Dienste sind in freigegebenen Datenflüssen nicht verfügbar.
- Die inkrementelle Aktualisierung funktioniert nicht in freigegebenen Datenflüssen.
Datenflüsse im Premium-Dienst
Datenflüsse, die in Premium vorhanden sind, weisen die folgenden Überlegungen und Einschränkungen auf.
Überlegungen zu Aktualisierungen und Daten:
Beim Aktualisieren von Datenflüssen sind Timeouts 24 Stunden (keine Unterscheidung für Tabellen und/oder Datenflüsse).
Wenn Sie einen Datenfluss von einer inkrementellen Aktualisierungsrichtlinie zu einer normalen Aktualisierung ändern oder umgekehrt, gehen alle Daten verloren.
Das Ändern des Schemas eines Datenflusses legt alle Daten ab.
Wenn Sie eine Premium Per User (PPU)-Lizenz mit Datenflüssen verwenden, werden die Daten gelöscht, wenn sie aus einer PPU-Umgebung verschoben werden.
Wenn ein Datenfluss in einem Premium Per User (PPU)-Kontext aktualisiert wird, sind die Daten für Nicht-PPU-Benutzer nicht sichtbar.
Nur wenn die erweiterte Compute-Engine aktiviert ist, funktioniert die inkrementelle Aktualisierung mit Datenflüssen.
Verknüpfte und berechnete Tabellen:
Verknüpfte Tabellen können bis zu einer Tiefe von 32 Verweisen gehen.
Zyklische Abhängigkeiten verknüpfter Tabellen sind nicht zulässig.
Eine verknüpfte Tabelle kann nicht mit einer regulären Tabelle verknüpft werden, die ihre Daten aus einer lokalen Datenquelle abruft.
Wenn eine Abfrage (z. B. Abfrage A) bei der Berechnung einer anderen Abfrage (Abfrage B) in Datenflüssen verwendet wird, wird Abfrage B zu einer berechneten Tabelle. Berechnete Tabellen können nicht auf lokale Quellen verweisen.
Verknüpfte Tabellen, die auf Entitäten in verschiedenen Mandanten verweisen, werden nicht unterstützt.
Rechner-Engine:
Während der Verwendung der Compute-Engine gibt es eine anfängliche Erhöhung der Zeit um ungefähr 10% bis 20% für die Datenverarbeitung.
- Dies gilt nur für den ersten Datenfluss, der sich auf der Rechen-Engine befindet und Daten aus der Datenquelle liest.
- Nachfolgende Datenflüsse, die den Quelldatenfluss verwenden, verursachen nicht die gleiche Strafe.
Nur bestimmte Vorgänge nutzen das Rechenmodul, und das auch nur, wenn sie über eine verknüpfte Tabelle oder als berechnete Tabelle verwendet werden. Eine vollständige Liste der Vorgänge ist in diesem Blogbeitrag verfügbar.
Kapazitätsmanagement:
Standardmäßig verfügen die Premium Power BI-Kapazitäten über einen internen Ressourcen-Manager, der die Workloads auf unterschiedliche Weise drosselt, wenn die Kapazität auf geringem Arbeitsspeicher ausgeführt wird.
- Bei Datenflüssen verringert dieser Drosselungsdruck die Anzahl verfügbarer M-Container.
- Der Speicher für Datenströme kann auf 100%festgelegt werden, wobei ein entsprechend großer Container für Ihre Datengrößen verwendet wird, und die Workload verwaltet die Anzahl der Container entsprechend.
Die ungefähre Anzahl von Containern kann ermittelt werden, indem der gesamt für die Workload zugeordnete Arbeitsspeicher durch die Menge des einem Container zugeordneten Arbeitsspeichers dividiert wird.
Datenflussnutzung in semantischen Modellen
- Stellen Sie beim Erstellen eines Semantikmodells in Power BI Desktop und anschließendes Veröffentlichen im Power BI-Dienst sicher, dass die in Power BI Desktop für die Datenquelle für Datenflüsse verwendeten Anmeldeinformationen dieselben Anmeldeinformationen sind, die beim Veröffentlichen des semantischen Modells für den Dienst verwendet werden.
- Wenn Sie nicht sicherstellen, dass diese Anmeldeinformationen identisch sind, führt dies bei der Aktualisierung des semantischen Modells zu einem Schlüssel nicht gefunden-Fehler.
Hinweis
Wenn die Datenflussstruktur geändert wird, z. B. eine neue oder umbenannte Spalte, zeigt das Semantikmodell die Änderung nicht an, und die Änderung kann auch dazu führen, dass eine Datenaktualisierung im Power BI-Dienst für das Semantikmodell fehlschlägt, bis sie in Power BI Desktop aktualisiert und erneut veröffentlicht wurde.
Datenflüsse und benannte Verbindungen
Bei verwendung von Datenflüssen mit benannten Verbindungen gelten die folgenden Einschränkungen:
- Sie können nur eine Cloudverbindung eines bestimmten Pfads und Typs erstellen, z. B. können Sie nur eine SQL plus Server-/Datenbank-Cloudverbindung erstellen. Sie können mehrere Gatewayverbindungen erstellen.
- Sie können keine Clouddatenquellen benennen oder umbenennen; Sie können Gatewayverbindungen benennen oder umbenennen.
ADLS-Einschränkungen
- ADLS ist in GCC-, GCC High- oder DOD-Umgebungen nicht verfügbar. Weitere Informationen finden Sie unter Power BI für US-Behördenkunden.
- Sie müssen aufgrund von Änderungen an den ADLS Gen 2-APIs als Besitzer der Ressource zugewiesen werden.
- Die Azure-Abonnementmigration wird nicht unterstützt, es gibt jedoch zwei Alternativen:
- Erster Ansatz: Nach der Migration kann der Benutzer Arbeitsbereiche trennen und wieder verbinden. Wenn Sie das Konto auf Mandantenebene verwenden, müssen Sie zunächst alle Arbeitsbereiche trennen, dann auf Mandantenebene trennen und anschließend wieder anfügen. Dies kann für Kunden unerwünscht sein, die nicht alle datenflüsse löschen möchten oder viele Arbeitsbereiche haben.
- Zweiter Ansatz: Wenn der vorherige Ansatz nicht machbar ist, übermitteln Sie eine Supportanfrage, um die Abonnement-ID in der Datenbank zu ändern.
- ADLS unterstützt die meisten Elemente in der Liste im Abschnitt "Verzeichnisse" und "Dateinamen " des Artikels für die Benennung von Arbeitsbereichen und den Datenfluss aufgrund der folgenden Einschränkungen nicht:
- Power BI gibt entweder einen nicht hilfreichen Fehler zurück oder ermöglicht den Vorgang, aber die Aktualisierung schlägt fehl.
- Mandantenübergreifende ADLS-Abonnements werden nicht unterstützt. Die an Power BI angefügten ADLS müssen Teil desselben Azure-Mandanten sein, den Power BI für Microsoft Entra ID verwendet.
Datentypen für Datenflüsse
Die datentypen, die in Datenflüssen unterstützt werden, sind die folgenden:
Mashup-Datentyp | Datentyp 'Dataflow' |
---|---|
Uhrzeit | Uhrzeit |
Datum | Datum |
Datum/Uhrzeit | Datum/Uhrzeit |
DateTimeZone | DateTimeOffset (Datum/Uhrzeit mit Offset) |
Logisch | Boolescher Typ (Boolean) |
Text | Schnur |
Beliebig | Schnur |
Währung | Dezimalzahl |
Int8 | Int64 |
Int16 | Int64 |
Int32 | Int64 |
Int64 | Int64 |
Doppelt | Doppelt |
Prozentsatz | Doppelt |
Ledig | Doppelt |
Dezimalzahl | Doppelt |
Nummer | Doppelt |
Dauer | Nicht unterstützt |
Binär | Nicht unterstützt |
Funktion | Nicht unterstützt |
Tabelle | Nicht unterstützt |
Liste | Nicht unterstützt |
Datensatz | Nicht unterstützt |
Typ | Nicht unterstützt |
Maßnahme | Nicht unterstützt |
Nichts | Nicht unterstützt |
Null | Nicht unterstützt |
Verwandte Inhalte
In den folgenden Artikeln finden Sie weitere Informationen zu Dataflows und Power BI: