Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Es gibt bestimmte Einschränkungen für die aktuellen Data Factory-Features in Microsoft Fabric. Überprüfen Sie vor dem Senden einer Supportanfrage die Listen in diesem Abschnitt, um festzustellen, ob eine bekannte Einschränkung auftritt.
Wenden Sie sich bei Ausfällen auf Dienstebene oder Benachrichtigungen über Leistungsminderungen an den Microsoft Fabric-Support.
Einschränkungen der Datenpipeline in Microsoft Fabric
In der folgenden Liste werden die aktuellen Einschränkungen für Pipelines in Data Factory in Microsoft Fabric beschrieben.
- Die meisten Kopier- und Orchestrierungsmuster in Azure Data Factory gelten auch für Fabric-Pipelines, aber rollierende Fenster sind noch nicht verfügbar.
- Connectors unterstützen OAuth und Azure Key Vault (AKV) nicht.
- Verwaltete Systemidentität (Managed System Identity, MSI) ist nur für Azure Blob Storage verfügbar. Unterstützung für andere Quellen wird in Kürze verfügbar gemacht.
- Die GetMetaData-Aktivität kann keine Quelle aus Fabric-KQL-Datenbanken nutzen.
- Die Script-Aktivität kann keine Quelle aus Fabric-KQL-Datenbanken nutzen.
- Überprüfungsaktivitäten, Zuordnungsdatenflussaktivität und die SSIS-Integrationsruntime sind nicht verfügbar.
- Die Webaktivität unterstützt keine auf Dienstprinzipalen basierende Authentifizierung.
- Die Hintergrundsynchronisierung der Authentifizierung erfolgt nicht für Pipelines. Es empfiehlt sich, kleinere Beschreibungen wie Updates für Pipelines auszuführen und zu speichern. Auf diese Weise wird ein neues Token abgerufen und zwischengespeichert, damit die Pipeline erneut mit dem aktualisierten Kennwort der Entra-ID ausgeführt werden kann.
Ressourcengrenzwerte für Datenpipelines
In der folgenden Tabelle werden die Ressourcenbeschränkungen für Pipelines in Data Factory in Microsoft Fabric beschrieben.
Pipelineressource | Standardlimit | Maximales Limit |
---|---|---|
Gesamtanzahl der Pipelines innerhalb eines Arbeitsbereichs | 5.000 | 5.000 |
Gleichzeitige Pipelineausführungen pro Arbeitsbereich (von allen Pipelines im Arbeitsbereich gemeinsam genutzt) | 10.000 | 10.000 |
Externe Aktivitäten (z. B. gespeicherte Prozeduren, Web, Web Hook und andere) | 3.000 | 3.000 |
Ausführung von Pipelineaktivitäten für „Lookup“, „GetMetadata“ und „Delete“ | 1.000 | 1.000 |
Gleichzeitige Erstellungsvorgänge, einschließlich Testen von Verbindungen, Durchsuchen der Ordnerliste und Tabellenliste, Überprüfen von Daten usw. | 200 | 200 |
Maximale Aktivitäten pro Pipeline, einschließlich interner Aktivitäten für Container | 120 | 120 |
Maximale Parameter pro Pipeline | 50 | 50 |
ForEach-Elemente | 100.000 | 100.000 |
ForEach-Parallelität | 20 | 50 |
Anzahl der Elemente für die Lookup-Aktivität | 5.000 | 5.000 |
Maximale Anzahl von Ausführungen in Warteschlange pro Pipeline | 100 | 100 |
Zeichen pro Ausdruck | 8.192 | 8.192 |
Maximales Zeitlimit für Ausführungen von Pipelineaktivitäten | 24 Stunden | 24 Stunden |
Bytes pro Objekt für Pipelineobjekte | 200 KB | 200 KB |
Bytes pro Payload für jede Aktivitätsausführung | 896 KB | 896 KB |
Intelligente Durchsatzoptimierung pro Copy-Aktivitätsausführung | Auto | 256 |
Gleichzeitige intelligente Durchsatzoptimierung pro Arbeitsbereich | 400 | 400 |
Größenbeschränkung für Metadatenentitäten in einer Factory | 2 GB | 2 GB |
Einschränkungen von Data Factory Dataflow Gen2
In der folgenden Liste werden die Einschränkungen für Dataflow Gen2 in Data Factory in Microsoft Fabric beschrieben.
- Datenziel für Lakehouse:
- Leerzeichen oder Sonderzeichen in Spalten- oder Tabellennamen nicht unterstützt.
- Dauer- und Binärspalten werden bei der Erstellung von Dataflow Gen2-Dataflows nicht unterstützt.
- Sie benötigen ein installiertes, derzeit unterstütztes Gateway für die Verwendung mit Dataflow Gen2. Dataflow Gen2 unterstützt mindestens die letzten sechs veröffentlichten Gatewayversionen.
- Wenn Sie OAuth2-Anmeldedaten verwenden, unterstützt das Gateway aktuell keine Aktualisierungen für länger als eine Stunde. Diese Aktualisierungen schlagen dann fehl, weil das Gateway das Aktualisieren von Tokens nicht automatisch unterstützen kann, wenn Zugriffstokens ablaufen, was eine Stunde nach dem Start der Aktualisierung der Fall ist. Wenn beim Zugriff auf Clouddatenquellen mit OAuth2-Anmeldeinformationen der Fehler „InvalidConnectionCredentials“ oder „AccessUnauthorized“ angezeigt wird, obwohl die Anmeldeinformationen kürzlich aktualisiert wurden, ist möglicherweise dieser Fehler die Ursache. Diese Einschränkung für zeitintensive Aktualisierungen gilt sowohl für VNet-Gateways als auch für lokale Datengateways.
- Die Delta Lake-Spezifikation unterstützt keine Spaltennamen mit Berücksichtigung der Groß-/Kleinschreibung, sodass für
MyColumn
undmycolumn
die Fehlermeldung „Doppelte Spalten“ angezeigt wird, obwohl diese beim Mashup unterstützt werden. - Derzeit ist die NULL-Zulässigkeit in Spalten standardmäßig aktiviert, sodass NULL-Werte in allen Spalten im Ziel zulässig sind.
- Nach dem Speichern/Veröffentlichen Ihrer Dataflow gen2 ist es erforderlich, dass der Überprüfungs-/Veröffentlichungsprozess innerhalb von 10 Minuten pro Abfrage abgeschlossen sein muss. Wenn Sie diesen Grenzwert von 10 Minuten überschreiten, versuchen Sie, Ihre Abfragen zu vereinfachen oder Ihre Abfragen in dataflow gen2 aufzuteilen.
- Sie können mit Power Query Online oder Dataflow Gen2 (kein Gateway) keine Verbindung zu einem öffentlichen Endpunkt eines Azure Storage-Kontos herstellen, wenn für das Azure Storage-Konto bereits mindestens ein privater Endpunkt erstellt wurde. Verbindungen zu solchen Speicherkonten müssen Sie mit einem VNet-Datengateway oder einem lokalen Datengateway herstellen, das eine Verbindung über private Endpunkte herstellen kann.
- Dataflow Gen2 unterstützt keine Gastbenutzer im Mandanten, um eine Verbindung mit den Datenquellen und -zielen im Mandanten herzustellen, in dem der Benutzer Gast ist. Verwenden Sie einen nativen Benutzer im Mandanten, um eine Verbindung mit den Datenquellen und Zielsystemen herzustellen.
- Um Daten aus einem Gen2-Dataflow mit dem Dataflow-Connector zu verarbeiten, werden Administrator-, Mitglieds- oder Mitwirkendenberechtigungen benötigt. Die Viewerberechtigung reicht nicht aus und wird nicht für die Verwendung von Daten aus dem Datenfluss unterstützt.
In der folgenden Tabelle sind die unterstützten Datentypen für bestimmte Speicherorte angegeben.
Unterstützte Datentypen pro Speicherort: | DataflowStagingLakehouse | Ausgabe von Azure DB (SQL) | Ausgabe von Azure Data Explorer | Ausgabe von Fabric Lakehouse (LH) | Ausgabe von Fabric Warehouse (WH) |
---|---|---|---|---|---|
Aktion | Nein | Nein | Nein | Nein | Nein |
Beliebig | Nein | Nein | Nein | Nein | Nein |
Binär | Nein | Nein | Nein | Nein | Nein |
Währung | Ja | Ja | Ja | Ja | Nein |
DatumZeitZone | Ja | Ja | Ja | Nein | Nein |
Dauer | Nein | Nein | Ja | Nein | Nein |
Funktion | Nein | Nein | Nein | Nein | Nein |
Keine | Nein | Nein | Nein | Nein | Nein |
NULL | Nein | Nein | Nein | Nein | Nein |
Zeit | Ja | Ja | Nein | Nein | Nein |
Typ | Nein | Nein | Nein | Nein | Nein |
Strukturiert (Liste, Datensatz, Tabelle) | Nein | Nein | Nein | Nein | Nein |