Freigeben über


Übersicht über die Einschränkungen von Data Factory

Es gibt bestimmte Einschränkungen für die aktuellen Data Factory-Features in Microsoft Fabric. Überprüfen Sie vor dem Senden einer Supportanfrage die Listen in diesem Abschnitt, um festzustellen, ob eine bekannte Einschränkung auftritt.

Wenden Sie sich bei Ausfällen auf Dienstebene oder Benachrichtigungen über Leistungsminderungen an den Microsoft Fabric-Support.

Einschränkungen der Datenpipeline in Microsoft Fabric

In der folgenden Liste werden die aktuellen Einschränkungen für Pipelines in Data Factory in Microsoft Fabric beschrieben.

  • Die meisten Kopier- und Orchestrierungsmuster in Azure Data Factory gelten auch für Fabric-Pipelines, aber rollierende Fenster sind noch nicht verfügbar.
  • Connectors unterstützen OAuth und Azure Key Vault (AKV) nicht.
  • Verwaltete Systemidentität (Managed System Identity, MSI) ist nur für Azure Blob Storage verfügbar. Unterstützung für andere Quellen wird in Kürze verfügbar gemacht.
  • Die GetMetaData-Aktivität kann keine Quelle aus Fabric-KQL-Datenbanken nutzen.
  • Die Script-Aktivität kann keine Quelle aus Fabric-KQL-Datenbanken nutzen.
  • Überprüfungsaktivitäten, Zuordnungsdatenflussaktivität und die SSIS-Integrationsruntime sind nicht verfügbar.
  • Die Webaktivität unterstützt keine auf Dienstprinzipalen basierende Authentifizierung.
  • Die Hintergrundsynchronisierung der Authentifizierung erfolgt nicht für Pipelines. Es empfiehlt sich, kleinere Beschreibungen wie Updates für Pipelines auszuführen und zu speichern. Auf diese Weise wird ein neues Token abgerufen und zwischengespeichert, damit die Pipeline erneut mit dem aktualisierten Kennwort der Entra-ID ausgeführt werden kann.

Ressourcengrenzwerte für Datenpipelines

In der folgenden Tabelle werden die Ressourcenbeschränkungen für Pipelines in Data Factory in Microsoft Fabric beschrieben.

Pipelineressource Standardlimit Maximales Limit
Gesamtanzahl der Pipelines innerhalb eines Arbeitsbereichs 5.000 5.000
Gleichzeitige Pipelineausführungen pro Arbeitsbereich (von allen Pipelines im Arbeitsbereich gemeinsam genutzt) 10.000 10.000
Externe Aktivitäten (z. B. gespeicherte Prozeduren, Web, Web Hook und andere) 3.000 3.000
Ausführung von Pipelineaktivitäten für „Lookup“, „GetMetadata“ und „Delete“ 1.000 1.000
Gleichzeitige Erstellungsvorgänge, einschließlich Testen von Verbindungen, Durchsuchen der Ordnerliste und Tabellenliste, Überprüfen von Daten usw. 200 200
Maximale Aktivitäten pro Pipeline, einschließlich interner Aktivitäten für Container 120 120
Maximale Parameter pro Pipeline 50 50
ForEach-Elemente 100.000 100.000
ForEach-Parallelität 20 50
Anzahl der Elemente für die Lookup-Aktivität 5.000 5.000
Maximale Anzahl von Ausführungen in Warteschlange pro Pipeline 100 100
Zeichen pro Ausdruck 8.192 8.192
Maximales Zeitlimit für Ausführungen von Pipelineaktivitäten 24 Stunden 24 Stunden
Bytes pro Objekt für Pipelineobjekte 200 KB 200 KB
Bytes pro Payload für jede Aktivitätsausführung 896 KB 896 KB
Intelligente Durchsatzoptimierung pro Copy-Aktivitätsausführung Auto 256
Gleichzeitige intelligente Durchsatzoptimierung pro Arbeitsbereich 400 400
Größenbeschränkung für Metadatenentitäten in einer Factory 2 GB 2 GB

Einschränkungen von Data Factory Dataflow Gen2

In der folgenden Liste werden die Einschränkungen für Dataflow Gen2 in Data Factory in Microsoft Fabric beschrieben.

  • Datenziel für Lakehouse:
    • Leerzeichen oder Sonderzeichen in Spalten- oder Tabellennamen nicht unterstützt.
    • Dauer- und Binärspalten werden bei der Erstellung von Dataflow Gen2-Dataflows nicht unterstützt.
  • Sie benötigen ein installiertes, derzeit unterstütztes Gateway für die Verwendung mit Dataflow Gen2. Dataflow Gen2 unterstützt mindestens die letzten sechs veröffentlichten Gatewayversionen.
  • Wenn Sie OAuth2-Anmeldedaten verwenden, unterstützt das Gateway aktuell keine Aktualisierungen für länger als eine Stunde. Diese Aktualisierungen schlagen dann fehl, weil das Gateway das Aktualisieren von Tokens nicht automatisch unterstützen kann, wenn Zugriffstokens ablaufen, was eine Stunde nach dem Start der Aktualisierung der Fall ist. Wenn beim Zugriff auf Clouddatenquellen mit OAuth2-Anmeldeinformationen der Fehler „InvalidConnectionCredentials“ oder „AccessUnauthorized“ angezeigt wird, obwohl die Anmeldeinformationen kürzlich aktualisiert wurden, ist möglicherweise dieser Fehler die Ursache. Diese Einschränkung für zeitintensive Aktualisierungen gilt sowohl für VNet-Gateways als auch für lokale Datengateways.
  • Die Delta Lake-Spezifikation unterstützt keine Spaltennamen mit Berücksichtigung der Groß-/Kleinschreibung, sodass für MyColumn und mycolumn die Fehlermeldung „Doppelte Spalten“ angezeigt wird, obwohl diese beim Mashup unterstützt werden.
  • Derzeit ist die NULL-Zulässigkeit in Spalten standardmäßig aktiviert, sodass NULL-Werte in allen Spalten im Ziel zulässig sind.
  • Nach dem Speichern/Veröffentlichen Ihrer Dataflow gen2 ist es erforderlich, dass der Überprüfungs-/Veröffentlichungsprozess innerhalb von 10 Minuten pro Abfrage abgeschlossen sein muss. Wenn Sie diesen Grenzwert von 10 Minuten überschreiten, versuchen Sie, Ihre Abfragen zu vereinfachen oder Ihre Abfragen in dataflow gen2 aufzuteilen.
  • Sie können mit Power Query Online oder Dataflow Gen2 (kein Gateway) keine Verbindung zu einem öffentlichen Endpunkt eines Azure Storage-Kontos herstellen, wenn für das Azure Storage-Konto bereits mindestens ein privater Endpunkt erstellt wurde. Verbindungen zu solchen Speicherkonten müssen Sie mit einem VNet-Datengateway oder einem lokalen Datengateway herstellen, das eine Verbindung über private Endpunkte herstellen kann.
  • Dataflow Gen2 unterstützt keine Gastbenutzer im Mandanten, um eine Verbindung mit den Datenquellen und -zielen im Mandanten herzustellen, in dem der Benutzer Gast ist. Verwenden Sie einen nativen Benutzer im Mandanten, um eine Verbindung mit den Datenquellen und Zielsystemen herzustellen.
  • Um Daten aus einem Gen2-Dataflow mit dem Dataflow-Connector zu verarbeiten, werden Administrator-, Mitglieds- oder Mitwirkendenberechtigungen benötigt. Die Viewerberechtigung reicht nicht aus und wird nicht für die Verwendung von Daten aus dem Datenfluss unterstützt.

In der folgenden Tabelle sind die unterstützten Datentypen für bestimmte Speicherorte angegeben.

Unterstützte Datentypen pro Speicherort: DataflowStagingLakehouse Ausgabe von Azure DB (SQL) Ausgabe von Azure Data Explorer Ausgabe von Fabric Lakehouse (LH) Ausgabe von Fabric Warehouse (WH)
Aktion Nein Nein Nein Nein Nein
Beliebig Nein Nein Nein Nein Nein
Binär Nein Nein Nein Nein Nein
Währung Ja Ja Ja Ja Nein
DatumZeitZone Ja Ja Ja Nein Nein
Dauer Nein Nein Ja Nein Nein
Funktion Nein Nein Nein Nein Nein
Keine Nein Nein Nein Nein Nein
NULL Nein Nein Nein Nein Nein
Zeit Ja Ja Nein Nein Nein
Typ Nein Nein Nein Nein Nein
Strukturiert (Liste, Datensatz, Tabelle) Nein Nein Nein Nein Nein