Freigeben über


Problembehandlung bei Zuordnungsdatenflüssen in Azure Data Factory (ADF)

GILT FÜR: Azure Data Factory Azure Synapse Analytics

Tipp

Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!

In diesem Artikel werden die gängigen Problembehandlungsmethoden für Zuordnungsdatenflüsse in Azure Data Factory beschrieben.

Allgemeine Anleitungen zur Problembehandlung

  1. Überprüfen Sie den Status der Datasetverbindungen. Wechseln Sie in jeder einzelnen Quell-und Senkentransformation zum verknüpften Dienst für jedes verwendete Dataset, und testen Sie die Verbindungen.
  2. Überprüfen Sie im Datenfluss-Designer den Status Ihrer Datei- und Tabellenverbindungen. Wählen Sie im Debugmodus in Ihren Quelltransformationen Datenvorschau aus, um sicherzustellen, dass Sie auf Ihre Daten zugreifen können.
  3. Wenn in der Datenvorschau keine Probleme erkennbar sind, wechseln Sie zum Pipeline-Designer, und fügen Sie Ihren Datenfluss in eine Pipelineaktivität ein. Debuggen Sie die Pipeline in einem End-to-End-Test.

Interne Serverfehler

Im Folgenden finden Sie spezifische Szenarien, die interne Serverfehler verursachen können.

Szenario 1: Es wurde eine ungeeignete Auswahl bzgl. Computegröße/-typ und anderer Faktoren getroffen

Die erfolgreiche Ausführung eines Datenflusses hängt von vielen Faktoren ab. Hierzu zählen unter anderem die/der Computegröße/-typ, die Anzahl der zu verarbeitenden Quellen/Senken, die Partitionsspezifikation, die erforderlichen Transformationen,die Größe von Datasets sowie die Datenschiefe.

Weitere Informationen finden Sie unter Leistung der Integration Runtime.

Szenario 2: Verwenden von Debugsitzungen mit parallelen Aktivitäten

Wenn eine Ausführung mithilfe einer Datenflussdebugsitzung mit Konstrukten wie „ForEach“ in der Pipeline ausgelöst wird, können mehrere parallele Ausführungen an den gleichen Cluster übermittelt werden. Diese Situation kann zu Clusterfehlern führen, z. B. weil nicht genügend Arbeitsspeicher zur Verfügung steht oder ein anderes Ressourcenproblemen vorliegt.

Um eine Ausführung mit der entsprechenden in der Pipeline-Aktivität definierten Integration Runtime-Konfiguration zu übermitteln, wählen Sie nach der Veröffentlichung der Änderungen Jetzt auslösen oder Debuggen>Aktivitätslaufzeit verwenden.

Szenario 3: Vorübergehende Probleme

Vorübergehende Probleme mit an der Ausführung beteiligten Microservices können dazu führen, dass die Ausführung nicht erfolgreich ist.

Schwierigkeiten infolge von vorübergehenden Problemen lassen sich ggf. durch das Konfigurieren von Wiederholungen in der Pipelineaktivität beheben. Weitere Informationen finden Sie unter Aktivitätsrichtlinie.

Allgemeine Fehlercodes und Meldungen

Dieser Abschnitt listet häufige Fehlercodes und -meldungen auf, die von Zuordnungsdatenflüssen in Azure Data Factory zusammen mit den zugehörigen Ursachen und Empfehlungen gemeldet werden.

Fehlercode: DF-AdobeIntegration-InvalidMapToFilter

  • Meldung: In der benutzerdefinierten Ressource kann nur ein Schlüssel oder eine ID dem Filter zugeordnet werden.
  • Ursache: Es wurden ungültige Konfigurationen angegeben.
  • Empfehlung: Vergewissern Sie sich, dass in den AdobeIntegration-Einstellungen für die benutzerdefinierte Ressource nur ein Schlüssel bzw. eine ID für die Filterung zugeordnet ist.

Fehlercode: DF-AdobeIntegration-InvalidPartitionConfiguration

  • Meldung: Es wird nur eine einzelne Partition unterstützt. Das Partitionsschema kann ein RoundRobin- oder Hash-Schema sein.
  • Ursache: Es wurden ungültige Partitionskonfigurationen angegeben.
  • Empfehlung: Vergewissern Sie sich, dass in den AdobeIntegration-Einstellungen nur die einzelne Partition festgelegt ist. Das Partitionsschema kann „RoundRobin“ oder „Hash“ lauten.

Fehlercode: DF-AdobeIntegration-InvalidPartitionType

  • Meldung: Als Partitionstyp muss „roundRobin“ festgelegt werden.
  • Ursache: Es wurden ungültige Partitionstypen angegeben.
  • Empfehlung: Aktualisieren Sie die AdobeIntegration-Einstellungen, sodass der Partitionstyp „RoundRobin“ lautet.

Fehlercode: DF-AdobeIntegration-InvalidPrivacyRegulation

  • Meldung: Die einzige derzeit unterstützte Datenschutzbestimmung ist DSGVO.
  • Ursache: Es wurden ungültige Datenschutzkonfigurationen angegeben.
  • Empfehlung: Aktualisieren Sie die AdobeIntegration-Einstellungen. Es wird nur die Datenschutzoption „GDPR“ unterstützt.

Fehlercode: DF-AdobeIntegration-KeyColumnMissed

  • Meldung: Für nicht einfügbare Vorgänge muss der Schlüssel angegeben werden.
  • Ursache: Schlüsselspalten fehlen.
  • Empfehlung: Aktualisieren Sie die AdobeIntegration-Einstellungen, um sicherzustellen, dass Schlüsselspalten für nicht einfügbare Vorgänge angegeben sind.

Fehlercode: DF-AzureDataExplorer-InvalidOperation

  • Meldung: Blob-Vorgang wird für ältere Speicherkonten nicht unterstützt. Das Erstellen eines neuen Speicherkontos kann das Problem beheben.
  • Ursache: Der Vorgang wird nicht unterstützt.
  • Empfehlung: Ändern Sie die Konfiguration der Updatemethode, da Löschen, Aktualisieren und Upsert in Azure Data Explorer nicht unterstützt werden.

Fehlercode: DF-AzureDataExplorer-ReadTimeout

  • Meldung: Timeout für Vorgänge beim Lesen von Daten.
  • Ursache: Beim Lesen von Daten ist ein Timeout aufgetreten.
  • Empfehlung: Erhöhen Sie den Wert in der Option Timeout in den Einstellungen für die Quellentransformation.

Fehlercode: DF-AzureDataExplorer-WriteTimeout

  • Meldung: Timeout für Vorgänge beim Schreiben von Daten.
  • Ursache: Beim Schreiben von Daten ist ein Timeout aufgetreten.
  • Empfehlung: Erhöhen Sie den Wert in der Option Timeout in den Einstellungen für die Senkentransformation.

Fehlercode: DF-Blob-FunctionNotSupport

  • Meldung: Dieser Endpunkt unterstützt BlobStorageEvents, SoftDelete oder AutomaticSnapshot nicht. Deaktivieren Sie diese Kontofeatures, wenn Sie diesen Endpunkt verwenden möchten.
  • Ursache: Azure Blob Storage-Ereignisse, das vorläufige Löschen oder die automatische Momentaufnahme werden in Datenflüssen nicht unterstützt, wenn der verknüpfte Azure Blob Storage-Dienst mit Dienstprinzipal- oder verwalteter Identitätsauthentifizierung erstellt wird.
  • Empfehlung: Deaktivieren Sie Azure Blob Storage-Ereignisse, das Feature für das vorläufige Löschen oder die automatische Momentaufnahme im Azure Blob-Konto oder verwenden Sie die Schlüsselauthentifizierung, um den verknüpften Dienst zu erstellen.

Fehlercode: DF-Blob-InvalidAccountConfiguration

  • Meldung: Es muss entweder ein Kontoschlüssel oder ein SAS-Token angegeben werden.
  • Ursache: Im verknüpften Azure-Blobdienst wurde eine ungültige Anmeldeinformation angegeben.
  • Empfehlung: Verwenden Sie entweder einen Kontoschlüssel oder ein SAS-Token für den verknüpften Azure-Blobdienst.

Fehlercode: DF-Blob-InvalidAuthConfiguration

  • Meldung: Es kann nur eine der beiden Authentifizierungsmethoden (Key, SAS) angegeben werden.
  • Ursache: Im verknüpften Dienst ist eine ungültige Authentifizierungsmethode angegeben.
  • Empfehlung: Verwenden Sie die Schlüssel- oder SAS-Authentifizierung für den verknüpften Azure-Blobdienst.

Fehlercode: DF-Blob-InvalidCloudType

  • Meldung: Cloudtyp ist ungültig.
  • Ursache: Es wurde ein ungültiger Cloudtyp angegeben.
  • Empfehlung: Überprüfen Sie den Cloudtyp im zugehörigen verknüpften Azure-Blobdienst.

Fehlercode: DF-Cosmos-DeleteDataFailed

  • Meldung: Fehler beim Löschen von Daten aus Azure Cosmos DB nach 3 Wiederholungsversuchen.
  • Ursache: Der Durchsatz für die Azure Cosmos DB-Sammlung ist niedrig und führt zu einer Drosselung, oder die Zeilendaten sind nicht in Azure Cosmos DB vorhanden.
  • Empfehlung: Führen Sie die folgenden Aktionen aus, um dieses Problem zu beheben:
    • Stellen Sie bei einem Fehler des Typs 404 sicher, dass die zugehörigen Zeilendaten in der Azure Cosmos DB-Sammlung vorhanden sind.
    • Wenn der Fehler durch eine Drosselung verursacht wird, erhöhen Sie den Durchsatz für die Azure Cosmos DB-Sammlung, oder legen Sie die automatische Skalierung fest.
    • Wenn es sich bei dem Fehler um ein Timeout bei der Anforderung handelt, legen Sie „Batch size“ in der Azure Cosmos DB-Senke auf einen kleineren Wert fest, z. B. 1000.

Fehlercode: DF-Cosmos-FailToResetThroughput

  • Meldung: Der Vorgang zur Azure Cosmos DB-Durchsatzskalierung kann nicht ausgeführt werden, weil zurzeit ein anderer Skalierungsvorgang ausgeführt wird. Versuchen Sie es später noch mal.
  • Ursache: Der Vorgang zur Azure Cosmos DB-Durchsatzskalierung kann nicht ausgeführt werden, weil zurzeit ein anderer Skalierungsvorgang ausgeführt wird.
  • Empfehlung: Melden Sie sich beim Azure Cosmos DB-Konto an, und ändern Sie den Containerdurchsatz manuell so, dass er automatisch skaliert wird. Sie können auch eine benutzerdefinierte Aktivität nach dem Zuordnungsdatenfluss hinzufügen, um den Durchsatz zurückzusetzen.

Fehlercode: DF-Cosmos-IdPropertyMissed

  • Meldung: Die id-Eigenschaft muss für Lösch- und Aktualisierungsvorgänge zugeordnet werden.
  • Ursache: Die Eigenschaft id für Aktualisierungs- und Löschvorgänge fehlt.
  • Empfehlung: Stellen Sie sicher, dass die Eingabedaten eine Spalte id in den Transformationseinstellungen der Azure Cosmos DB-Senke aufweisen. Wenn nicht, verwenden Sie eine Auswahl- oder abgeleitete Spaltentransformation, um diese Spalte vor der Senkentransformation zu generieren.

Fehlercode: DF-Cosmos-InvalidAccountConfiguration

  • Meldung: Es muss entweder accountName oder accountEndpoint angegeben werden.
  • Ursache: Es wurden ungültige Kontoinformationen angegeben.
  • Empfehlung: Geben Sie im verknüpften Azure Cosmos DB-Dienst den Kontonamen oder den Kontoendpunkt an.

Fehlercode: DF-Cosmos-InvalidAccountKey

  • Meldung: Das Eingabeautorisierungstoken kann die Anforderung nicht verarbeiten. Vergewissern Sie sich, dass die erwarteten Nutzdaten protokollgemäß erstellt wurden, und überprüfen Sie den verwendeten Schlüssel.
  • Ursache: Es gibt nicht genügend Berechtigungen zum Lesen/Schreiben von Azure Cosmos DB-Daten.
  • Empfehlung: Verwenden Sie den Lese-/Schreibschlüssel für den Zugriff auf Azure Cosmos DB.

Fehlercode: DF-Cosmos-InvalidConnectionMode

  • Meldung: Ungültiger Verbindungsmodus.
  • Ursache: Es ist ein ungültiger Verbindungsmodus angegeben.
  • Empfehlung: Stellen Sie sicher, dass in den Azure Cosmos DB-Einstellungen der unterstützte Modus auf Gateway und DirectHttps festgelegt ist.

Fehlercode: DF-Cosmos-InvalidPartitionKey

  • Meldung: Der Partitionsschlüsselpfad darf für Aktualisierungs- und Löschvorgänge nicht leer sein.
  • Meldung: Der Partitionsschlüsselpfad für Aktualisierungs- und Löschvorgänge ist leer.
  • Empfehlung: Verwenden Sie den angegebenen Partitionsschlüssel in den Einstellungen der Azure Cosmos DB-Senke.
  • Meldung: Der Partitionsschlüssel ist in der Senke für Lösch- und Aktualisierungsvorgänge nicht zugeordnet.
  • Ursache: Es wurde ein ungültiger Partitionsschlüssel angegeben.
  • Empfehlung: Verwenden Sie in den Einstellungen der Azure Cosmos DB-Senke den richtigen Partitionsschlüssel, der dem Ihres Containers entspricht.

Fehlercode: DF-Cosmos-InvalidPartitionKeyContent

  • Meldung: Der Partitionsschlüssel muss mit „/“ beginnen.
  • Ursache: Es wurde ein ungültiger Partitionsschlüssel angegeben.
  • Empfehlung: Stellen Sie sicher, dass in den Einstellungen der Azure Cosmos DB-Senke der Partitionsschlüssel mit / beginnt. Beispiel: /movieId.

Fehlercode: DF-Cosmos-PartitionKeyMissed

  • Meldung: Der Partitionsschlüsselpfad muss für Aktualisierungs- und Löschvorgänge angegeben werden.
  • Ursache: In der Azure Cosmos DB-Senke fehlt der Partitionsschlüsselpfad.
  • Empfehlung: Geben Sie den Partitionsschlüssel in den Einstellungen der Azure Cosmos DB-Senke an.

Fehlercode: DF-Cosmos-ResourceNotFound

Fehlercode: DF-Cosmos-ShortTypeNotSupport

  • Meldung: Der Short-Datentyp wird in Azure Cosmos DB nicht unterstützt.
  • Ursache: Der Short-Datentyp wird in der Azure Cosmos DB-Instanz nicht unterstützt.
  • Empfehlung: Fügen Sie eine Transformation der abgeleiteten Spalte hinzu, um verknüpfte Spalten von Short in Integer zu konvertieren, bevor sie in der Azure Cosmos DB-Senke verwendet werden.

Fehlercode: DF-CSVWriter-InvalidQuoteSetting

  • Meldung: Auftragsfehler beim Schreiben von Daten: Anführungszeichen und Escapezeichen können nicht leer sein, wenn der Spaltenwert Spaltentrennzeichen enthält.
  • Ursache: Sowohl Anführungszeichen als auch Escapezeichen sind leer, wenn der Spaltenwert Spaltentrennzeichen enthält.
  • Empfehlung: Legen Sie Ihr Anführungszeichen oder Escapezeichen fest.

Fehlercode: DF-Delimited-ColumnDelimiterMissed

  • Meldung: Das Spaltentrennzeichen ist für die Analyse erforderlich.
  • Ursache: Das Spaltentrennzeichen fehlt.
  • Empfehlung: Vergewissern Sie sich, dass in den CSV-Einstellungen das für Analyse benötigte Spaltentrennzeichen angegeben wurde.

Fehlercode: DF-Delimited-InvalidConfiguration

  • Meldung: Es müssen entweder leere Zeilen oder benutzerdefinierte Header angegeben werden.
  • Ursache: Es wurde eine Konfiguration mit einem ungültigen Trennzeichen angegeben.
  • Empfehlung: Aktualisieren Sie die CSV-Einstellungen, um leere Zeilen oder benutzerdefinierte Header zu verwenden.

Fehlercode: DF-DELTA-InvalidConfiguration

  • Meldung: Zeitstempel und Version können nicht gleichzeitig festgelegt werden.
  • Meldung: Zeitstempel und Version können nicht gleichzeitig festgelegt werden.
  • Empfehlung: Legen Sie in den Deltaeinstellungen einen Zeitstempel oder eine Version fest.

Fehlercode: DF-Delta-InvalidProtocolVersion

  • Meldung: Unsupported Delta table protocol version, Refer https://docs.delta.io/latest/versioning.html#-table-version for versioning information. (Nicht unterstützte Delta-Tabellenprotokollversion; weitere Versionsverwaltungsinformationen finden Sie unter https://docs.delta.io/latest/versioning.html#-table-version.)
  • Ursache: Von Datenflüssen wird diese Version des Delta-Tabellenprotokolls nicht unterstützt.
  • Empfehlung: Verwenden Sie eine niedrigere Version des Delta-Tabellenprotokolls.

Fehlercode: DF-DELTA-InvalidTableOperationSettings

  • Meldung: Die Optionen zum Neuerstellen und Entfernen können nicht gleichzeitig angegeben werden.
  • Ursache: Die Optionen zum erneuten Erstellen und Abschneiden können nicht gleichzeitig angegeben werden.
  • Empfehlung: Aktualisieren Sie die Deltaeinstellungen, um entweder einen Vorgang zum erneuten Erstellen oder zum Abschneiden zu verwenden.

Fehlercode: DF-DELTA-KeyColumnMissed

  • Meldung: Für nicht einfügbare Vorgänge müssen Schlüsselspalten angegeben werden.
  • Ursache: Schlüsselspalten für nicht einfügbare Vorgänge fehlen.
  • Empfehlung: Um nicht einfügbare Vorgänge zu verwenden, Geben Sie Schlüsselspalten für die Deltasenke an.

Fehlercode: DF-Dynamics-InvalidNullAlternateKeyColumn

  • Meldung: Spaltenwerte des alternativen Schlüssels dürfen nicht NULL sein.
  • Ursache: Der Wert in der Spalten mit dem alternativen Schlüssel darf nicht NULL sein.
  • Empfehlung: Vergewissern Sie sich, dass der Spaltenwert für Ihren alternativen Schlüssel nicht NULL ist.

Fehlercode: DF-Dynamics-TooMuchAlternateKey

  • Ursache: Ein Suchfeld mit mehr als einem Verweis auf einen alternativen Schlüssel ist ungültig.
  • Empfehlung: Überprüfen Sie Ihre Schemazuordnung, und vergewissern Sie sich, dass jedes Suchfeld über einen einzelnen alternativen Schlüssel verfügt.

Fehlercode: DF-Excel-DifferentSchemaNotSupport

  • Meldung: Das Lesen von Excel-Dateien mit einem anderen Schema wird derzeit nicht unterstützt.
  • Ursache: Das Lesen von Excel-Dateien mit einem anderen Schema wird derzeit nicht unterstützt.
  • Empfehlung: Wenden Sie eine der folgenden Optionen an, um dieses Problem zu lösen:
    • Verwenden Sie die Aktivität ForEach + Datenfluss um Excel-Arbeitsblätter einzeln zu lesen.
    • Aktualisieren Sie vor dem Lesen der Daten jedes Arbeitsblattschema manuell, sodass es dieselben Spalten enthält.

Fehlercode: DF-Excel-InvalidDataType

  • Meldung: Der Datentyp wird nicht unterstützt.
  • Ursache: Der Datentyp wird nicht unterstützt.
  • Empfehlung: Ändern Sie den Datentyp für zugehörige Eingabedatenspalten in string.

Fehlercode: DF-Excel-InvalidFile

  • Meldung: Es wurde eine ungültige Excel-Datei angegeben. Es werden nur XLSX- und XLS-Dateien unterstützt.
  • Ursache: Es wurden ungültige Excel-Dateien angegeben.
  • Empfehlung: Verwenden Sie den Platzhalter zum Filtern, und rufen Sie vor dem Lesen von Daten .xls- und .xlsx-Excel-Dateien ab.

Fehlercode: DF-Excel-InvalidRange

Fehlercode: DF-Excel-InvalidWorksheetConfiguration

  • Meldung: Der Name und der Index der Excel-Tabelle können nicht gleichzeitig vorhanden sein.
  • Ursache: Der Name und der Index des Excel-Blatts wurden gleichzeitig angegeben.
  • Empfehlung: Überprüfen Sie zum Lesen der Excel-Daten den Parameterwert, und geben Sie den Namen oder Index der Tabelle an.

Fehlercode: DF-Excel-WorksheetConfigMissed

  • Meldung: Der Name oder Index der Excel-Tabelle ist erforderlich.
  • Ursache: Es wurde eine ungültige Excel-Arbeitsblattkonfiguration angegeben.
  • Empfehlung: Überprüfen Sie zum Lesen der Excel-Daten den Parameterwert, und geben Sie den Namen oder Index der Tabelle an.

Fehlercode: DF-Excel-WorksheetNotExist

  • Meldung: Das Excel-Arbeitsblatt ist nicht vorhanden.
  • Ursache: Es wurde ein ungültiger Arbeitsblattname oder -index angegeben.
  • Empfehlung: Überprüfen Sie zum Lesen der Excel-Daten den Parameterwert, und geben Sie den gültigen Arbeitsblattnamen oder -index an.

Fehlercode: DF-Executor-AcquireStorageMemoryFailed

  • Meldung: Fehler beim Übertragen von Speicher des Typs „Unroll“ in den Arbeitsspeicher. Für den Cluster stand während der Ausführung nicht genügend Arbeitsspeicher zur Verfügung. Wiederholen Sie den Vorgang unter Verwendung einer Integration Runtime mit mehr Kernen und/oder dem Computetyp „Arbeitsspeicheroptimiert“.
  • Ursache: Der Cluster umfasst nicht genügend Arbeitsspeicher.
  • Empfehlung: Verwenden Sie eine Integration Runtime mit mehr Kernen und/oder dem Computetyp „Arbeitsspeicheroptimiert“.

Fehlercode: DF-Executor-BlockCountExceedsLimitError

  • Meldung: Die Anzahl der Blöcke ohne Commit darf den maximalen Grenzwert von 100.000 Blöcken nicht überschreiten. Überprüfen Sie die Blobkonfiguration.
  • Ursache: Die maximale Anzahl von Blöcken ohne Commit in einem Blob ist 100.000.
  • Empfehlung: Weitere Informationen zu diesem Problem erhalten Sie vom Microsoft-Produktteam.

Fehlercode: DF-Executor-BroadcastFailure

  • Meldung: Fehler bei der Ausführung des Datenflusses während des Übertragungsaustauschs. Mögliche Ursachen sind falsch konfigurierte Quellen-Verbindungen oder ein Broadcastjoin-Timeoutfehler. Um sicherzustellen, dass die Quellen ordnungsgemäß konfiguriert sind, testen Sie die Verbindung oder führen Sie eine Quelldatenvorschau in einer Dataflow-Debugsitzung aus. Um das Broadcastjoin-Timeout zu vermeiden, können Sie die Broadcastoption „Aus“ in den Join/Exists/Lookup-Transformationen auswählen. Wenn Sie die Broadcastoption nutzen möchten, um die Leistung zu verbessern, müssen Sie sicherstellen, dass die Broadcast-Datenströme innerhalb von 60 Sekunden Daten für Debugausführungen und innerhalb von 300 Sekunden Daten für Auftragsausführungen erzeugen können. Falls das Problem weiterhin besteht, wenden Sie sich an Kundensupport.

  • Ursache:

    1. Der Fehler bei der Quellverbindung/Konfiguration kann zu einem Übertragungsfehler bei Join/Exists/Lookup-Transformationen führen.
    2. Für Übertragungen gilt bei Debugausführungen ein Standardtimeout von 60 Sekunden und bei Auftragsausführungen ein Standardtimeout von 300 Sekunden. Der bei einem Broadcastjoin für die Übertragung ausgewählte Datenstrom ist anscheinend zu groß, um innerhalb dieser Zeitspanne Daten zu erzeugen. Wenn kein Broadcastjoin verwendet wird, kann die vom Datenfluss durchgeführte Standardübertragung denselben Grenzwert erreichen.
  • Empfehlung:

    • Verwenden Sie für die Quellen eine Datenvorschau, um zu bestätigen, dass die Quellen gut konfiguriert sind.
    • Deaktivieren Sie die Übertragungsoption oder vermeiden Sie die Übertragung von großen Datenströmen, deren Verarbeitung länger als 60 Sekunden dauern kann. Wählen Sie stattdessen einen kleineren Datenstrom für die Übertragung.
    • Große SQL-/Data Warehouse-Tabellen und Quelldateien sind hierfür eher ungeeignet.
    • Sofern kein Broadcastjoin vorhanden ist, verwenden Sie einen größeren Cluster, wenn dieser Fehler auftritt.
    • Falls das Problem weiterhin besteht, wenden Sie sich an den Kundensupport.

Fehlercode: DF-Executor-BroadcastTimeout

  • Meldung: Timeoutfehler beim Übertragen von Verknüpfungen. Stellen Sie sicher, dass der Übertragungsdatenstrom in Debugausführungen Daten innerhalb von 60 Sekunden und in Auftragsausführungen innerhalb von 300 Sekunden Daten erzeugt.

  • Ursache: Für Übertragungen gilt bei Debugausführungen ein Standardtimeout von 60 Sekunden und bei Auftragsausführungen ein Standardtimeout von 300 Sekunden. Der für die Übertragung ausgewählte Datenstrom ist zu groß, um innerhalb dieser Zeitspanne Daten zu erzeugen.

  • Empfehlung: Überprüfen Sie die Registerkarte Optimieren bei Ihren Datenflusstransformationen auf „join“, „exists“ und „lookup“. Die Standardoption für die Übertragung ist Auto. Wenn Auto festgelegt ist oder Sie die linke oder rechte Seite unter Fixed für die Übertragung manuell festlegen, können Sie entweder eine größere Azure Integration Runtime (IR)-Konfiguration festlegen oder die Übertragung deaktivieren. Für die optimale Leistung bei Datenflüssen empfehlen wir, Spark zu erlauben, mithilfe von Auto zu übertragen und eine arbeitsspeicheroptimierte Azure IR zu verwenden.

    Wenn Sie den Datenfluss in einer Debugtestausführung über eine Debugpipelineausführung ausführen, könnte diese Bedingung häufiger auftreten. Der häufigste Grund für diesen Fehler: Azure Data Factory drosselt das Übertragungstimeout auf 60 Sekunden, um ein schnelleres Debuggen zu ermöglichen. Sie können das Timeout auf das 300-Sekunden-Timeout einer ausgelösten Ausführung verlängern. Zu diesem Zweck können Sie die Option Debug>Aktivitätsruntime verwenden auswählen, um die in Ihrer Aktivität „Datenflusspipeline ausführen“ definierte Azure IR zu verwenden.

  • Meldung: Timeoutfehler beim Übertragen von Verknüpfungen. Sie können die Option „Broadcast“ in der join-/exists-/lookup-Transformation auf „Aus“ festlegen, um dieses Problem zu vermeiden. Wenn Sie Broadcastjoin nutzen möchten, um die Leistung zu verbessern, stellen Sie sicher, dass der Broadcast-Datenstrom Daten in Debugausführungen innerhalb von 60 Sekunden und in Auftragsausführungen von 300 Sekunden erstellen kann.

  • Ursache: Für Übertragungen gilt bei Debugausführungen ein Standardtimeout von 60 Sekunden und bei Auftragsausführungen ein Standardtimeout von 300 Sekunden. Der bei einem Broadcastjoin für die Übertragung ausgewählte Datenstrom ist zu groß, um innerhalb dieser Zeitspanne Daten zu erzeugen. Wenn kein Broadcastjoin verwendet wird, kann der Standardbroadcast durch den Datenfluss denselben Grenzwert erreichen.

  • Empfehlung: Deaktivieren Sie die Broadcastoption, oder vermeiden Sie die Übertragung großer Datenströme, deren Verarbeitung länger als 60 Sekunden dauern kann. Wählen Sie einen kleineren Datenstrom für die Übertragung. Große Azure SQL Data Warehouse-Tabellen und -Quelldateien sind normalerweise keine gute Wahl. Sollte kein Broadcastjoin vorhanden sein, verwenden Sie einen größeren Cluster, wenn dieser Fehler auftritt.

Fehlercode: DF-Executor-ColumnNotFound

  • Meldung: Der im Ausdruck verwendete Spaltenname ist nicht verfügbar oder ungültig.
  • Ursache: In einem Ausdruck wird ein ungültiger oder nicht verfügbarer Spaltenname verwendet.
  • Empfehlung: Überprüfen Sie die in Ausdrücken verwendeten Spaltennamen.

Fehlercode: DF-Executor-Conversion

  • Meldung: Converting to a date or time failed due to an invalid character (Fehler beim Umwandeln eines Datums oder einer Uhrzeit aufgrund eines ungültigen Zeichens)
  • Ursache: Die Daten haben nicht das erwartete Format.
  • Empfehlung: Verwenden Sie den richtigen Datentyp.

Fehlercode: DF-Executor-DriverError

  • Meldung: INT96 ist ein älterer Zeitstempeltyp, der vom ADF-Datenfluss nicht unterstützt wird. Sie sollten den Spaltentyp auf die aktuellen Typen aktualisieren.
  • Ursache: Treiberfehler.
  • Empfehlung: INT96 ist ein Legacy-Zeitstempeltyp, der von Azure Data Factory-Datenfluss nicht unterstützt wird. Sie sollten den Spaltentyp auf den neuesten Typ aktualisieren.

Fehlercode: DF-Executor-FieldNotExist

  • Meldung: Das Feld in der Struktur ist nicht vorhanden.
  • Ursache: In Ausdrücken wurde ungültige oder nicht verfügbare Feldnamen verwendet.
  • Empfehlung: Überprüfen Sie die in Ausdrücken verwendeten Feldnamen.

Fehlercode: DF-Executor-illegalArgument

  • Meldung: Stellen Sie sicher, dass in Ihrem verknüpften Dienst der richtige Zugriffsschlüssel verwendet wird
  • Ursache: Der Kontoname oder Zugriffsschlüssel ist falsch.
  • Empfehlung: Stellen Sie sicher, dass in Ihrem verknüpften Dienst der richtige Kontoname oder Zugriffsschlüssel angegeben ist.

Fehlercode: DF-Executor-IncorrectLinkedServiceConfiguration

  • Meldung: Possible causes are (Mögliche Ursachen sind):
    • The linked service is incorrectly configured as type 'Azure Blob Storage' instead of 'Azure DataLake Storage Gen2' and it has 'Hierarchical namespace' enabled. (Der verknüpfte Dienst ist falsch als Typ „Azure Blob Storage“ anstelle von „Azure Data Lake Storage Gen2“ konfiguriert, und „Hierarchischer Namespace“ ist aktiviert.) Erstellen Sie einen neuen verknüpften Dienst vom Typ „Azure DataLake Storage Gen2“ für das betreffende Speicherkonto.
    • Bestimmte Szenarios mit beliebigen Kombinationen von „Ordner löschen“, nicht dem Standard entsprechender Option „Dateiname“, „Schlüssel“-Partitionierung schlagen möglicherweise mit einem Blob-verknüpften Dienst in einem Speicherkonto mit aktivierter Option „Hierarchischer Namespace“ fehl. You can disable these dataflow settings (if enabled) and try again in case you do not want to create a new Gen2 linked service. (Sie können diese Datenflusseinstellungen (wenn aktiviert) deaktivieren und es erneut versuchen, falls Sie keinen neuen verknüpften Gen2-Dienst erstellen möchten.)
  • Ursache: Fehler beim Löschen des Azure Data Lake Storage Gen2-Kontos, da der verknüpfte Dienst falsch als Azure Blob Storage konfiguriert ist.
  • Empfehlung: Erstellen Sie einen neuen mit Azure Data Lake Storage Gen2-verknüpften Dienst für das Speicherkonto. Wenn dies nicht möglich ist, können einige bekannte Szenarios wie Ordner löschen, die Option von einem nicht dem Standard entsprechenden Dateinamen oder Schlüsselpartitionierung in beliebigen Kombinationen möglicherweise mit einem mit Azure Blob Storage-verknüpften Dienst für ein Speicherkonto mit aktiviertem hierarchischen Namespace fehlschlagen. Sie können diese Datenflusseinstellungen deaktivieren, wenn Sie sie aktiviert haben. Dann können Sie es erneut versuchen.

Fehlercode: DF-Executor-InternalServerError

  • Meldung: Fehler beim Ausführen des Dataflows mit einem internen Serverfehler, versuchen Sie es später erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Microsoft-Support, um Unterstützung zu erhalten.
  • Ursache: Die Ausführung des Datenflusses ist aufgrund des Systemfehlers fehlgeschlagen.
  • Empfehlung: Um dieses Problem zu beheben, lesen Sie Interne Serverfehler.

Fehlercode: DF-Executor-InvalidColumn

  • Meldung: Der Spaltenname muss in der Abfrage angegeben werden. Legen Sie einen Alias fest, wenn Sie eine SQL-Funktion verwenden.
  • Ursache: Es wurde kein Spaltenname angegeben.
  • Empfehlung: Legen Sie einen Alias fest, wenn Sie eine SQL-Funktion wie „min()“ oder „max()“ verwenden.

Fehlercode: DF-Executor-InvalidInputColumns

  • Meldung: Die Spalte in der Quellkonfiguration wurde im Schema der Quelldaten nicht gefunden.
  • Ursache: Für die Quelle wurden ungültige Spalten angegeben.
  • Empfehlung: Überprüfen Sie die Spalten in der Quellkonfiguration, und stellen Sie sicher, dass es sich um eine Teilmenge des Quelldatenschemas handelt.

Fehlercode: DF-Executor-InvalidOutputColumns

  • Meldung: Das Ergebnis enthält 0 Ausgabespalten. Stellen Sie sicher, dass mindestens eine Spalte zugeordnet ist.
  • Ursache: Es ist keine Spalte zugeordnet.
  • Empfehlung: Überprüfen Sie das Senkenschema, um sicherzustellen, dass mindestens eine Spalte zugeordnet ist.

Fehlercode: DF-Executor-InvalidPartitionFileNames

  • Meldung: Dateinamen dürfen keine leeren Werte enthalten, wenn die Option für Dateinamen pro Partition festgelegt ist.
  • Ursache: Es werden ungültige Partitionsdateinamen angegeben.
  • Empfehlung: Überprüfen Sie Ihre Senkeneinstellungen, um den richtigen Wert für Dateinamen zu verwenden.

Fehlercode: DF-Executor-InvalidPath

  • Meldung: Der Pfad wird nicht in Dateien aufgelöst. Stellen Sie sicher, dass die Datei bzw. der Ordner vorhanden und nicht ausgeblendet ist.
  • Ursache: Es wurde ein ungültiger Datei-/Ordnerpfad angegeben, der nicht gefunden wurde oder auf den nicht zugegriffen werden kann.
  • Empfehlung: Überprüfen Sie den Datei-/Ordnerpfad, und stellen Sie sicher, dass er vorhanden und in Ihrem Speicher zugänglich ist.

Fehlercode: DF-Executor-InvalidStageConfiguration

  • Meldung: Storage mit Authentifizierung mit einer benutzerseitig zugewiesenen verwalteten Identität beim Stagingprozess wird nicht unterstützt.
  • Ursache: Eine Ausnahme ist aufgrund der ungültigen Stagingkonfiguration aufgetreten.
  • Empfehlung: Derzeit wird die verwaltete Identitätsauthentifizierung im Staging nicht unterstützt. Verwenden Sie eine andere Authentifizierung, um einen Azure Data Lake Storage Gen2- oder einen verknüpften Azure Blob Storage-Dienst zu erstellen, und verwenden Sie ihn dann als Staging in Zuordnungsdatenflüssen.

Fehlercode: DF-Executor-InvalidType

  • Meldung: Stellen Sie sicher, dass der Parametertyp mit dem Typ des übergebenen Werts übereinstimmt. Das Übergeben von float-Parametern aus Pipelines wird derzeit nicht unterstützt.
  • Ursache: Der Datentyp für den deklarierten Typ ist mit dem tatsächlichen Parameterwert nicht kompatibel.
  • Empfehlung: Vergewissern Sie sich, dass die an den Datenfluss übergebenen Parameterwerte dem deklarierten Typ entsprechen.

Fehlercode: DF-Executor-OutOfDiskSpaceError

  • Meldung: Interner Serverfehler
  • Ursache: Der Cluster verfügt nicht über genügend Speicherplatz.
  • Empfehlung: Führen Sie die Pipeline erneut aus. Wenn das Problem dadurch nicht behoben wird, wenden Sie sich an den Kundensupport.

Fehlercode: DF-Executor-OutOfMemoryError

  • Meldung: Nicht genügend Arbeitsspeicher während der Ausführung im Cluster verfügbar. Wiederholen Sie den Vorgang mit einer Integration Runtime mit einer größeren Anzahl von Kernen und/oder einem arbeitsspeicheroptimierten Computetyp.
  • Ursache: Der Cluster verfügt nicht über genügend Arbeitsspeicher.
  • Empfehlung: Debugcluster sind für die Entwicklung gedacht. Nutzen Sie die Datenstichprobenentnahme, den entsprechenden Computetyp und die richtige Größe zur Ausführung der Payload. Leistungstipps finden Sie in der Mapping Data Flow Performance Guide (Anleitung zur Leistung von Zuordnungsdatenflüssen).

Fehlercode: DF-Executor-OutOfMemorySparkBroadcastError

  • Meldung: Das mithilfe der Option „left“ oder „right“ explizit übertragene Dataset muss klein genug sein, um in den Arbeitsspeicher des Knotens aufgenommen zu werden. Sie können die Broadcastoption in einer Transformation vom Typ „join“, „exists“ oder „lookup“ auf „Off“ festlegen, um dieses Problem zu vermeiden, oder eine Integration Runtime mit mehr Arbeitsspeicher verwenden.
  • Ursache: Die übertragene Tabelle überschreitet die Größenbeschränkungen des Knotenarbeitsspeichers bei weitem.
  • Empfehlung: Die Option „Übertragung nach links/rechts“ sollte nur für kleinere Datasetgrößen verwendet werden, die in den Speicher des Knotens passen können. Stellen Sie sicher, dass Sie die Knotengröße entsprechend konfigurieren oder die Übertragungsoption deaktivieren.

Fehlercode: DF-Executor-OutOfMemorySparkError

  • Meldung: The data may be too large to fit in the memory. (Die Daten sind möglicherweise zu groß, um in den Arbeitsspeicher zu passen.)
  • Ursache: Die Größe der Daten überschreitet die Größenbeschränkung des Knotenarbeitsspeichers bei Weitem.
  • Empfehlung: Erhöhen Sie die Kernanzahl, und wechseln Sie zum arbeitsspeicheroptimierten Computetyp.

Fehlercode: DF-Executor-ExpressionParseError

  • Meldung: Der Ausdruck kann nicht analysiert werden.
  • Ursache: Ein Ausdruck hat aufgrund von falscher Formatierung Analysefehler generiert.
  • Empfehlung: Überprüfen Sie die Formatierung im Ausdruck.

Fehlercode: DF-Executor-PartitionDirectoryError

  • Meldung: Der angegebene Quellpfad enthält entweder mehrere partitionierte Verzeichnisse (z. B. <Quellpfad>/<Partitionsstammverzeichnis 1>/a=10/b=20, <Quellpfad>/<Partitionsstammverzeichnis 2>/c=10/d=30) oder aber ein partitioniertes Verzeichnis mit einer anderen Datei oder einem nicht partitionierten Verzeichnis (z. B. <Quellpfad>/<Partitionsstammverzeichnis 1>/a=10/b=20, <Quellpfad>/Verzeichnis 2/Datei1). Entfernen Sie das Partitionsstammverzeichnis aus dem Quellpfad, und lesen Sie es durch eine separate Quelltransformation.
  • Ursache: Der Quellpfad enthält entweder mehrere partitionierte Verzeichnisse oder ein partitioniertes Verzeichnis mit einer anderen Datei oder einem nicht partitionierten Verzeichnis.
  • Empfehlung: Entfernen Sie das partitionierte Stammverzeichnis aus dem Quellpfad, und lesen Sie es durch eine separate Quelltransformation.

Fehlercode: DF-Executor-RemoteRPCClientDisassociated

  • Meldung: Der Auftrag wurde aufgrund eines Stage-Fehlers abgebrochen. Zuordnung des Remote-RPC-Clients wurde aufgehoben. Mögliche Ursachen sind die Überschreitung von Schwellenwerten durch Container oder Netzwerkprobleme.
  • Ursache: Fehler bei der Datenfluss-Aktivitätsausführung aufgrund des vorübergehenden Netzwerkproblems oder einem Knoten im Spark-Cluster ging der Speicher aus.
  • Empfehlung: Verwenden Sie die folgenden Optionen, um dieses Problem zu lösen:
    • Option-1: Verwenden Sie einen leistungsstarken Cluster (sowohl Laufwerks- als auch Executor-Knoten verfügen über genügend Arbeitsspeicher für die Verarbeitung von Big Data), um Datenflusspipelines mit der Einstellung „Computetyp“ auf „arbeitsspeicheroptimiert“ ausführen zu können. Die Einstellungen sind in der folgenden Abbildung dargestellt.

      Screenshot: Konfiguration des Compute-Typs

    • Option 2: Verwenden Sie eine größere Clustergröße (z. B. 48 Kerne), um Ihre Datenflusspipelines ausführen. Weitere Informationen zur Clustergröße finden Sie in diesem Dokument: Clustergröße.

    • Option-3: Neupartitionierung Ihrer Eingabedaten. Bei Aufgaben, die im Datenfluss-Spark-Cluster ausgeführt werden, stellt eine Aufgabe eine Partition dar, die auf einem Knoten ausgeführt wird. Wenn die Daten in einer Partition zu groß sind, verbraucht die zugehörige Aufgabe, die auf dem Knoten ausgeführt wird, mehr Arbeitsspeicher als der Knoten selbst, wodurch ein Fehler auftritt. Sie können die Neupartitionierung verwenden, um Datenschiefe zu vermeiden und sicherzustellen, dass die Datengröße in jeder Partition durchschnittlich groß ist, während der Arbeitsspeicherverbrauch nicht zu hoch ist.

      Screenshot: Konfiguration der Partitionen

      Hinweis

      Sie müssen die Datengröße oder die Partitionsnummer der Eingabedaten auswerten und dann unter „Optimieren“ eine passende Partitionsnummer festlegen. Beispielsweise hat der Cluster, den Sie in der Datenflusspipelineausführung verwenden, 8 Kerne und der Arbeitsspeicher jedes Kerns hat 20 GB; die Eingabedaten haben allerdings 1.000 GB bei 10 Partitionen. Wenn Sie den Datenfluss direkt ausführen, tritt das OOM-Problem auf (1.000 GB/10 > 20 GB). Deshalb ist es besser, die neue Partitionsnummer auf „100“ festzulegen (1000 GB/100 < 20 GB).

    • Option-4: Anpassen und Optimieren von Quell-/Senken-/Transformationseinstellungen. Versuchen Sie z. B. alle Dateien in einem Container zu kopieren und verwenden Sie nicht das Platzhaltermuster. Ausführlichere Informationen finden Sie unter Leistungs- und Optimierungshandbuch für Zuordnungsdatenflüsse).

Fehlercode: DF-Executor-SourceInvalidPayload

  • Meldung: Fehler bei der Datenvorschau, beim Debuggen und beim Ausführen des Datenflows in der Pipeline, weil der Container nicht vorhanden ist.
  • Ursache: Ein Dataset enthält einen Container, der im Speicher nicht vorhanden ist.
  • Empfehlung: Stellen Sie sicher, dass der Container, auf den Sie in Ihrem Dataset verwiesen haben, vorhanden ist und darauf zugegriffen werden kann.

Fehlercode: DF-Executor-StoreIsNotDefined

  • Meldung: Die Speicherkonfiguration ist nicht definiert. Dieser Fehler wird möglicherweise durch eine ungültige Parameterzuweisung in der Pipeline verursacht.
  • Ursache: Es wurde eine ungültige Speicherkonfiguration angegeben.
  • Empfehlung: Überprüfen Sie die Zuweisung von Parameterwerten in der Pipeline. Ein Parameterausdruck enthält möglicherweise ungültige Zeichen.

Fehlercode: DF-Executor-StringValueNotInQuotes

  • Meldung: Spaltenopernden sind in Literalausdrücken nicht zulässig.
  • Ursache: Der Wert für einen Zeichenfolgenparameter oder einen erwarteten Zeichenfolgenwert wird nicht in einfache Anführungszeichen eingeschlossen.
  • Empfehlung: Stellen Sie sich, dass der Wert für einen Zeichenfolgenparameter oder ein erwarteter Zeichenfolgenwert in einfache Anführungszeichen in der Nähe der genannten Zeilennummer(n) im Datenflussskript in einfache Anführungszeichen eingeschlossen ist.

Fehlercode: DF-Executor-SystemImplicitCartesian

  • Meldung: Implizites kartesisches Produkt wird für INNER JOIN nicht unterstützt. Verwenden Sie stattdessen CROSS JOIN. Die im Join verwendeten Spalten müssen einen eindeutigen Schlüssel für Zeilen erstellen.
  • Ursache: Implizite kartesische Produkte für INNER JOINs zwischen logischen Plänen werden nicht unterstützt. Wenn Sie Spalten im Join verwenden, erstellen Sie einen eindeutigen Schlüssel.
  • Empfehlung: Verwenden Sie bei nicht gleichheitsbasierten Joins CROSS JOIN.

Fehlercode: DF-Executor-SystemInvalidJson

  • Meldung: JSON parsing error, unsupported encoding or multiline (JSON-Analysefehler: nicht unterstützte Codierung oder mehrzeiliger Text)
  • Ursache: Mögliche Probleme bei der JSON-Datei: nicht unterstützte Codierung, beschädigte Bytes oder Verwendung der JSON-Quelle als einzelnes Dokument in vielen geschachtelten Zeilen.
  • Empfehlung: Überprüfen Sie, ob die Codierung der JSON-Datei unterstützt wird. Erweitern Sie in der Quelltransformation, die ein JSON-Dataset verwendet, die Option JSON-Einstellungen, und aktivieren Sie Einzelnes Dokument.

Fehlercode: DF-Executor-UnauthorizedStorageAccess

  • Ursache: Ihr Zugriff auf das Speicherkonto ist entweder aufgrund fehlender Rollen für die Authentifizierung mit einer verwalteten Identität/eines Dienstprinzipals oder aufgrund der Netzwerkfirewalleinstellungen nicht zulässig.

  • Empfehlung: Bei Verwendung der Authentifizierung mit einer verwalteten Identität/einem Dienstprinzipal:

    1. Als Quelle: Weisen Sie der verwalteten Identität/dem Dienstprinzipal im Storage-Explorer mindestens die Berechtigung Ausführen für ALLE Upstreamordner und das Dateisystem sowie die Berechtigung Lesen für die zu kopierenden Dateien zu. Weisen Sie der verwalteten Identität/dem Dienstprinzipal alternativ in der Zugriffssteuerung (IAM) mindestens die Rolle Storage-Blobdatenleser zu.
    2. Als Senke: Weisen Sie der verwalteten Identität/dem Dienstprinzipal im Storage-Explorer mindestens die Berechtigung Ausführen für ALLE Upstreamordner und das Dateisystem sowie die Berechtigung Schreiben für den Zielordner (Senke) zu. Weisen Sie der verwalteten Identität/dem Dienstprinzipal alternativ in der Zugriffssteuerung (IAM) mindestens die Rolle Mitwirkender an Storage-Blobdaten zu.

    Stellen Sie außerdem sicher, dass die Netzwerkfirewalleinstellungen im Speicherkonto ordnungsgemäß konfiguriert sind, da das Aktivieren von Firewallregeln für Ihr Speicherkonto standardmäßig eingehende Anforderungen für Daten blockiert, es sei denn, die Anforderungen stammen von einem Dienst, der in einem virtuellen Azure-Netzwerk (VNet) ausgeführt wird, oder von zulässigen öffentlichen IP-Adressen.

Fehlercode: DF-Executor-UnreachableStorageAccount

  • Meldung: Das System kann die IP-Adresse des Hosts nicht auflösen. Überprüfen Sie, ob Ihr Hostname richtig ist oder ob Ihr DNS-Server den Host erfolgreich in eine IP-Adresse auflösen kann.
  • Ursache: Das angegebene Speicherkonto konnte nicht erreicht werden.
  • Empfehlung: Überprüfen Sie den Namen des Speicherkontos, und stellen Sie sicher, dass das Speicherkonto vorhanden ist.

Fehlercode: DF-Executor-UserError

  • Meldung: Auftragsfehler aus folgendem Grund: GetjobStatus, Job Failed - com.microsoft.dataflow.issues: DF-MICROSOFT365-CONSENTPENDING
  • Ursache: Zum Kopieren von Daten ist eine Genehmigung für privilegierten Zugriff erforderlich. Es handelt sich um ein Problem mit der Benutzerkonfiguration.
  • Empfehlung: Bitten Sie den Mandantenadministrator, Ihre Datenzugriffsanforderung in Office365 im PAM-Modul (Privileged Access Management) zu genehmigen.

Fehlercode: DF-Executor-DSLParseError

  • Meldung: Das Datenflussskript kann nicht analysiert werden.
  • Ursache: Das Datenflussskript weist Analysefehler auf.
  • Empfehlung: Überprüfen Sie auf Fehler (z. B. fehlende Symbole, unerwünschte Symbole) in der Nähe der erwähnten Zeilennummern im Datenflussskript.

Fehlercode: DF-Executor-IncorrectQuery

  • Meldung: Falsche Syntax. SQL Server-Fehler beim Lesen aus der angegebenen Tabelle oder beim Ausführen der angegebenen Abfrage.
  • Ursache: Die übermittelte Abfrage war syntaktisch falsch.
  • Empfehlung: Überprüfen Sie die Syntax der angegebenen Abfrage. Stellen Sie sicher, dass eine Abfragezeichenfolge ohne Anführungszeichen vorhanden ist, wenn als Pipelineparameter darauf verwiesen wird.

Fehlercode: DF-Executor-ParameterParseError

  • Meldung: Der Parameterstream weist Analysefehler auf. Eine Ursache könnte sein, dass der Datentyp der Parameter nicht berücksichtigt wurde.
  • Ursache: Analysefehler in bestimmten Parametern.
  • Empfehlung: Überprüfen Sie die Parameter, die Fehler aufweisen, stellen Sie sicher, dass die entsprechenden Funktionen verwendet werden, und berücksichtigen Sie die angegebenen Datentypen.

Fehlercode: DF-File-InvalidSparkFolder

  • Meldung: Fehler beim Lesen der Fußzeile für die Datei.
  • Ursache: Ordner _spark_metadata wird vom strukturierten Streamingauftrag erstellt.
  • Empfehlung: Löschen Sie den Ordner _spark_metadata, falls vorhanden.

Fehlercode: DF-GEN2-InvalidAccountConfiguration

  • Meldung: Entweder der Kontoschlüssel oder das SAS-Token oder tenant/spnId/spnCredential/spnCredentialType oder userAuth oder miServiceUri/miServiceToken muss angegeben werden.
  • Ursache: Im verknüpften Azure Data Lake Storage (ADLS) Gen2-Dienst wurde eine ungültige Anmeldeinformation angegeben.
  • Empfehlung: Aktualisieren Sie den verknüpften ADLS Gen2-Dienst, damit dieser die richtigen Anmeldeinformationen umfasst.

Fehlercode: DF-GEN2-InvalidAuthConfiguration

  • Meldung: Es kann nur eine der drei Authentifizierungsmethoden (Key, ServicePrincipal und MI) angegeben werden.
  • Ursache: Im verknüpften ADLS Gen2-Dienst ist eine ungültige Authentifizierungsmethode angegeben.
  • Empfehlung: Aktualisieren Sie den verknüpften ADLS Gen2-Dienst, sodass er eine der folgenden drei Authentifizierungsmethoden verwendet: Key, ServicePrincipal, MI.

Fehlercode: DF-GEN2-InvalidCloudType

  • Meldung: Cloudtyp ist ungültig.
  • Ursache: Es wurde ein ungültiger Cloudtyp angegeben.
  • Empfehlung: Überprüfen Sie den Cloudtyp in Ihrem verknüpften ADLS Gen2-Dienst.

Fehlercode: DF-GEN2-InvalidServicePrincipalCredentialType

  • Meldung: Der Typ der Anmeldeinformationen für den Dienstprinzipal ist ungültig.
  • Ursache: Der Typ der Anmeldeinformationen für den Dienstprinzipal ist ungültig.
  • Empfehlung: Aktualisieren Sie den verknüpften ADLS Gen2, um den richtigen Anmeldeinformationstyp für den Dienstprinzipal festzulegen.

Fehlercode: DF-GEN2-InvalidAccountConfiguration

  • Meldung: Blob-Vorgang wird für ältere Speicherkonten nicht unterstützt. Das Erstellen eines neuen Speicherkontos kann das Problem beheben.
  • Ursache: Das Speicherkonto ist zu alt.
  • Empfehlung: Erstellen Sie ein neues Speicherkonto.

Fehlercode: DF-Github-WriteNotSupported

  • Meldung: Im GitHub-Speicher sind Schreibvorgänge nicht zulässig.
  • Ursache: Der GitHub-Speicher ist schreibgeschützt.
  • Empfehlung: Die Definition der Speicherentität befindet sich an einer anderen Stelle.

Fehlercode: DF-Hive-InvalidBlobStagingConfiguration

  • Meldung: Die Stagingeigenschaften des Blobspeichers müssen angegeben werden.
  • Ursache: In Hive ist eine ungültige Stagingkonfiguration angegeben.
  • Empfehlung: Überprüfen Sie, ob der Kontoschlüssel, der Kontoname und der Container im verknüpften Blobdienst, der für das Staging verwendet wird, ordnungsgemäß festgelegt sind.

Fehlercode: DF-Hive-InvalidDataType

  • Meldung: Nicht unterstützte Spalten.
  • Ursache: Es wurde nicht unterstützte Spalten angegeben.
  • Empfehlung: Aktualisieren Sie die Spalte mit den Eingabedaten, sodass sie dem von Hive unterstützten Datentyp entsprechen.

Fehlercode: DF-Hive-InvalidGen2StagingConfiguration

  • Meldung: Im ADLS Gen2-Stagingspeicher werden nur Anmeldeinformationen für den Dienstprinzipalschlüssel unterstützt.

  • Ursache: In Hive ist eine ungültige Stagingkonfiguration angegeben.

  • Empfehlung: Aktualisieren Sie den verknüpften ADLS Gen2-Dienst, der für das Staging verwendet wird. Derzeit werden nur die Anmeldeinformationen des Dienstprinzipalschlüssels unterstützt.

  • Meldung: Die Stagingeigenschaften des ADLS Gen2-Speichers müssen angegeben werden. Entweder der Schlüssel oder tenant/spnId/spnCredential/spnCredentialType oder miServiceUri/miServiceToken ist erforderlich.

  • Ursache: In Hive ist eine ungültige Stagingkonfiguration angegeben.

  • Empfehlung: Aktualisieren Sie den verknüpften ADLS Gen2-Dienst mit den richtigen Anmeldeinformationen für das Staging in Hive.

Fehlercode: DF-Hive-InvalidStorageType

  • Meldung: Als Speichertyp kann entweder „Blob“ oder „Gen2“ festgelegt werden.
  • Ursache: Als Speichertyp werden nur „Azure-Blob“ und „ADLS Gen2“ unterstützt.
  • Empfehlung: Wählen Sie den richtigen Speichertyp aus. Unterstützt werden „Azure-Blob“ und „ADLS Gen2“.

Fehlercode: DF-JSON-WrongDocumentForm

  • Meldung: Nicht wohlgeformte Datensätze werden im Schemarückschluss erkannt. Analysemodus: FAILFAST. Eine Ursache könnte die Auswahl der falschen Dokumentform für die Analyse der JSON-Dateien sein. Versuchen Sie es mit einer anderen „Dokumentform“ (Einzelnes Dokument pro Zeile/Array von Dokumenten) für die JSON-Quelle.
  • Ursache: Falsches Dokumentformular ist ausgewählt, um JSON-Datei(en) zu analysieren.
  • Empfehlung: Probieren Sie in den JSON-Einstellungen unterschiedliche Dokumentformulare (Einzelnes Dokument/Dokument pro Zeile/Array von Dokumenten) aus. Die meisten Fälle der Analysefehler werden durch falsche Konfiguration verursacht.

Fehlercode: DF-MICROSOFT365-CONSENTPENDING

  • Meldung: Die Administratoreinwilligung steht aus.
  • Ursache: Die Administratoreinwilligung fehlt.
  • Empfehlung: Geben Sie die Einwilligung an, und führen Sie dann die Pipeline erneut aus. Informationen zur Einwilligung finden Sie unter PAM-Anforderungen.

Fehlercode: DF-MSSQL-ErrorRowsFound

  • Ursache: Beim Schreiben in der Azure SQL-Datenbanksenke wurden Fehler/Ungültige Zeilen gefunden.
  • Empfehlung: Suchen Sie am Speicherort für abgelehnte Daten (falls konfiguriert) nach den Fehlerzeilen.

Fehlercode: DF-MSSQL-ExportErrorRowFailed

  • Meldung: Ausnahme beim Schreiben von Fehlerzeilen in den Speicher.
  • Ursache: Beim Schreiben von Fehlerzeilen in den Speicher ist eine Ausnahme aufgetreten.
  • Empfehlung: Überprüfen Sie die Konfiguration des abgelehnten verknüpften Datendiensts.

Fehlercode: DF-MSSQL-InvalidAuthConfiguration

  • Meldung: Es kann nur eine der drei Authentifizierungsmethoden (Key, ServicePrincipal und MI) angegeben werden.
  • Ursache: Im verknüpften MSSQL-Dienst ist eine ungültige Authentifizierungsmethode angegeben.
  • Empfehlung: Sie können im zugehörigen verknüpften MSSQL-Dienst nur eine der drei verfügbaren Authentifizierungsmethoden („Key“, „ServicePrincipal“ und „MI“) angeben.

Fehlercode: DF-MSSQL-InvalidCloudType

  • Meldung: Cloudtyp ist ungültig.
  • Ursache: Es wurde ein ungültiger Cloudtyp angegeben.
  • Empfehlung: Überprüfen Sie den Cloudtyp im zugehörigen verknüpften MSSQL-Dienst.

Fehlercode: DF-MSSQL-InvalidCredential

  • Meldung: Entweder user/pwd oder tenant/spnId/spnKey oder miServiceUri/miServiceToken muss angegeben werden.
  • Ursache: Im verknüpften MSSQL-Dienst wurde eine ungültige Anmeldeinformation angegeben.
  • Empfehlung: Aktualisieren Sie den zugehörigen verknüpften MSSQL-Dienst mit den richtigen Anmeldeinformationen. Es muss einer der folgenden Werte angegeben werden: user/pwd, tenant/spnId/spnKey oder miServiceUri/miServiceToken.

Fehlercode: DF-MSSQL-InvalidDataType

  • Meldung: Nicht unterstützte Felder.
  • Ursache: Es wurden nicht unterstützte Felder angegeben.
  • Empfehlung: Ändern Sie die Spalte der Eingabedaten so, dass sie dem in MSSQL unterstützten Datentyp entspricht.

Fehlercode: DF-MSSQL-InvalidFirewallSetting

  • Meldung: Es konnte keine TCP/IP-Verbindung mit dem Host hergestellt werden. Stellen Sie sicher, dass eine SQL Server-Instanz auf dem Host ausgeführt wird, die TCP/IP-Verbindungen am Port annimmt. Stellen Sie sicher, dass TCP-Verbindungen mit dem Port nicht durch eine Firewall blockiert werden.
  • Ursache: Die Firewalleinstellungen der SQL-Datenbank blockieren den Zugriff durch den Datenfluss.
  • Empfehlung: Überprüfen Sie die Firewalleinstellungen für Ihre SQL-Datenbank, und gestatten Sie Azure-Diensten und -Ressourcen den Zugriff auf diesen Server.

Fehlercode: DF-MSSQL-InvalidCertificate

  • Meldung: SQL Server-Konfigurationsfehler, installieren Sie entweder ein vertrauenswürdiges Zertifikat auf Ihrem Server oder ändern Sie die Einstellung der Verbindungszeichenfolge „encrypt“ in „false“ und „trustServerCertificate“ in „true“.
  • Ursache: Fehler bei SQL Server-Konfiguration.
  • Empfehlungen: Installieren Sie ein vertrauenswürdiges Zertifikat auf Ihrem SQL Server, oder ändern Sie die encrypt-Verbindungszeichenfolgeneinstellung in „false“ und die trustServerCertificate-Verbindungszeichenfolgeneinstellung in „true“.

Fehlercode: DF-PGSQL-InvalidCredential

  • Meldung: Benutzer/Kennwort muss angegeben werden.
  • Ursache: Der Benutzer oder das Kennwort fehlt.
  • Empfehlung: Stellen Sie sicher, dass die richtigen Anmeldeinformationen im zugehörigen verknüpften PostgreSQL-Dienst festgelegt sind.

Fehlercode: DF-SAPODATA-InvalidRunMode

  • Meldung: Fehler beim Ausführen des Dataflows mit ungültigem Ausführungsmodus.
  • Ursache: Mögliche Ursachen sind:
    1. Wenn fullLoad false ist, kann nur der Lesemodus enableCdc angegeben werden.
    2. Wenn incrementalLoad TRUE ist, kann nur der Ausführungsmodus fullAndIncrementalLoad oder enableCdc angegeben werden.
    3. Es kann nur fullLoad, incrementalLoad oder fullAndIncrementalLoad angegeben werden.
  • Empfehlung: Konfigurieren Sie die Aktivität neu, und führen Sie sie erneut aus. Wenn das Problem weiterhin besteht, wenden Sie sich an den Microsoft-Support, um Unterstützung zu erhalten.

Fehlercode: DF-SAPODATA-StageLinkedServiceMissed

  • Meldung: Fehler beim Ausführen des Dataflows, wenn der verknüpfte Stagingdienst in DSL nicht vorhanden ist. Konfigurieren Sie die Aktivität neu, und führen Sie sie erneut aus. Wenn das Problem weiterhin besteht, wenden Sie sich an den Microsoft Support, um weitere Unterstützung zu erhalten.
  • Ursache: Der verknüpfte Stagingdienst ist in DSL nicht vorhanden.
  • Empfehlung: Konfigurieren Sie die Aktivität neu, und führen Sie sie erneut aus. Wenn das Problem weiterhin besteht, wenden Sie sich an den Microsoft-Support, um Unterstützung zu erhalten.

Fehlercode: DF-SAPODP-StageContainerMissed

  • Meldung: Container or file system is required for staging storage. (Container oder Dateisystem ist für den Stagingspeicher erforderlich.)
  • Ursache: Für den Stagingspeicher ist kein Container oder Dateisystem angegeben.
  • Empfehlung: Geben Sie den Container und das Dateisystem für den Stagingspeicher an.

Fehlercode: DF-SAPODP-StageFolderPathMissed

  • Meldung: Der Ordnerpfad ist für den Stagingspeicher erforderlich.
  • Ursache: Für den Stagingspeicher ist kein Ordnerpfad angegeben.
  • Empfehlung: Geben Sie den Ordnerpfad für den Stagingspeicher an.

Fehlercode: DF-SAPODATA-ODataServiceOrEntityMissed

  • Meldung: Sowohl SAP-Dienstpfad (servicePath) als auch Entitätsname (entityName) sind für die Vorgänge „import-schema“, „preview-data“ und „read data“ erforderlich.
  • Ursache: Dienstpfad und Entitätsname dürfen beim Importieren eines Schemas, beim Anzeigen einer Datenvorschau oder beim Lesen von Daten nicht NULL sein.
  • Empfehlung: Geben Sie Dienstpfad und Entitätsname beim Importieren eines Schemas, beim Anzeigen einer Datenvorschau oder beim Lesen von Daten an.

Fehlercode: DF-SAPODATA-TimeoutInvalid

  • Meldung: Timeout ist ungültig, es darf nicht länger als 7 Tage sein.
  • Ursache: Das Zeitlimit darf 7 Tage nicht überschreiten.
  • Empfehlung: Geben Sie einen gültigen Timeoutwert an.

Fehlercode: DF-SAPODATA-ODataServiceMissed

  • Meldung: Zum Durchsuchen des Entitätsnamens ist SAP-Dienstpfad (servicePath) erforderlich.
  • Ursache: Der Dienstpfad darf beim Durchsuchen des Entitätsnamens nicht NULL sein.
  • Empfehlung: Geben Sie den Dienstpfad an.

Fehlercode: DF-SAPODATA-SystemError

  • Meldung: Systemfehler: Fehler beim Abrufen von deltaToken von SAP. Wenden Sie sich an den Microsoft-Support, wenn Sie weitere Unterstützung benötigen.
  • Ursache: Fehler beim Abrufen des Deltatokens von SAP.
  • Empfehlung: Wenden Sie sich an den Microsoft Support, wenn Sie weitere Unterstützung benötigen.

Fehlercode: DF-SAPODATA-StageAuthInvalid

  • Meldung: Invalid client secret provided. (Es wurde ein ungültiger geheimer Clientschlüssel bereitgestellt.)
  • Ursache: Die Anmeldeinformationen des Dienstprinzipals des Stagingspeichers sind nicht korrekt.
  • Empfehlung: Testen Sie die Verbindung in Ihrem verknüpften Stagingspeicherdienst, und vergewissern Sie sich, dass die Authentifizierungseinstellungen in Ihrem Stagingspeicher korrekt sind.

Fehlercode: DF-SAPODATA-NotReached

  • Ursachen und Empfehlungen: Fehler beim Erstellen einer OData-Verbindung mit der Anforderungs-URL. Dieses Problem kann verschiedene Ursachen haben. Überprüfen Sie die folgende Liste auf mögliche Ursachen und zugehörige Empfehlungen.

    Ursachenanalyse Empfehlung
    Ihr SAP-Server wird heruntergefahren. Überprüfen Sie, ob Ihr SAP-Server gestartet wurde.
    Proxyproblem bei der selbst gehosteten Integration Runtime Überprüfen Sie den Proxy der selbstgehosteten Integration Runtime.
    Falsche Parametereingabe (z. B. falscher SAP-Servername oder falsches Kennwort) Überprüfen Sie Ihre Eingabeparameter: SAP-Servername, Kennwort.

Fehlercode: DF-SAPODATA-NoneODPService

  • Meldung: Der aktuelle odata-Dienst unterstützt das Extrahieren von ODP-Daten nicht. Aktivieren Sie ODP für den Dienst.
  • Ursache: Der aktuelle OData-Dienst unterstützt das Extrahieren von ODP-Daten nicht.
  • Empfehlung: Aktivieren Sie ODP für den Dienst.

Fehlercode: DF-SAPODP-AuthInvalid

  • Meldung: SapOdp Name or Password incorrect (SapOdp-Name oder -Kennwort falsch)
  • Ursache: Der eingegebene Name oder das eingegebene Kennwort ist falsch.
  • Empfehlung: Vergewissern Sie sich, dass Sie den richtigen Namen bzw. das richtige Kennwort verwenden.

Fehlercode: DF-SAPODP-ContextInvalid

  • Ursache: Der Kontextwert ist in SAP OPD nicht vorhanden.
  • Empfehlung: Überprüfen Sie den Kontextwert, und vergewissern Sie sich, dass er gültig ist.

Fehlercode: DF-SAPODP-ContextMissed

  • Meldung: Context is required. (Kontext ist erforderlich.)

  • Ursachen und Empfehlungen: Dieser Fehler kann verschiedene Ursachen haben. In der Liste unten finden Sie mögliche Ursachenanalysen und Empfehlungen.

    Ursachenanalyse Empfehlung
    Der Kontextwert kann beim Lesen von Daten nicht leer sein. Geben Sie den Kontext an.
    Der Kontextwert kann beim Durchsuchen von Objektnamen nicht leer sein. Geben Sie den Kontext an.

Fehlercode: DF-SAPODP-DataflowSystemError

  • Empfehlung: Konfigurieren Sie die Aktivität neu, und führen Sie sie erneut aus. Wenn das Problem weiterhin besteht, können Sie sich an den Microsoft-Support wenden, um Unterstützung zu erhalten.

Fehlercode: DF-SAPODP-DataParsingFailed

  • Ursache: Die SAP-Tabelle enthält wahrscheinlich ausgeblendete Spalteneinstellungen. Wenn Sie den SAP-Zuordnungsdatenfluss zum Lesen von Daten vom SAP-Server verwenden, werden alle Schemas (einschließlich ausgeblendeter Spalten) zurückgegeben, aber die zurückgegebene Daten enthalten keine zugehörigen Werte. Dadurch kommt es zu einer fehlerhaften Datenausrichtung und damit zu Fehlern bei der Analyse von Werten oder zu einem Problem mit einem falschen Datenwert.
  • Empfehlung: Für dieses Problem gibt es zwei Empfehlungen:
    1. Entfernen Sie ausgeblendete Einstellungen aus den zugehörigen Spalten über die SAP-Benutzeroberfläche.
    2. Wenn Sie vorhandene SAP-Einstellungen unverändert beibehalten möchten, verwenden Sie im SAP-Zuordnungsdatenfluss die Funktion zum Ausblenden (fügen Sie manuell die DSL-Eigenschaft enableProjection:true im Skript hinzu), um die ausgeblendeten Spalten zu filtern und das Lesen der Daten fortzusetzen.

Fehlercode: DF-SAPODP-ObjectInvalid

  • Ursache: Der Objektname wurde nicht gefunden oder nicht freigegeben.
  • Empfehlung: Überprüfen Sie den Objektnamen, und vergewissern Sie sich, dass er gültig und bereits veröffentlicht ist.

Fehlercode: DF-SAPODP-ObjectNameMissed

  • Meldung: 'objectName' (SAP object name) is required. ('objectName' (SAP-Objektname) ist erforderlich.)
  • Ursache: Objektnamen müssen beim Lesen von Daten aus SAP ODP definiert werden.
  • Empfehlung: Geben Sie den Namen des SAP ODP-Objekts an.

Fehlercode: DF-SAPODP-SAPSystemError

  • Ursache: Dies ist ein SAP-Systemfehler: user id locked.
  • Empfehlung: Fordern Sie Hilfe vom SAP-Administrator an.

Fehlercode: DF-SAPODP-SessionTerminate

  • Meldung: Internal session terminated with a runtime error RAISE_EXCEPTION (see ST22). (Interne Sitzung wurde mit dem Laufzeitfehler RAISE_EXCEPTION beendet (siehe ST22).)
  • Ursache: Vorübergehende Probleme für SLT-Objekte.
  • Empfehlung: Führen Sie die Datenflussaktivität erneut aus.

Fehlercode: DF-SAPODP-SHIROFFLINE

  • Ursache: Die selbstgehostete Integration Runtime ist offline.
  • Empfehlung: Überprüfen Sie den Status der selbstgehosteten Integration Runtime, und vergewissern Sie sich, dass sie online ist.

Fehlercode: DF-SAPODP-SLT-LIMITATION

  • Meldung: Preview is not supported in SLT system. (Die Vorschau wird im SLT-System nicht unterstützt.)
  • Ursache: Ihr Kontext oder Objekt befindet sich im SLT-System, das keine Vorschau unterstützt. Dies ist eine SAP ODP-SLT-Systembeschränkung.
  • Empfehlung: Führen Sie die Datenflussaktivität direkt aus.

Fehlercode: DF-SAPODP-StageAuthInvalid

  • Meldung: Invalid client secret provided. (Es wurde ein ungültiger geheimer Clientschlüssel bereitgestellt.)
  • Ursache: Die Anmeldeinformationen des Dienstprinzipalzertifikats des Stagingspeichers sind nicht korrekt.
  • Empfehlung: Überprüfen Sie, ob die Testverbindung in dem Dienst, der mit dem Stagingspeicher verknüpft ist, erfolgreich ist, und bestätigen Sie, dass die Authentifizierungseinstellung des Stagingspeichers richtig ist.
  • Meldung: Failed to authenticate the request to storage (Fehler beim Authentifizieren der Anforderung an den Speicher)
  • Ursache: Der Schlüssel des Stagingspeichers ist nicht korrekt.
  • Empfehlung: Überprüfen Sie, ob die Testverbindung im Dienst, der mit dem Stagingspeicher verknüpft ist, erfolgreich ist, und bestätigen Sie, dass der Schlüssel des Azure Blob Storage-Stagingspeichers richtig ist.

Fehlercode: DF-SAPODP-StageBlobPropertyInvalid

  • Meldung: Read from staging storage failed: Staging blob storage auth properties not valid (Fehler beim Lesen aus Stagingspeicher: Ungültige Authentifizierungseigenschaften für Blob Storage-Stagingspeicher)
  • Ursache: Die Eigenschaften des Blob Storage-Stagingspeichers sind ungültig.
  • Empfehlung: Überprüfen Sie die Authentifizierungseinstellung in Ihrem mit dem Stagingspeicher verknüpften Dienst.

Fehlercode: DF-SAPODP-StageContainerInvalid

  • Meldung: Unable to create Azure Blob container. (Der Azure-Blobcontainer kann nicht erstellt werden.)
  • Ursache: Der Eingabecontainer ist in Ihrem Stagingspeicher nicht vorhanden.
  • Empfehlung: Geben Sie einen gültigen Containernamen für den Stagingspeicher ein. Wählen Sie einen anderen vorhandenen Containernamen erneut aus, oder erstellen Sie einen neuen Container manuell mit Ihrem Eingabenamen.

Fehlercode: DF-SAPODP-StageContainerMissed

  • Meldung: Container or file system is required for staging storage. (Container oder Dateisystem ist für den Stagingspeicher erforderlich.)
  • Ursache: Ihr Container oder Dateisystem ist für den Stagingspeicher nicht angegeben.
  • Empfehlung: Geben Sie den Container bzw. das Dateisystem für den Stagingspeicher an.

Fehlercode: DF-SAPODP-StageFolderPathMissed

  • Meldung: Folder path is required for staging storage. (Der Ordnerpfad ist für den Stagingspeicher erforderlich.)
  • Ursache: Der Pfad des Stagingspeicherordners ist nicht angegeben.
  • Empfehlung: Geben Sie den Stagingspeicherordner an.

Fehlercode: DF-SAPODP-StageGen2PropertyInvalid

  • Meldung: Read from staging storage failed: Staging Gen2 storage auth properties not valid (Fehler beim Lesen aus Stagingspeicher: Ungültige Authentifizierungseigenschaften für Azure Data Lake Storage Gen2-Stagingspeicher)
  • Ursache: Die Authentifizierungseigenschaften des Azure Data Lake Storage Gen2-Stagingspeichers sind ungültig.
  • Empfehlung: Überprüfen Sie die Authentifizierungseinstellung in Ihrem mit dem Stagingspeicher verknüpften Dienst.

Fehlercode: DF-SAPODP-StageStorageServicePrincipalCertNotSupport

  • Meldung: Fehler beim Lesen aus Stagingspeicher: Die Stagingspeicherauthentifizierung unterstützt kein Dienstprinzipalzertifikat.
  • Ursache: Die Anmeldeinformationen des Dienstprinzipalzertifikats werden für den Stagingspeicher nicht unterstützt.
  • Empfehlung: Ändern Sie die Authentifizierung so, dass die Anmeldeinformationen des Dienstprinzipalzertifikats nicht verwendet werden.

Fehlercode: DF-SAPODP-StageStorageTypeInvalid

  • Meldung: Your staging storage type of SapOdp is invalid. (Der Stagingspeichertyp SapOdp ist ungültig.)
  • Ursache: Nur Azure Blob Storage und Azure Data Lake Storage Gen2 werden für den SAP ODP-Stagingprozess unterstützt.
  • Empfehlung: Wählen Sie Azure Blob Storage oder Azure Data Lake Storage Gen2 als Stagingspeicher aus.

Fehlercode: DF-SAPODP-SubscriberNameMissed

  • Meldung: 'subscriberName' is required while option 'enable change data capture' is selected. („subscriberName“ ist erforderlich, während die Option „Enable Change Data Capture“ (Change Data Capture aktivieren) ausgewählt ist.)
  • Meldung: Die Eigenschaft subscriberName des mit SAP verknüpften Diensts ist erforderlich, während die Option „Enable Change Data Capture“ (Change Data Capture aktivieren) ausgewählt ist.
  • Empfehlung: Geben Sie den subscriberName im verknüpften SAP OPD-Dienst an.

Fehlercode: DF-SAPODP-SystemError

  • Ursache: Dieser Fehler ist ein Fehler des Datenflusssystems oder ein Fehler des SAP-Serversystems.
  • Empfehlung: Überprüfen Sie die Fehlermeldung. Wenn sie eine auf SAP-Server bezogene Fehlerstapelüberwachung enthält, fordern Sie Hilfe vom SAP-Administrator an. Anderenfalls wenden Sie sich an den Microsoft Support, um weitere Hilfe anzufordern.

Fehlercode: DF-SAPODP-NotReached

  • Meldung: Partner „.*“ nicht erreicht

  • Ursachen und Empfehlungen: Dies ist ein Konnektivitätsproblem. Dieses Problem kann verschiedene Ursachen haben. In der Liste unten finden Sie mögliche Ursachenanalysen und Empfehlungen.

    Ursachenanalyse Empfehlung
    Ihr SAP-Server wird heruntergefahren. Überprüfen Sie, ob Ihr SAP-Server gestartet wurde.
    Ihre IP oder Ihr Port für die selbstgehostete Integration Runtime befindet sich nicht in der SAP-Netzwerksicherheitsregel. Überprüfen Sie, ob sich Ihre IP oder Ihr Port für die selbstgehostete Integration Runtime in der SAP-Netzwerksicherheitsregel befindet.
    Proxyproblem bei der selbst gehosteten Integration Runtime Überprüfen Sie den Proxy der selbstgehosteten Integration Runtime.
    Falsche Parametereingabe (z. B. falsche(r) SAP-Servername oder -IP). Überprüfen Sie Ihre Eingabeparameter: SAP-Servername, IP.

Fehlercode: DF-SAPODP-DependencyNotFound

  • Nachricht: Datei oder Assembly „sapnco, Version=*“ konnte nicht geladen werden
  • Ursache: Sie laden den SAP .NET-Connector nicht auf dem Computer der selbstgehosteten Integration Runtime herunter und installieren ihn nicht.
  • Empfehlung: Befolgen Sie die Schritte unter Einrichten einer selbstgehosteten Integration Runtime, um die selbstgehostete Integration Runtime für den SAP Change Data Capture (CDC)-Connector einzurichten.

Fehlercode: DF-SAPODP-NoAuthForFunctionModule

  • Meldung: Keine REF-Autorisierung für Funktionsmodul RODPS_REPL_CONTEXT_GET_LIST
  • Ursache: Fehlende Autorisierung zum Ausführen des verwandten Funktionsmoduls.
  • Empfehlung: Befolgen Sie diese SAP-Hinweise, um dem SAP-Konto das erforderliche Autorisierungsprofil hinzuzufügen.

Fehlercode: DF-SAPODP-OOM

  • Meldung: Kein Speicher mehr verfügbar, um Zeilen zu einer internen Tabelle hinzuzufügen
  • Ursache: Der SAP-Tabellenconnector weist eine Einschränkung für die Extraktion großer Tabellen auf. Die zugrunde liegende SAP-Tabelle basiert auf einem RFC, der alle Daten aus der Tabelle in den Speicher des SAP-Systems liest, sodass ein Problem wegen fehlenden Speichers auftritt, wenn Sie große Tabellen extrahieren.
  • Empfehlung: Verwenden Sie den SAP-CDC-Connector, um die Inhalte vollständig direkt aus dem Quellsystem zu laden, und verschieben Sie die geänderten Inhalte in den SAP Landscape Transformation-Replikationsserver (SLT), nachdem die Initialisierung ohne geänderte Inhalte veröffentlicht wurde.

Fehlercode: DF-SAPODP-SourceNotSupportDelta

  • Meldung: Quelle .* unterstützt keine Deltas
  • Ursache: Der von Ihnen angegebene ODP-Kontext/ODP-Name unterstützt keine Deltas.
  • Empfehlung: Aktivieren Sie den Deltamodus für Ihre SAP-Quelle, oder wählen Sie Vollständig bei jeder Ausführung im Datenfluss aus. Weitere Informationen finden Sie in diesem Dokument.

Fehlercode: DF-SAPODP-SAPI-LIMITATION

  • Meldung: Fehlernummer 518, Quelle .* wurde nicht gefunden, nicht veröffentlicht oder nicht autorisiert
  • Ursache: Überprüfen Sie, ob Ihr Kontext die SAP-Dienst-API (SAPI) ist. Wenn ja, können Sie im SAPI-Kontext nur die relevanten Extraktoren für SAP-Tabellen extrahieren.
  • Empfehlungen: Beziehen Sie sich auf dieses Dokument.

Fehlercode: DF-SAPODP-KeyColumnsNotSpecified

  • Meldung: Für nicht einfügbare Vorgänge (Aktualisierungen/Löschungen) müssen Schlüsselspalten angegeben werden.
  • Ursache: Dieser Fehler tritt auf, wenn Sie die Auswahl von Schlüsselspalten in der Senkentabelle überspringen.
  • Empfehlungen: Das Zulassen von Lösch-, Upsert- und Updateoptionen erfordert eine Schlüsselspalte, die angegeben werden soll. Geben Sie mindestens eine Spalte für die Zeilenabgleiche in der Senke an.

Fehlercode: DF-SAPODP-InsufficientResource

  • Meldung: Ein kurzes Absturzabbild ist in einem Datenbankvorgang aufgetreten.
  • Ursache: Das SAP-System wurde von Ressourcen aus ausgeführt, was zu einem kurzen Absturzabbild in SAP-Server führte.
  • Empfehlungen: Wenden Sie sich an Ihren SAP-Administrator, um das Problem in der SAP-Instanz zu beheben, und versuchen Sie es erneut.

Fehlercode: DF-SAPODP-ExecuteFuncModuleWithPointerFailed

  • Meldung: Fehler beim Ausführen des Funktionsmoduls .* mit Zeiger .*
  • Ursache: SAP-Systemproblem.
  • Empfehlungen: Wechseln Sie zur SAP-Instanz, und überprüfen Sie ST22 (kurzes Absturzabbild, ähnlich wie Windows-Absturzabbild), und überprüfen Sie den Code, in dem der Fehler aufgetreten ist. In den meisten Fällen bietet SAP Tipps zu verschiedenen Möglichkeiten zur weiteren Problembehandlung.

Fehlercode: DF-Snowflake-InkompatibleDataType

  • Meldung: Der Ausdruckstyp passt nicht zum Spaltendatentyp: VARIANT wurde erwartet, aber VARCHAR abgerufen.
  • Ursache: Der Spaltentyp der Eingabedaten, die Zeichenfolge ist, unterscheidet sich vom Typ der zugehörigen Spalten in der Snowflake-Senkentransformation, der VARIANT ist.
  • Empfehlung:Für den Snowflake-Typ VARIANT kann nur ein Datenflusswert vom Typ „struct“, „map“ oder „array“ akzeptiert werden. Wenn der Wert Ihrer Eingabedatenspalten JSON oder XML oder andere Zeichenfolgen ist, verwenden Sie eine Analyeder der Transformation, bevor die Snowflake-Senkentransformation zum Verdecken des Werts im Typ „struct“, „map“ oder „array“ verwendet wird.

Fehlercode: DF-Snowflake-InvalidDataType

  • Meldung: Der Spark-Typ wird in Snowflake nicht unterstützt.
  • Ursache: In Snowflake wurde ein ungültiger Datentyp angegeben.
  • Empfehlung: Verwenden Sie vor dem Anwenden der Snowflake-Senke die Ableitungstransformation, um die verknüpfte Spalte mit den Eingabedaten in den Typ „string“ zu aktualisieren.

Fehlercode: DF-Snowflake-InvalidStageConfiguration

  • Meldung: Nur der Typ „Blob Storage“ kann als Stage in Lese-/Schreibvorgängen in Snowflake verwendet werden.

  • Ursache: In Snowflake ist eine ungültige Stagingkonfiguration angegeben.

  • Empfehlung: Aktualisieren Sie die Snowflake-Stagingeinstellungen, sodass nur der verknüpfte Azure-Blobdienst verwendet wird.

  • Meldung: Die Snowflake-Phaseneigenschaften müssen mit der Azure Blob- und SAS-Authentifizierung angegeben werden.

  • Ursache: In Snowflake ist eine ungültige Stagingkonfiguration angegeben.

  • Empfehlung: Stellen Sie sicher, dass in den Snowflake-Stagingeinstellungen nur die Azure-Blob- und die SAS-Authentifizierung angegeben ist.

Fehlercode: DF-SQLDW-ErrorRowsFound

  • Ursache: Beim Schreiben in die Azure Synapse-Senke wurden Fehler festgestellt / ungültige Zeilen gefunden.
  • Empfehlung: Suchen Sie am Speicherort für abgelehnte Daten (falls konfiguriert) nach den Fehlerzeilen.

Fehlercode: DF-SQLDW-ExportErrorRowFailed

  • Meldung: Ausnahme beim Schreiben von Fehlerzeilen in den Speicher.
  • Ursache: Beim Schreiben von Fehlerzeilen in den Speicher ist eine Ausnahme aufgetreten.
  • Empfehlung: Überprüfen Sie die Konfiguration des abgelehnten verknüpften Datendiensts.

Fehlercode: DF-SQLDW-IncorrectLinkedServiceConfiguration

  • Meldung: Der verknüpfte Dienst ist fälschlicherweise als Typ „Azure Synapse Analytics“ anstatt als „Azure SQL-Datenbank“ konfiguriert. Erstellen Sie einen neuen verknüpften Dienst vom Typ „Azure SQL-Datenbank“.
    Hinweis: Überprüfen Sie, ob die angegebene Datenbank den Typ „Dedizierter SQL-Pool (früher SQL Data Warehouse)“ für den verknüpften Diensttyp „Azure Synapse Analytics“ aufweist.
  • Ursache: Der verknüpfte Dienst ist fälschlicherweise als Typ Azure Synapse Analytics anstatt als Azure SQL-Datenbank konfiguriert. 
  • Empfehlung: Erstellen Sie einen neuen verknüpften Dienst vom Typ Azure SQL-Datenbank, und überprüfen Sie, ob die angegebene Datenbank vom Typ „Dedicated SQL Pool (früher SQL DW)“ für den verknüpften Diensttyp Azure Synapse Analytics ist.

Fehlercode: DF-SQLDW-InternalErrorUsingMSI

  • Meldung: An internal error occurred while authenticating against Managed Service Identity in Azure Synapse Analytics instance. (Bei der Authentifizierung gegenüber verwalteter Dienstidentität in der Azure Synapse Analytics-Instanz ist ein interner Fehler aufgetreten.) Starten Sie die Azure Synapse Analytics-Instanz neu, oder wenden Sie sich an den Support für Azure Synapse Analytics – dedizierter SQL-Pool, wenn dieses Problem weiterhin besteht.
  • Ursache: In Azure Synapse Analytics ist ein interner Fehler aufgetreten.
  • Empfehlung: Starten Sie die Azure Synapse Analytics-Instanz neu, oder wenden Sie sich an den Support für Azure Synapse Analytics – dedizierter SQL-Pool, wenn dieses Problem weiterhin besteht.

Fehlercode: DF-SQLDW-InvalidBlobStagingConfiguration

  • Meldung: Die Stagingeigenschaften des Blobspeichers müssen angegeben werden.
  • Meldung: Es wurden ungültige Stagingeinstellungen für den Blobspeicher angegeben.
  • Empfehlung: Überprüfen Sie, ob der verknüpfte Blobdienst, der für das Staging verwendet wird, die richtigen Eigenschaften aufweist.

Fehlercode: DF-SQLDW-InvalidConfiguration

  • Meldung: Die Stagingeigenschaften des ADLS Gen2-Speichers müssen angegeben werden. Entweder der Schlüssel oder tenant/spnId/spnCredential/spnCredentialType oder miServiceUri/miServiceToken ist erforderlich.
  • Ursache: Es wurden ungültige ADLS Gen2-Stagingeigenschaften angegeben.
  • Empfehlung: Aktualisieren Sie die Einstellungen für das ADLS Gen2-Speicherstaging, sodass einer der folgenden Werte verwendet wird: key, tenant/spnId/spnCredential/spnCredentialType oder miServiceUri/miServiceToken.

Fehlercode: DF-SQLDW-InvalidGen2StagingConfiguration

  • Meldung: Im ADLS Gen2-Stagingspeicher werden nur Anmeldeinformationen für den Dienstprinzipalschlüssel unterstützt.
  • Ursache: Für das ADLS Gen2-Speicherstaging wurden ungültige Anmeldeinformationen angegeben.
  • Empfehlung: Verwenden Sie die Anmeldeinformationen für den Dienstprinzipalschlüssel des verknüpften Gen2-Diensts, der für das Staging verwendet wird.

Fehlercode: DF-SQLDW-InvalidStorageType

  • Meldung: Als Speichertyp kann entweder „Blob“ oder „Gen2“ festgelegt werden.
  • Ursache: Für das Staging wurde ein ungültiger Speichertyp angegeben.
  • Empfehlung: Überprüfen Sie den Speichertyp des verknüpften Diensts, der für das Staging verwendet wird. Stellen Sie sicher, dass der Typ entweder „Blob“ oder „Gen2“ lautet.

Fehlercode: DF-SQLDW-StagingStorageNotSupport

  • Meldung: Stagingspeicher mit aktivierter Partitions-DNS wird bei Aktivierung von Staging nicht unterstützt. Deaktivieren Sie „Staging in Senke“ mithilfe von Synapse Analytics.
  • Ursache: Stagingspeicher mit aktivierter Partitions-DNS wird bei Aktivierung von Staging nicht unterstützt.
  • Empfehlungen: Deaktivieren Sie die Option Staging aktivieren in der Senke, wenn Sie Azure Synapse Analytics verwenden.

Fehlercode: DF-SQLDW-DataTruncation

  • Meldung: Ihre Zieltabelle verfügt über eine Spalte mit Typ „(n)varchar“ oder „(n)varbinary“, die eine kleinere Spaltenlängenbeschränkung als echte Daten aufweist. Passen Sie entweder die Spaltendefinition in der Zieltabelle an, oder ändern Sie die Quelldaten.
  • Ursache: Ihre Zieltabelle verfügt über eine Spalte mit Typ „varchar“ oder „varbinary“, die eine kleinere Einschränkung der Spaltenlänge als echte Daten aufweist.
  • Empfehlungen: Passen Sie die Spaltendefinition in der Zieltabelle an, oder ändern Sie die Quelldaten.

Fehlercode: DF-Synapse-DBNotExist

  • Ursache: Die Datenbank ist nicht vorhanden.
  • Empfehlung: Überprüfen Sie, ob die Datenbank vorhanden ist.

Fehlercode: DF-Synapse-InvalidDatabaseType

  • Meldung: Datenbanktyp wird nicht unterstützt.
  • Ursache: Der Datenbanktyp wird nicht unterstützt.
  • Empfehlung: Überprüfen Sie den Datenbanktyp und ändern Sie ihn in den richtigen.

Fehlercode: DF-Synapse-InvalidFormat

  • Meldung: Format wird nicht unterstützt.
  • Ursache: Das Format wird nicht unterstützt.
  • Empfehlung: Überprüfen Sie das Format und ändern Sie es in das richtige.

Fehlercode: DF-Synapse-InvalidOperation

  • Ursache: Der Vorgang wird nicht unterstützt.
  • Empfehlung: Ändern Sie die Konfiguration der Updatemethode, da Löschen, Aktualisieren und Upsert in Workspace DB nicht unterstützt werden.

Fehlercode: DF-Synapse-InvalidTableDBName

  • Meldung: Der Tabellen-/Datenbankname ist kein gültiger Name für Tabellen/Datenbanken. Gültige Namen enthalten nur alphabetische Zeichen, Zahlen und _.
  • Ursache: Der Name der Tabelle/Datenbank ist ungültig.
  • Empfehlung: Geben Sie einen gültigen Namen für die Tabelle/Datenbank ein. Gültige Namen enthalten nur alphabetische Zeichen, Zahlen und _.

Fehlercode: DF-Synapse-StoredProcedureNotSupported

  • Meldung: Verwenden Sie „Gespeicherte Prozedur“ als Quelle wird für serverlosen (bedarfsbasierten) Pool nicht unterstützt.
  • Ursache: Der serverlose Pool hat Beschränkungen.
  • Empfehlung: Versuchen Sie erneut, „Abfrage“ als Quelle zu verwenden oder die gespeicherte Prozedur als Ansicht zu speichern, und verwenden Sie dann „Tabelle“ als Quelle, um direkt aus der Ansicht zu lesen.

Fehlercode: DF-Xml-InvalidDataField

  • Meldung: Das Feld für beschädigte Datensätze muss den Typ „String“ haben und Nullwerte zulassen.
  • Ursache: In der XML-Quelle ist für die Spalte \"_corrupt_record\" ein ungültiger Datentyp angegeben.
  • Empfehlung: Stellen Sie sicher, dass die Spalte \"_corrupt_record\" in der XML-Quelle den Datentyp „string“ aufweist und NULL-Werte akzeptiert.

Fehlercode: DF-Xml-InvalidElement

  • Meldung: Das XML-Element enthält Unterelemente oder Attribute, die nicht konvertiert werden können.
  • Ursache: Das XML-Element enthält Unterelemente oder Attribute, die nicht konvertiert werden können.
  • Empfehlung: Aktualisieren Sie die XML-Datei, sodass das XML-Element die richtigen Unterelemente oder Attribute aufweist.

Fehlercode: DF-Xml-InvalidReferenceResource

  • Meldung: Die Verweisressource in der XML-Datendatei kann nicht aufgelöst werden.
  • Ursache: Die Verweisressource in der XML-Datendatei kann nicht aufgelöst werden.
  • Empfehlung: Überprüfen Sie die Verweisressource in der XML-Datendatei.

Fehlercode: DF-Xml-InvalidSchema

  • Meldung: Fehler bei der Schemaüberprüfung.
  • Ursache: Für die XML-Quelle wurde ein ungültiges Schema angegeben.
  • Empfehlung: Überprüfen Sie die Schemaeinstellungen für die XML-Quelle, um sicherzustellen, dass es sich um das Teilmengenschema der Quelldaten handelt.

Fehlercode: DF-Xml-InvalidValidationMode

  • Meldung: Es wurde ein ungültiger XML-Überprüfungsmodus angegeben.
  • Ursache: Es wurde ein ungültiger XML-Überprüfungsmodus angegeben.
  • Empfehlung: Überprüfen Sie den Parameterwert, und geben Sie den richtigen Überprüfungsmodus an.

Fehlercode: DF-Xml-MalformedFile

  • Meldung: Falsch formatierte XML-Datei mit Pfad im FAILFAST-Modus.
  • Ursache: Es ist eine falsch formatierte XML-Datei mit Pfad im FAILFAST-Modus vorhanden.
  • Empfehlung: Aktualisieren Sie den Inhalt der XML-Datei in das richtige Format.

Fehlercode: DF-Xml-UnsupportedExternalReferenceResource

  • Meldung: Die externe Verweisressource in der XML-Datendatei wird nicht unterstützt.
  • Ursache: Die externe Verweisressource in der XML-Datendatei wird nicht unterstützt.
  • Empfehlung: Aktualisieren Sie den Inhalt der XML-Datei, wenn die externe Verweisressource aktuell nicht unterstützt wird.

Fehlercode: GetCommand OutputAsync failed (Fehler bei GetCommand OutputAsync)

  • Meldung: During Data Flow debug and data preview: GetCommand OutputAsync failed (Beim Debuggen des Datenflusses und Anzeigen von Daten in der Vorschau: Fehler bei GetCommand OutputAsync mit ...)
  • Ursache: Dies ist ein Fehler beim Back-End-Dienst.
  • Empfehlung: Wiederholen Sie den Vorgang, und starten Sie Ihre Debugsitzung neu. Wenn das Problem durch Wiederholung und Neustart nicht behoben werden kann, wenden Sie sich an den Kundensupport.

Fehlercode: InvalidTemplate

  • Meldung: The pipeline expression cannot be evaluated. (Der Pipelineausdruck kann nicht ausgewertet werden.)
  • Ursache: Der in der Datenflussaktivität übergebene Pipelineausdruck wird aufgrund eines Syntaxfehlers nicht richtig verarbeitet.
  • Empfehlung: Überprüfen Sie den Namen der Datenflussaktivität. Überprüfen Sie Ausdrücke in der Aktivitätsüberwachung, um die Ausdrücke zu überprüfen. Beispielsweise darf der Name der Datenflussaktivität weder ein Leerzeichen noch einen Bindestrich enthalten.

Fehlercode: 127

  • Meldung: Der Spark-Auftrag von Dataflow wurde abgeschlossen, aber der Laufzeitstatus ist entweder „NULL“ oder immer noch „InProgress“.
  • Ursache: Vorübergehendes Problem mit an der Ausführung beteiligten Microservices können dazu führen, dass die Ausführung nicht erfolgreich ist.
  • Empfehlung: Siehe Szenario 3: Vorübergehendes Problem.

Fehlercode: 2011

  • Meldung: The activity was running on Azure Integration Runtime and failed to decrypt the credential of data store or compute connected via a Self-hosted Integration Runtime. (Die Aktivität wurde in Azure Integration Runtime ausgeführt und konnte die Anmeldeinformationen für den Datenspeicher oder Compute, der/das über eine selbstgehostete Integration Runtime verbunden war, nicht entschlüsseln.) Bitte überprüfen Sie die Konfiguration der verknüpften Dienste, die dieser Aktivität zugeordnet sind, und stellen Sie sicher, dass Sie den richtigen Integration Runtime-Typ verwenden.
  • Ursache: Der Datenfluss unterstützt keine verknüpften Dienste für selbstgehostete Integration Runtime-Instanzen.
  • Empfehlung: Konfigurieren Sie den Datenfluss zur Ausführung in einer Integration Runtime mit „Verwaltetes virtuelles Netzwerk“.

Fehlercode: 4502

  • Meldung: There are substantial concurrent MappingDataflow executions that are causing failures due to throttling under Integration Runtime. (Es gibt viele gleichzeitige MappingDataflow-Ausführungen, die aufgrund von Drosselung unter Integration Runtime zu Fehlern führen).
  • Ursache: Auf der Integration Runtime wird eine große Anzahl von Datenflussaktivitäten gleichzeitig ausgeführt. Weitere Informationen finden Sie unter Data Factory-Grenzwerte.
  • Empfehlung: Wenn Sie weitere Datenflussaktivitäten parallel ausführen möchten, verteilen Sie sie auf mehrere Integration Runtime-Instanzen.

Fehlercode: 4503

  • Meldung: Es gibt viele gleichzeitige MappingDataflow-Ausführungen, die aufgrund von Drosselung unter dem Abonnement „%subscriptionId;“ mit Aktivitäts-ID „%activityId;“ zu Fehlern führen.
  • Ursache: Drosselungsschwellenwert wurde erreicht.
  • Empfehlung: Wiederholen Sie die Anforderung nach einer Wartezeit.

Fehlercode: 4506

  • Meldung: Fehler beim Bereitstellen des Clusters für „%activityId;“, da der Anforderungscomputer die maximale gleichzeitige Anzahl von 200 überschreitet. Integration Runtime „%IRName;“
  • Ursache: Vorübergehender Fehler
  • Empfehlung: Wiederholen Sie die Anforderung nach einer Wartezeit.

Fehlercode: 4507

  • Meldung: Nicht unterstützter Wert für Computetyp und/oder Kernanzahl
  • Ursache: Für Computetyp und/oder Kernanzahl wurde ein nicht unterstützter Wert angegeben.
  • Empfehlung: Verwenden Sie einen der unterstützten Werte für Computetyp und/oder Kernanzahl aus diesem Dokument.

Fehlercode: 4508

  • Meldung: Spark-Cluster nicht gefunden
  • Empfehlung: Starten Sie die Debugsitzung neu.

Fehlercode: 4509

  • Meldung: Unerwarteter Fehler beim Zuordnen von Computeressourcen. Versuchen Sie es erneut. Wenn das Problem weiterhin besteht, wenden Sie sich an den Azure-Support.
  • Ursache: Vorübergehender Fehler
  • Empfehlung: Wiederholen Sie die Anforderung nach einer Wartezeit.

Fehlercode: 4510

  • Meldung: Unerwarteter Fehler während der Ausführung.
  • Ursache: Da Debugcluster anders funktionieren als Auftragscluster, können übermäßige Debugläufe den Cluster im Laufe der Zeit verschleißen, was zu Arbeitsspeicherproblemen und plötzlichen Neustarts führen kann.
  • Empfehlung: Starten Sie den Debugcluster neu. Wenn Sie während der Debugsitzung mehrere Dataflows ausführen, verwenden Sie stattdessen Aktivitätsläufe, da die Ausführung auf Aktivitätsebene eine separate Sitzung erstellt, ohne den Hauptdebuggingcluster zu besteuern.

Fehlercode: 4511

  • Meldung: java.sql.SQLTransactionRollbackException. Deadlock beim Versuch, die Sperre abzurufen. Versuchen Sie, die Transaktion neu zu starten. Wenn das Problem weiterhin besteht, wenden Sie sich an den Azure-Support.
  • Ursache: Vorübergehender Fehler
  • Empfehlung: Wiederholen Sie die Anforderung nach einer Wartezeit.

Fehlercode: SystemErrorSynapseSparkJobFailed (fortlaufend)

  • Meldung: Jobfehler während der Laufzeit mit Status=[tot]. Für den WASB-URI wurden keine Anmeldeinformationen bereitgestellt.
  • Ursache: Der Datenfluss wird in Synapse-Arbeitsbereichen mit Spark Version 3.4 nicht unterstützt, wenn DEP (Datenexfiltrationsschutz) aktiviert ist, indem "Ausgehender Datenverkehr nur für genehmigte Ziele zulassen" während der Arbeitsbereichsnetzwerkkonfiguration ausgewählt wird.
  • Empfehlung: Deaktivieren Sie die oben genannten Einstellungen während der Arbeitsbereicherstellung. Weitere Informationen finden Sie in diesem Dokument.

Verschiedene Tipps zur Problembehandlung

  • Problem: Unerwartete Ausnahme und Fehler bei der Ausführung.

    • Meldung: Während der Ausführung der Datenflussaktivität: Unerwartete Ausnahme, Fehler bei der Ausführung.
    • Ursache: Dies ist ein Fehler beim Back-End-Dienst. Wiederholen Sie den Vorgang, und starten Sie Ihre Debugsitzung neu.
    • Empfehlung: Wenn das Problem durch Wiederholung und Neustart nicht behoben werden kann, wenden Sie sich an den Kundensupport.
  • Problem: Während der Debugdatenvorschau gibt es keine Ausgabedaten für den Join.

    • Meldung: There are a high number of null values or missing values which may be caused by having too few rows sampled. Try updating the debug row limit and refreshing the data. (Es ist eine hohe Anzahl von NULL-Werten oder fehlenden Werten vorhanden. Möglicherweise wurden von zu wenigen Zeilen Stichproben genommen. Aktualisieren Sie das Debugzeilenlimit, und aktualisieren Sie die Daten.)
    • Ursache: Die Joinbedingung stimmte entweder mit irgendwelchen Zeilen nicht überein oder führte während der Datenvorschau zu einer großen Anzahl von NULL-Werten.
    • Empfehlung: Erhöhen Sie in Debugeinstellungen die maximale Anzahl der Quellzeilen. Sie müssen eine Azure IR mit einem Datenflusscluster auswählen, der groß genug ist, um mehr Daten verarbeiten zu können.
  • Problem: Überprüfungsfehler auf Quelle mit mehrzeiligen CSV-Dateien.

    • Meldung: Möglicherweise wird eine der folgenden Fehlermeldungen angezeigt:
      • Die letzte Spalte ist NULL oder fehlt.
      • Fehler bei der Schemaüberprüfung auf der Quelle.
      • Der Schemaimport kann auf der Benutzeroberfläche nicht richtig angezeigt werden, und der Name der letzten Spalte enthält ein Neue-Zeile-Zeichen.
    • Ursache: Im Zuordnungsdatenfluss funktionieren mehrzeilige CSV-Quelldateien zurzeit nicht, wenn „\r\n“ als Zeilentrennzeichen verwendet wird. Manchmal können zusätzliche Zeilen bei Wagenrückläufen Fehler verursachen.
    • Empfehlung: Generieren Sie die Datei auf der Quelle mit „\n“ (statt „\r\n“) als Zeilentrennzeichen. Oder konvertieren Sie die CSV-Datei mithilfe der Copy-Aktivität so, dass „\n“ als Zeilentrennzeichen verwendet wird.

Verbesserung im CSV/CDM-Format im Datenfluss

Wenn Sie die Formatierung Delimited Text oder CDM für das Mapping des Datenflusses in Azure Data Factory V2 verwenden, kann es aufgrund der Verbesserung für Delimited Text/CDM im Datenfluss ab dem 1. Mai 2021 zu Verhaltensänderungen in Ihren bestehenden Pipelines kommen.

Die folgenden Probleme können vor der Verbesserung auftreten, die Probleme wurden jedoch nach der Verbesserung behoben. Lesen Sie den folgenden Inhalt, um zu bestimmen, ob sich diese Verbesserung auf Sie auswirkt.

Szenario 1: Problem mit dem unerwarteten Zeilentrennzeichen

Sie sind betroffen, wenn Sie sich in den folgenden Umständen befinden:

  • Verwenden Sie den durch Trennzeichen getrennten Text, bei dem die mehrzeilige Einstellung auf True oder CDM als Quelle eingestellt ist.
  • Die erste Zeile enthält über 128 Zeichen.
  • Das Zeilentrennzeichen in Datendateien ist nicht \n.

Vor der Verbesserung kann das Standardzeilen Trennzeichen \n unerwartet verwendet werden, um durch Trennzeichen getrennte Textdateien zu analysieren, denn wenn die mehrzeilige Einstellung auf True festgelegt ist, wird die Zeilentrennzeichen-Einstellung ungültig, und das Zeilentrennzeichen wird automatisch basierend auf den ersten 128 Zeichen erkannt. Wenn Sie das tatsächliche Zeilentrennzeichen nicht ermitteln können, greift es auf \n zurück.

Nach der Verbesserung sollte eines der drei Zeilentrennzeichen \r, \n oder \r\n funktionieren.

Das folgende Beispiel zeigt Ihnen eine Pipeline-Verhaltensänderung nach der Verbesserung an:

Beispiel:
Für die folgende Spalte:
C1, C2, {long first row}, C128\r\n
V1, V2, {values………………….}, V128\r\n 

Vor der Verbesserung wird \r im Spaltenwert beibehalten. Das Ergebnis der geparsten Spalte ist:
C1 C2 {long first row} C128\r
V1 V2 {values………………….} V128\r

Nach der Verbesserung sollte das Ergebnis der geparsten Spalte sein:
C1 C2 {long first row} C128
V1 V2 {values………………….} V128

Szenario 2: Auftreten des Problems des fehlerhaften Lesens von Spaltenwerten mit '\r\n'

Sie sind betroffen, wenn Sie sich in den folgenden Umständen befinden:

  • Verwendung von Begrenztem Text mit der Mehrzeilen-Einstellung auf True oder CDM als Quelle.
  • Das Zeilentrennzeichen ist \r\n.

Vor der Verbesserung wurde beim Lesen des Spaltenwerts das darin enthaltene \r\n möglicherweise fälschlicherweise durch \nersetzt.

Nach der Verbesserung, wird das \r\n im Spaltenwert nicht durch \nersetzt.

Das folgende Beispiel zeigt Ihnen eine Pipeline-Verhaltensänderung nach der Verbesserung an:

Beispiel:

Für die folgende Spalte:
"A\r\n", B, C\r\n

Vor der Verbesserung ist das Ergebnis der geparsten Spalte:
A\n B C

Nach der Verbesserung sollte das Ergebnis der geparsten Spalte sein:
A\r\n B C

Szenario 3: Auftreten des Problems des fehlerhaften Lesens von Spaltenwerten mit '\r\n'

Sie sind betroffen, wenn Sie sich in den folgenden Umständen befinden:

  • Verwenden des durch Trennzeichen getrennten Texts als Senke.
  • Der Spaltenwert enthält \n.
  • Das Zeilentrennzeichen ist auf \r\n festgelegt.

Vor der Verbesserung wurde beim Lesen des Spaltenwerts das darin enthaltene \n möglicherweise fälschlicherweise durch \r\nersetzt.

Nach der Verbesserung, wird das \n im Spaltenwert nicht durch \r\nersetzt.

Das folgende Beispiel zeigt Ihnen eine Pipeline-Verhaltensänderung nach der Verbesserung an:

Beispiel:

Für die folgende Spalte:
A\n B C

Vor der Verbesserung ist die CSV-Senke wie folgt:
"A\r\n", B, C\r\n

Nach der Verbesserung sollte die CSV-Senke wie folgt sein:
"A\n", B, C\r\n

Szenario 4: Problem beim nicht ordnungsgemäßem Lesen einer leeren Zeichenfolge als NULL

Sie sind betroffen, wenn Sie sich in den folgenden Umständen befinden:

  • Verwenden des durch Trennzeichen getrennten Texts als Senke.
  • Der NULL-Wert ist auf einen nicht leeren Wert festgelegt.
  • Der Spaltenwert ist eine leere Zeichenfolge und ist nicht in Anführungszeichen eingeschlossen.

Vor der Verbesserung wird der Spaltenwert der leeren Zeichenfolge ohne Anführungszeichen als Null gelesen.

Nach der Verbesserung wird eine leere Zeichenfolge nicht als NULL-Wert analysiert.

Das folgende Beispiel zeigt Ihnen eine Pipeline-Verhaltensänderung nach der Verbesserung an:

Beispiel:

Für die folgende Spalte:
A, ,B,

Vor der Verbesserung ist das Ergebnis der geparsten Spalte:
A null B null

Nach der Verbesserung sollte das Ergebnis der geparsten Spalte sein:
A "" (empty string) B "" (empty string)

Weitere Hilfe zur Problembehandlung finden Sie in diesen Ressourcen: