Freigeben über


Transformieren von Daten durch Ausführen einer Spark-Auftragsdefinitionsaktivität

Mit der Spark-Auftragsdefinitionsaktivität in Data Factory für Microsoft Fabric können Sie Verbindungen zu Ihren Spark-Auftragsdefinitionen erstellen und sie aus einer Datenpipeline ausführen.

Voraussetzungen

Um zu beginnen, müssen die folgenden Voraussetzungen erfüllt sein:

Hinzufügen einer Spark-Auftragsdefinitionsaktivität zu einer Pipeline mit Benutzeroberfläche

  1. Erstellen Sie eine neue Datenpipeline in Ihrem Arbeitsbereich.

  2. Suchen Sie auf der Karte der Startseite nach Spark-Auftragsdefinition aktualisieren und wählen Sie sie aus, oder wählen Sie die Aktivität in der Leiste Aktivitäten aus, um sie dem Pipeline-Kollaborationsbereich hinzuzufügen.

    • Erstellen der Aktivität auf der Karte der Startseite:

      Screenshot, der zeigt, wo eine neue Spark-Auftragsdefinitionsaktivität erstellt werden kann.

    • Erstellen der Aktivität über die Aktivitätsleiste:

      Screenshot, der zeigt, wo eine neue Spark-Auftragsdefinitionsaktivität aus der Aktivitätsleiste im Pipeline-Editor-Fenster erstellt werden soll.

  3. Wählen Sie die neue Spark-Auftragsdefinitionsaktivität im Pipeline-Editor-Kollaborationsbereich aus, wenn er nicht bereits ausgewählt ist.

    Screenshot der Spark-Auftragsdefinitionsaktivität im Pipeline-Editor-Kollaborationsbereich.

    Informationen zur Konfiguration der Optionen auf der Registerkarte Allgemeine Einstellungen finden Sie in der Anleitung Allgemeine Einstellungen.

Einstellungen der Spark-Auftragsdefinitionsaktivität

Wählen Sie im Eigenschaftsbereich der Aktivität die Registerkarte Einstellungen und dann den Fabric-Arbeitsbereich, der die Spark-Auftragsdefinition enthält, die Sie ausführen möchten.

Screenshot der Registerkarte Einstellungen der Eigenschaftenseiten Spark-Auftragsdefinition im Pipeline-Editor-Fenster.

Bekannte Einschränkungen

Die aktuellen Einschränkungen in der Spark-Auftragsdefinitionsaktivität für Fabric Data Factory sind hier aufgeführt. Änderungen dieses Abschnitts sind vorbehalten.

  • Das Erstellen einer neuen Spark-Auftragsdefinitionsaktivität innerhalb der Aktivität wird derzeit nicht unterstützt (unter Einstellungen)
  • Die Parameterisierungsunterstützung ist nicht verfügbar.
  • Obwohl wir die Überwachung der Aktivität über die Ausgaberegisterkarte unterstützen, können Sie die Spark-Auftragsdefinition noch nicht auf einer detaillierteren Ebene überwachen. Links zur Überwachungsseite, zum Status, zur Dauer und zur vorherigen Spark-Auftragsdefinition sind beispielsweise nicht direkt in der Data Factory verfügbar. Auf der Überwachungsseite Spark-Auftragsdefinition werden jedoch genauere Details angezeigt.

Speichern und Ausführen oder Planen der Pipeline

Nachdem Sie alle anderen Aktivitäten konfiguriert haben, die für Ihre Pipeline erforderlich sind, wechseln Sie oben im Pipeline-Editor zur Registerkarte Start, und klicken Sie auf die Schaltfläche „Speichern“, um die Pipeline zu speichern. Wählen Sie Ausführen aus, um sie direkt auszuführen, oder Planen, um sie zu planen. Sie können hier auch den Ausführungsverlauf anzeigen oder andere Einstellungen konfigurieren.

Screenshot der Registerkarte Start des Pipeline-Editors mit Hervorhebung der Schaltflächen Speichern, Ausführen und Planen.

Überwachen von Pipelineausführungen