Erstellen eines Triggers zum Ausführen einer Pipeline als Reaktion auf ein Speicherereignis

GILT FÜR: Azure Data Factory Azure Synapse Analytics

Tipp

Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!

In diesem Artikel wird der Trigger für Speicherereignisse beschrieben, den Sie in Ihren Data Factory- oder Synapse-Pipelines erstellen können.

Die ereignisgesteuerte Architektur (EDA) ist ein allgemeines Datenintegrationsmuster, das die Produktion, Erkennung, Verbrauch und Reaktion auf Ereignisse beinhaltet. In Datenintegrationsszenarios ist es oft erforderlich, dass Kunden Pipelines auf der Grundlage von Ereignissen in Speicherkonten auslösen, z. B. wenn eine Datei zu einem Azure Blob Storage-Konto hinzugefügt oder daraus gelöscht wird. Data Factory- und Synapse-Pipelines lassen sich in Azure Event Grid nativ integrieren, sodass Sie Pipelines für solche Ereignisse auslösen können.

Hinweis

Die in diesem Artikel beschriebene Integration basiert auf Azure Event Grid. Stellen Sie sicher, dass Ihr Abonnement für den Event Grid-Ressourcenanbieter registriert ist. Weitere Informationen finden Sie unter Ressourcenanbieter und -typen. Sie müssen dazu in der Lage sein, die Aktion Microsoft.EventGrid/eventSubscriptions/ * auszuführen. Diese Aktion ist Teil der integrierten Rolle EventGrid-EventSubscription-Mitwirkender.

Wichtig

Wenn Sie dieses Feature in Azure Synapse Analytics verwenden, stellen Sie sicher, dass Ihr Abonnement auch beim Data Factory-Ressourcenanbieter registriert ist. Andernfalls erhalten Sie eine Fehlermeldung mit dem Hinweis, dass bei der Erstellung eines „Ereignisabonnements“ ein Fehler aufgetreten ist.

Hinweis

Wenn sich das Blob Speicherkonto hinter einem privaten Endpunkt befindet und den Zugriff auf öffentliche Netzwerke blockiert, müssen Sie Netzwerkregeln konfigurieren, um die Kommunikation von Blob Storage zu Azure Event Grid zu ermöglichen. Sie können entweder Speicherzugriff auf vertrauenswürdige Azure-Dienste gewähren, z. B. Event Grid, wie in der Storage-Dokumentation beschrieben, oder private Endpunkte für Event Grid konfigurieren, die an den VNET-Adressraum entsprechend der Event Grid-Dokumentation zuordnen

Erstellen eines Triggers über die Benutzeroberfläche

In diesem Abschnitt wird gezeigt, wie Sie über die Benutzeroberfläche der Azure Data Factory- und Synapse-Pipeline einen Speicherereignistrigger erstellen können.

  1. Wechseln Sie in Data Factory zur Registerkarte Bearbeiten oder in Azure Synapse zur Registerkarte Integrieren.

  2. Wählen Sie im Menü Trigger und dann Neu/Bearbeiten aus.

  3. Wählen Sie auf der Seite Trigger hinzufügen die Option Trigger auswählen... und dann +Neu aus.

  4. Wählen Sie den Triggertyp Storage Event (Speicherereignis) aus.

  5. Wählen Sie aus der Dropdownliste für die Azure-Abonnements Ihr Storage-Konto aus, oder geben Sie die Ressourcen-ID des Storage-Kontos ein. Wählen Sie den Container aus, in dem die Ereignisse auftreten sollen. Die Containerauswahl ist erforderlich, aber beachten Sie, dass die Auswahl aller Container zu einer hohen Anzahl von Ereignissen führen kann.

    Hinweis

    Der Speicherereignistrigger unterstützt derzeit nur Azure Data Lake Storage Gen2-Speicherkonten und universelle Speicherkonten (Version 2). Wenn Sie mit SFTP-Speicherereignissen arbeiten, müssen Sie auch die SFTP-Daten-API unter dem Abschnitt Filterung angeben. Aufgrund einer Einschränkung von Azure Event Grid unterstützt Azure Data Factory nur maximal 500 Speicherereignistrigger pro Speicherkonto. Wenn Sie das Limit erreichen, wenden Sie sich bitte an den Support, um Empfehlungen zu erhalten und das Limit nach Auswertung durch das Event Grid-Team zu erhöhen.

    Hinweis

    Zum Erstellen eines neuen Speicherereignistriggers oder zum Ändern eines vorhandenen muss das Azure-Konto, das für die Anmeldung beim Dienst und die Veröffentlichung des Triggers genutzt wird, die entsprechende rollenbasierte Zugriffssteuerungsberechtigung (Azure RBAC) für das Speicherkonto haben. Zusätzliche Berechtigungen sind nicht erforderlich: Der Dienstprinzipal für Azure Data Factory und Azure Synapse benötigt keine spezielle Berechtigung für das Speicherkonto oder Event Grid. Weitere Informationen zur Zugriffssteuerung finden Sie im Abschnitt Rollenbasierte Zugriffssteuerung.

  6. Sie können die Eigenschaften Blob path begins with (Blobpfad beginnt mit) und Blob path ends with (Blobpfad endet mit) verwenden, um die Container, Ordner und Blobnamen anzugeben, für die Ereignisse empfangen werden sollen. Der Speicherereignistrigger erfordert, dass mindestens eine dieser Eigenschaften definiert wird. Für die Eigenschaften Blob-Pfad beginnt mit und Blob-Pfad endet mit können Sie eine Vielzahl von Mustern verwenden, wie in den Beispielen im weiteren Verlauf dieses Artikels dargestellt.

    • Blob path begins with (Blobpfad beginnt mit): Der Blobpfad muss mit einem Ordnerpfad beginnen. Beispielsweise können die folgenden Werte verwendet werden: 2018/ und 2018/april/shoes.csv. Dieses Feld kann nicht ausgewählt werden, wenn kein Container ausgewählt ist.
    • Blob path ends with (Blobpfad endet mit): Der Blobpfad muss auf einem Dateinamen oder einer Erweiterung enden. Beispielsweise können die folgenden Werte verwendet werden: shoes.csv und .csv. Container- und Ordnernamen müssen, sofern angegeben, durch ein /blobs/-Segment getrennt werden. Beispielsweise kann ein Container mit dem Namen „Bestellungen“ den Wert /orders/blobs/2018/april/shoes.csv haben. Wenn Sie einen Ordner in einem beliebigen Container angeben möchten, lassen Sie das vorangestellte Zeichen „/“ aus. Beispielsweise löst april/shoes.csv ein Ereignis für jede Datei mit dem Namen shoes.csv aus, die sich in einem beliebigen Container in einem Ordner mit dem Namen „April“ befindet.
    • Beachten Sie, dass für den Musterabgleich in Speicherereignisauslösern lediglich die Blobpfadfestlegungen Beginnt mit und Endet auf zulässig sind. Andere Arten des Platzhalterabgleichs sind für den Auslösertyp nicht zulässig.
  7. Wählen Sie aus, ob der Trigger auf ein Blob created-Ereignis (Blob erstellt), auf ein Blob deleted-Ereignis (Blob gelöscht) oder auf beides reagieren soll. Am angegebenen Speicherort löst jedes Ereignis die Data Factory- und Synapse-Pipelines aus, die dem Trigger zugeordnet sind.

    Screenshot of storage event trigger creation page.

  8. Wählen Sie aus, ob Ihr Trigger Blobs mit null Bytes ignorieren soll oder nicht.

  9. Nachdem Sie den Trigger konfiguriert haben, klicken Sie auf Weiter: Datenvorschau. Diese Anzeige informiert über die vorhandenen Blobs, die Ihrer Konfiguration für Speicherereignistrigger entsprechen. Vergewissern Sie sich, dass Sie genaue Filter ausgewählt haben. Wenn Sie Filter auswählen, die zu weit gefasst sind, können diese auf eine große Anzahl an erstellten bzw. gelöschten Dateien zutreffen. Dafür können höhere Kosten anfallen. Sobald Sie Ihre Filterbedingungen überprüft haben, klicken Sie auf Fertig stellen.

    Screenshot of storage event trigger preview page.

  10. Sie können eine Pipeline an diesen Trigger anfügen, indem Sie zum Bereich „Pipeline“ navigieren und erst auf Trigger und dann auf New/Edit (Neu/Bearbeiten) klicken. Wenn die Seitennavigationsleiste angezeigt wird, klicken Sie auf die Dropdownliste Choose trigger... (Trigger auswählen...), und wählen Sie den von Ihnen erstellten Trigger aus. Klicken Sie auf Weiter: Datenvorschau, um zu überprüfen, ob die Konfiguration stimmt, und klicken Sie anschließend auf Weiter, um die Datenvorschau zu überprüfen.

  11. Wenn Ihre Pipeline über Parameter verfügt, können Sie diese auf der Seitennavigationsleiste „Trigger run parameter“ (Parameter für die Triggerausführung) angeben. Der Speicherereignistrigger erfasst den Ordnerpfad und den Dateinamen des Blobs in den Eigenschaften @triggerBody().folderPath und @triggerBody().fileName. Um die Werte dieser Eigenschaften in einer Pipeline zu verwenden, müssen Sie die Eigenschaften Pipelineparametern zuordnen. Nach der Zuordnung der Eigenschaften zu Parametern können Sie über den Ausdruck @pipeline().parameters.parameterName auf die vom Trigger erfassten Werte in der gesamten Pipeline zugreifen. Eine ausführliche Erläuterung finden Sie unter Verweis auf Triggermetadaten in Pipelines.

    Screenshot of storage event trigger mapping properties to pipeline parameters.

    Im vorherigen Beispiel wurde der Trigger so konfiguriert, dass er ausgelöst wird, wenn im Container sample-data (Beispieldaten) ein Blobpfad mit der Erweiterung „.csv“ im Ordner event-testing (Ereignistest) erstellt wird. Die Eigenschaften folderPath and fileName erfassen den Speicherort des neuen Blobs. Wenn z. B. „MoviesDB.csv“ zum Pad „sample-data/event-testing“ (Beispieldaten/Ereignistest) hinzugefügt wird, hat @triggerBody().folderPath den Wert sample-data/event-testing und @triggerBody().fileName den Wert moviesDB.csv. Diese Werte werden im Beispiel den Pipelineparametern sourceFolder und sourceFile zugeordnet, die in der gesamten Pipeline jeweils als @pipeline().parameters.sourceFolder bzw. @pipeline().parameters.sourceFile verwendet werden können.

  12. Wenn Sie fertig sind, klicken Sie auf Fertig stellen.

JSON-Schema

Die folgende Tabelle bietet eine Übersicht über die Schemaelemente, die mit Speicherereignistriggern verknüpft sind:

JSON-Element Beschreibung Typ Zulässige Werte Erforderlich
scope Die Ressourcen-ID von Azure Resource Manager im Speicherkonto. String Azure Resource Manager-ID Ja
events Der Ereignistyp, die diesen Trigger auslöst. Array Microsoft.Storage.BlobCreated, Microsoft.Storage.BlobDeleted Ja (beliebige Kombination dieser Werte).
blobPathBeginsWith Der Blobpfad muss mit dem angegebenen Muster beginnen, damit der Trigger ausgelöst wird. /records/blobs/december/ löst den Trigger beispielsweise nur für Blobs im Ordner december unter dem Container records aus. String Geben Sie einen Wert für mindestens eine der folgenden Eigenschaften an: blobPathBeginsWith oder blobPathEndsWith.
blobPathEndsWith Der Blobpfad muss mit dem angegebenen Muster enden, damit der Trigger ausgelöst wird. december/boxes.csv löst den Trigger beispielsweise nur für Blobs namens boxes aus, die sich in einem Ordner namens december befinden. String Geben Sie einen Wert für mindestens eine der folgenden Eigenschaften an: blobPathBeginsWith oder blobPathEndsWith.
ignoreEmptyBlobs Legt fest, ob Null-Byte-Blobs eine Pipelineausführung auslösen oder nicht. Dieser Wert ist standardmäßig auf „true“ festgelegt. Boolean true oder false Nein

Beispiele für Speicherereignistrigger

Dieser Abschnitt enthält Beispiele für die Einstellungen für Speicherereignistrigger.

Wichtig

Sie müssen das Segment /blobs/ des Pfads wie in den folgenden Beispielen gezeigt immer dann einbeziehen, wenn Sie Container und Ordner, Container und Datei oder Container, Ordner und Datei angeben. Bei blobPathBeginsWith fügt die Benutzeroberfläche /blobs/ zwischen dem Ordner- und Containernamen im JSON-Code des Triggers automatisch hinzu.

Hinweis

Dateieingangstrigger werden nicht als Triggermechanismus von Datenflusssenken empfohlen. Datenflüsse führen eine Reihe von Dateiumbenennungs- und Partitionsdatei-Shufflingaufgaben im Zielordner aus, die versehentlich ein Dateieingangsereignis vor der vollständigen Verarbeitung Ihrer Daten auslösen können.

Eigenschaft Beispiel BESCHREIBUNG
Blobpfad beginnt mit /containername/ Empfängt Ereignisse für ein beliebiges Blob im Container.
Blobpfad beginnt mit /containername/blobs/foldername/ Empfängt Ereignisse für ein beliebiges Blob im Container containername und Ordner foldername.
Blobpfad beginnt mit /containername/blobs/foldername/subfoldername/ Sie können auch auf einen Unterordner verweisen.
Blobpfad beginnt mit /containername/blobs/foldername/file.txt Empfängt Ereignisse für ein Blob namens file.txt im Ordner foldername unter dem Container containername.
Blobpfad endet mit file.txt Empfängt Ereignisse für ein Blob namens file.txt unter einem beliebigen Pfad.
Blobpfad endet mit /containername/blobs/file.txt Empfängt Ereignisse für ein Blob namens file.txt unter dem Container containername.
Blobpfad endet mit foldername/file.txt Empfängt Ereignisse für ein Blob namens file.txt im Ordner foldername unter einem beliebigen Container.

Rollenbasierte Zugriffssteuerung

In Azure Data Factory- und Synapse-Pipelines wird mithilfe der rollenbasierten Zugriffssteuerung von Azure (Azure RBAC) sichergestellt, dass unbefugte Zugriffe zum Lauschen auf, Abonnieren von Aktualisierungen aus und Auslösen von Pipelines, die mit Blobereignissen verknüpft sind, streng verboten sind.

  • Zum erfolgreichen Erstellen eines neuen oder Aktualisieren eines vorhandenen Speicherereignisauslösers muss das beim Dienst angemeldete Azure-Konto entsprechenden Zugriff auf das relevante Speicherkonto haben. Andernfalls verursacht der Vorgang einen Fehler mit der Meldung Zugriff verweigert.
  • Azure Data Factory und Azure Synapse benötigen keine spezielle Berechtigung für Ihr Event Grid, und Sie müssen dem Data Factory- oder Azure Synapse-Dienstprinzipal keine spezielle RBAC-Berechtigung für den Vorgang zuweisen.

Folgende RBAC-Einstellungen eignen sich für einen Speicherereignisauslöser:

  • Besitzerrolle für das Speicherkonto
  • Die Rolle „Mitwirkender“ für das Speicherkonto
  • Microsoft.EventGrid/EventSubscriptions/Write-Berechtigung für das Speicherkonto /subscriptions/####/resourceGroups/####/providers/Microsoft.Storage/storageAccounts/storageAccountName

Sie haben folgende Möglichkeiten:

  • Beim Erstellen in der Data Factory (z. B. in der Entwicklungsumgebung) muss das angemeldete Azure-Konto über die oben genannte Berechtigung verfügen.
  • Bei der Veröffentlichung über CI/CD muss das Konto, das zum Veröffentlichen der ARM-Vorlage in der Test- oder Produktionsfactory verwendet wird, über die oben genannte Berechtigung verfügen.

Wenn Sie verstehen möchten, wie der Dienst die beiden Zusagen einhält, lassen Sie uns einen Schritt zurücktreten und einen Blick hinter die Kulissen werfen. Hier sind die allgemeinen Workflows für die Integration zwischen Azure Data Factory/Azure Synapse, Azure Storage und Event Grid.

Erstellen eines neuen Speicherereignisauslösers

In diesem allgemeinen Workflow wird beschrieben, wie Azure Data Factory mit Event Grid interagiert, um einen Speicherereignisauslöser zu erstellen. Bei Azure Synapse ist der Datenfluss identisch, wobei Synapse-Pipelines im folgenden Diagramm die Rolle der Data Factory übernehmen.

Workflow of storage event trigger creation.

Zwei wichtige Anmerkungen zu den Workflows:

  • Azure Data Factory und Azure Synapse stellen keinen direkten Kontakt mit dem Speicherkonto her. Die Anforderung zum Erstellen eines Abonnements wird stattdessen weitergeleitet und von Event Grid verarbeitet. Deshalb benötigt der Dienst bei diesem Schritt keine Berechtigung für das Speicherkonto.

  • Zugriffssteuerung und Berechtigungsüberprüfung geschehen innerhalb des Dienstes. Bevor der Dienst eine Anforderung zum Abonnieren eines Speicherereignisses sendet, wird die Berechtigung für den Benutzer überprüft. Genauer gesagt wird überprüft, ob das angemeldete Azure-Konto, das versucht, den Speicherereignisauslöser zu erstellen, entsprechenden Zugriff auf das relevante Speicherkonto hat. Wenn die Berechtigungsüberprüfung fehlschlägt, schlägt die Erstellung des Auslösers ebenfalls fehl.

Pipelineausführung für Speicherereignisauslöser

In diesen allgemeinen Workflows wird beschrieben, wie ein Speicherereignis eine Pipelineausführung über Event Grid auslöst. Bei Azure Synapse ist der Datenfluss identisch, wobei Synapse-Pipelines im folgenden Diagramm die Rolle der Data Factory übernehmen.

Workflow of storage event triggering pipeline runs.

Es gibt drei wichtige Anmerkungen im Workflow im Zusammenhang mit ereignisauslösenden Pipelines innerhalb des Dienstes:

  • Event Grid verwendet ein Pushmodell, das die Nachricht schnellstmöglich weiterleitet, wenn sie vom Speicher im System abgelegt wird. Das ist ein Unterschied zu Messaging-Systemen, wie z. B. Kafka, die ein Pullsystem verwenden.

  • Der Ereignisauslöser dient als aktiver Listener für die eingehende Nachricht und löst die zugeordnete Pipeline ordnungsgemäß aus.

  • Der Speicherereignisauslöser selbst hat keinen direkten Kontakt zum Speicherkonto.

    • Wenn aber in der Pipeline eine Kopier- oder andere Aktivität zur Verarbeitung der Daten im Speicherkonto ausgeführt wird, nimmt der Dienst direkten Kontakt mit Azure Storage auf und verwendet dabei die im verknüpften Dienst gespeicherten Anmeldeinformationen. Stellen Sie sicher, dass der verknüpfte Dienst ordnungsgemäß eingerichtet ist.
    • Wenn Sie jedoch in der Pipeline nicht auf das Speicherkonto verweisen, müssen Sie dem Dienst keine Berechtigung für den Zugriff darauf erteilen.