Kopieren von Dataverse Daten in Azure SQL
Verwenden Sie die Azure Synapse Link um Ihre Microsoft Dataverse Daten mit Azure Synapse Analytics zu verbinden, um Ihre Daten zu untersuchen und die Zeit bis zur Erkenntnis zu verkürzen. Dieser Artikel zeigt Ihnen, wie Sie Azure Synapse-Pipelines oder Azure Data Factory ausführen, um Daten aus Azure Data Lake Storage Gen2 in eine Azure SQL-Datenbank mit aktivierter Funktion für inkrementelle Updates in Azure Synapse Link kopieren.
Hinweis
Azure Synapse Link for Microsoft Dataverse war früher als „In Data Lake exportieren“ bekannt. Der Dienst wurde mit Wirkung zum Mai 2021 umbenannt und exportiert weiterhin Daten nach Azure Data Lake sowie Azure Synapse Analytics. Diese Vorlage ist ein Codebeispiel. Wir empfehlen Ihnen, diese Vorlage als Anleitung zum Testen der Funktionalität zum Abrufen von Daten aus Azure Data Lake Storage Gen2 in Azure SQL-Datenbank mithilfe der bereitgestellten Pipeline zu verwenden.
Anforderungen
- Azure Synapse Link for Dataverse. In dieser Anleitung wird davon ausgegangen, dass Sie die Voraussetzungen zum Erstellen eines Azure Synapse Link mit Azure Data Lake bereits erfüllt haben. Weitere Informationen: Voraussetzungen für Azure Synapse Link for Dataverse mit Ihrem Azure Data Lake
- Erstellen Sie einen Azure Synapse Workspace oder eine Azure Data Factory unter demselben Microsoft Entra-Mandanten wie Ihr Power Apps-Mandant.
- Erstellen Sie ein Azure Synapse Link for Dataverse mit aktivierter inkrementeller Ordneraktualisierung, um das Zeitintervall festzulegen. Weitere Informationen: Abfragen und Analysieren der inkrementellen Aktualisierungen
- Der Microsoft.EventGrid-Anbieter muss für den Trigger registriert werden. Weitere Informationen: Azure-Portal. Hinweis: Wenn Sie diese Funktion in Azure Synapse Analytics verwenden, stellen Sie sicher, dass Ihr Abonnement auch beim Data Factory-Ressourcenanbieter registriert ist, andernfalls erhalten Sie eine Fehlermeldung, die besagt, dass die Erstellung eines „Ereignisabonnements“ fehlgeschlagen ist.
- Erstellen Sie eine Azure SQL-Datenbank, bei der die Azure-Diensten und -Ressourcen den Zugriff auf diesen Server erlauben Eigenschaft aktiviert ist. Mehr Informationen: Was sollte ich beim Einrichten meiner Azure SQL-Datenbank (PaaS) beachten?
- Erstellen und konfigurieren Sie eine Azure Integration Runtime. Mehr Informationen:Azure Integration Runtime erstellen – Azure Data Factory & Azure Synapse
Wichtig
Die Verwendung dieser Vorlage kann zusätzliche Kosten verursachen. Diese Kosten beziehen sich auf die Nutzung von Azure Data Factory oder der Synapse Workspace-Pipeline und werden monatlich abgerechnet. Die Kosten für die Verwendung von Pipelines hängen hauptsächlich vom Zeitintervall für die inkrementelle Aktualisierung und den Datenmengen ab. Um die Kosten für die Verwendung dieser Funktion zu planen und zu verwalten, gehen Sie zu: Überwachen der Kosten auf Pipeline-Ebene mit Kostenanalyse
Es ist wichtig, diese zusätzlichen Kosten zu berücksichtigen, wenn Sie sich für die Verwendung dieser Vorlage entscheiden, da sie nicht optional sind und bezahlt werden müssen, um diese Funktion weiterhin nutzen zu können.
Die Lösungsvorlage verwenden
- Gehen Sie zum Azure-Portal und öffnen Sie den Azure Synapse workspace.
- Wählen Sie Integrieren > Katalog durchsuchen aus.
- Wählen Se Dataverse-Daten mit Synapse Link in Azure SQL kopieren aus der Integrationsgalerie aus.
Konfigurieren der Lösungsvorlage
Erstellen Sie einen mit Azure Data Lake Storage Gen2 verknüpften Dienst, der mit Dataverse verbunden ist. Verwenden Sie dazu den entsprechenden Authentifizierungstyp. Wählen Sie dazu Testverbindung zum Validieren der Konnektivität und dann Erstellen aus.
Erstellen Sie ähnlich wie in den vorherigen Schritten einen mit Azure SQL-Datenbank verknüpften Dienst aus, bei dem Dataverse-Daten synchronisiert werden.
Sobald Eingänge konfiguriert sind, wählen Sie Diese Vorlage verwenden.
Jetzt kann ein Trigger hinzugefügt werden, um diese Pipeline zu automatisieren, sodass die Pipeline immer Dateien verarbeiten kann, wenn inkrementelle Updates regelmäßig abgeschlossen werden. Wechseln Sie zu Verwalten > Trigger, und erstellen Sie einen Trigger mit den folgenden Eigenschaften:
- Name: Geben Sie einen Namen für den Trigger ein, z. B. triggerModelJson.
- Typ: Speicherereignis.
- Azure-Abonnement : Wählen Sie das Abonnement aus, das Azure Data Lake Storage Gen2 hat.
- Name des Speicherkontos: Wählen Sie den Speicher mit den Dataverse-Daten aus.
- Containername : Wählen Sie den Container aus, der von Azure Synapse Link erstellt wurde.
- Blob-Pfad endet mit: /model.json
- Ereignis: Blob erstellt.
- Leere Blobs ignorieren: Ja.
- Triffer starten: Aktivieren Sie Trigger bei Erstellung starten.
Klicken Sie auf Weiter, um den Vorgang mit dem nächsten Bildschirm fortzusetzen.
Auf dem nächsten Bildschirm validiert der Trigger die übereinstimmenden Dateien. Klicken Sie auf OK, um den Trigger zu erstellen.
Verknüpfen Sie den Trigger mit einer Pipeline. Wechseln Sie zu der zuvor importierten Pipeline, und wählen Sie dann Trigger hinzufügen > Neu/Bearbeiten.
Wählen Sie den Trigger im vorherigen Schritt aus und wählen Sie dann Fortsetzen, um zum nächsten Bildschirm zu gelangen, wo der Trigger die übereinstimmenden Dateien validiert.
Klicken Sie auf Weiter, um den Vorgang mit dem nächsten Bildschirm fortzusetzen.
In dem Trigger-Laufparameter-Abschnitt geben Sie die folgenden Parameter ein, und wählen Sie dann aus OK.
- Container:
@split(triggerBody().folderPath,'/')[0]
- Ordner:
@split(triggerBody().folderPath,'/')[1]
- Container:
Nachdem Sie den Trigger der Pipeline zugeordnet haben, wählen Sie Alles validieren.
Wählen Sie nach erfolgreicher Validierung Alle veröffentlichen.
Wählen Sie Veröffentlichen, um alle Änderungen zu veröffentlichen.
Einen Ereignisabonnementfilter hinzufügen
Um sicherzustellen, dass der Trigger nur ausgelöst wird, wenn die Erstellung von model.json abgeschlossen ist, müssen erweiterte Filter für das Ereignisabonnement des Triggers aktualisiert werden. Bei der ersten Ausführung des Triggers wird ein Ereignis für das Speicherkonto registriert.
Wechseln Sie nach Abschluss einer Trigger-Ausführung zu Speicherkonto > Ereignisse > Ereignisabonnements.
Wählen Sie das Ereignis, für das der model.json-Trifer registriert wurde.
Wählen Sie die Registerkarte Filter und dann Neuen Filter hinzufügen aus.
Erstellen Sie den Filter:
- Schlüssel: subject
- Operator: Zeichenfolge endet nicht mit
- Wert: /blobs/model.json
Entfernen Sie den CopyBlob-Parameter aus dem data.api-Wert-Array.
Wählen Sie Speichern, um den zusätzlichen Filter einzusetzen.
Siehe auch
Blog: Ankündigung von Azure Synapse Link for Dataverse
Hinweis
Können Sie uns Ihre Präferenzen für die Dokumentationssprache mitteilen? Nehmen Sie an einer kurzen Umfrage teil. (Beachten Sie, dass diese Umfrage auf Englisch ist.)
Die Umfrage dauert etwa sieben Minuten. Es werden keine personenbezogenen Daten erhoben. (Datenschutzbestimmungen).