Teilen über


Kopieren oder Klonen einer Data Factory in Azure Data Factory

GILT FÜR: Azure Data Factory Azure Synapse Analytics

Tipp

Testen Sie Data Factory in Microsoft Fabric, eine All-in-One-Analyselösung für Unternehmen. Microsoft Fabric deckt alle Aufgaben ab, von der Datenverschiebung bis hin zu Data Science, Echtzeitanalysen, Business Intelligence und Berichterstellung. Erfahren Sie, wie Sie kostenlos eine neue Testversion starten!

In diesem Artikel wird beschrieben, wie Sie eine Data Factory in Azure Data Factory kopieren oder klonen.

Anwendungsfälle für das Klonen einer Data Factory

Im folgenden finden Sie einige Situationen, in denen es hilfreich sein kann, eine Data Factory zu kopieren oder zu klonen:

  • Verschieben einer Data Factory in eine neue Region. Wenn Sie Ihre Data Factory in eine andere Region verschieben möchten, empfiehlt es sich, eine Kopie in der Zielregion zu erstellen und die vorhandene Factory zu löschen.

  • Umbenennen der Data Factory. Azure unterstützt die Umbenennung von Ressourcen nicht. Wenn Sie eine Data Factory umbenennen möchten, können Sie sie unter einem anderen Namen klonen und die vorhandene löschen.

  • Debuggen von Änderungen, wenn die Debugfeatures nicht ausreichen. In den meisten Szenarien können Sie das Debuggen nutzen. In anderen Szenarien ist das Testen von Änderungen in einer geklonten Sandboxumgebung sinnvoller. Das Verhalten der parametrisierten ETL-Pipelines beim Auslösen eines Triggers bei Dateieingang im Vergleich zu einem rollierenden Zeitfenster kann möglicherweise nicht einfach allein durch Debuggen getestet werden. In diesen Fällen empfiehlt es sich, eine Sandboxumgebung zum Testen zu klonen. Da Azure Data Factory hauptsächlich über die Anzahl von Ausführungen abgerechnet wird, führt eine zweite Factory nicht zu zusätzlichen Gebühren.

Klonen einer Data Factory

  1. Als Voraussetzung müssen Sie zunächst die Ziel-Data Factory im Azure-Portal erstellen.

  2. Im Git-Modus:

    1. Bei jedem Veröffentlichen über das Portal wird die Resource Manager-Vorlage der Factory in Git im Branch „adf_publish“ des Repositorys gespeichert.
    2. Verbinden Sie die neue Factory mit demselben Repository, und erstellen Sie sie über den Branch „adf_publish“. Ressourcen wie z. B. Pipelines, Datasets und Trigger werden übertragen.
  3. Im Livemodus:

    1. In der Data Factory-Benutzeroberfläche können Sie die gesamte Payload der Data Factory in eine Resource Manager-Vorlagendatei und eine Parameterdatei exportieren. Auf diese Dateien kann im Portal in der ARM-Vorlage über die Schaltfläche Export Resource Manager template (Resource Manager-Vorlage exportieren) zugegriffen werden.
    2. Sie können entsprechende Änderungen an der Parameterdatei vornehmen und neue Werte für die neue Factory eingeben.
    3. Dann können Sie sie mit Standardbereitstellungsmethoden für Resource Manager-Vorlagen bereitstellen.
  4. Wenn Sie eine SelfHosted IntegrationRuntime in Ihrer Quellfactory haben, müssen Sie sie mit dem gleichen Namen in der Zielfactory vorab erstellen. Wenn Sie die selbstgehostete Integration Runtime zwischen verschiedenen Factorys freigeben möchten, können Sie das hier veröffentlichte entsprechende Muster verwenden.

  5. Aus Sicherheitsgründen enthält die generierte Resource Manager-Vorlage keine Geheimnisinformationen wie Kennwörter für verknüpfte Dienste. Daher müssen Sie die Anmeldeinformationen als Bereitstellungsparameter angeben. Wenn die manuelle Eingabe von Anmeldeinformationen in Ihren Einstellungen nicht vorgesehen ist, können Sie Verbindungszeichenfolgen und Kennwörter stattdessen aus Azure Key Vault abrufen. Weitere anzeigen

Lesen Sie die Anleitung zum Erstellen einer Data Factory im Azure-Portal unter Erstellen einer Data Factory über die Azure Data Factory-Benutzeroberfläche.