Condividi tramite


Copiare o clonare una data factory in Azure Data Factory

SI APPLICA A: Azure Data Factory Azure Synapse Analytics

Suggerimento

Provare Data Factory in Microsoft Fabric, una soluzione di analisi completa per le aziende. Microsoft Fabric copre tutti gli elementi, dallo spostamento dei dati all'analisi scientifica dei dati, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Scopri come avviare gratuitamente una nuova versione di valutazione .

Questo articolo descrive come copiare o clonare una data factory in Azure Data Factory.

Casi d'uso per la clonazione di una data factory

Ecco alcune delle circostanze in cui potrebbe essere utile copiare o clonare una data factory:

  • Spostare Data Factory in una nuova area. Se si vuole spostare data factory in un'area diversa, il modo migliore consiste nel creare una copia nell'area di destinazione ed eliminare quella esistente.

  • Ridenominazione di Data Factory. Azure non supporta la ridenominazione di risorse. Se si vuole rinominare una data factory, è possibile clonare la data factory con un nome diverso ed eliminare quella esistente.

  • Modifiche di debug quando le funzionalità di debug non sono sufficienti. Nella maggior parte degli scenari è possibile usare Debug. In altri casi, il test delle modifiche in un ambiente sandbox clonato ha più senso. Ad esempio, il comportamento delle pipeline ETL con parametri quando un trigger viene attivato all'arrivo del file rispetto a un intervallo di tempo a cascata, potrebbe non essere facilmente testabile solo tramite debug. In questi casi, è possibile clonare un ambiente sandbox per l'esperimento. Poiché Azure Data Factory addebita principalmente il numero di esecuzioni, una seconda factory non comporta costi aggiuntivi.

Come clonare una Data factory

  1. Come prerequisito, è prima necessario creare la data factory di destinazione dal portale di Azure.

  2. Se si è in modalità GIT:

    1. Ogni volta che si pubblica dal portale, il modello di Resource Manager della factory viene salvato in GIT nel ramo adf_publish
    2. Connessione la nuova factory nello stesso repository e compilare da adf_publish ramo. Le risorse, ad esempio pipeline, set di dati e trigger, porteranno attraverso
  3. Se si è in modalità live:

    1. L'interfaccia utente di Data Factory consente di esportare l'intero payload della data factory in un file modello di Resource Manager e in un file di parametri. È possibile accedervi dal pulsante modello di Resource Manager \ Esporta modello di Resource Manager nel portale.
    2. È possibile apportare modifiche appropriate al file di parametri e scambiare i nuovi valori per la nuova factory
    3. Successivamente, è possibile distribuirlo tramite i metodi di distribuzione dei modelli di Resource Manager standard.
  4. Se si dispone di un'integrazione SelfHostedRuntime nella factory di origine, è necessario crearla con lo stesso nome nella factory di destinazione. Se si vuole condividere il runtime di integrazione SelfHosted tra diverse factory, è possibile usare il modello pubblicato qui per condividere il runtime di integrazione SelfHosted.

  5. Per motivi di sicurezza, il modello di Resource Manager generato non conterrà informazioni segrete, ad esempio password per i servizi collegati. Di conseguenza, è necessario specificare le credenziali come parametri di distribuzione. Se l'input manuale delle credenziali non è consigliabile per le impostazioni, prendere in considerazione il recupero delle stringa di connessione e delle password da Azure Key Vault. Visualizza altro

Esaminare le indicazioni per la creazione di una data factory nel portale di Azure in Creare una data factory usando l'interfaccia utente di Azure Data Factory.