Condividi tramite


Esempio di prezzi: copiare i dati e trasformarli con Azure Databricks

SI APPLICA A: Azure Data Factory Azure Synapse Analytics

Suggerimento

Provare Data Factory in Microsoft Fabric, una soluzione di analisi all-in-one per le aziende. Microsoft Fabric copre tutto, dallo spostamento dati al data science, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita!

In questo scenario si desidera copiare dati da AWS S3 in Archiviazione BLOB di Azure e trasformare i dati con Azure Databricks secondo una pianificazione oraria, per 8 ore al giorno per 30 giorni.

I prezzi usati nell’esempio seguente sono ipotetici e non suggeriscono in alcun modo i prezzi effettivi esatti. I costi di lettura/scrittura e monitoraggio non vengono visualizzati perché in genere sono trascurabili e non influiscono significativamente sui costi complessivi. Le esecuzioni di attività vengono arrotondate anche ai 1.000 più vicini nelle stime del calcolatore dei prezzi.

Nota

Questa stima riguarda solo i costi di Azure Data Factory. Anche Azure Databricks comporta costi in questo scenario, ma è possibile stimarli usando il calcolatore prezzi di Azure.

Fare riferimento al Calcolatore prezzi di Azure per scenari più specifici e per stimare i costi futuri per l'uso del servizio.

Impostazione

Per eseguire lo scenario è necessario creare una pipeline con gli elementi seguenti:

  • Una sola attività di copia con un set di dati di input per i dati da copiare da AWS S3 e un set di dati di output per i dati in Archiviazione di Azure.
  • Una sola attività di Azure Databricks per la trasformazione dei dati.
  • Un solo trigger di pianificazione per eseguire la pipeline ogni ora. Quando si vuole eseguire una pipeline, è possibile attivarla immediatamente o pianificarla. Oltre alla pipeline stessa, ogni istanza del trigger viene conteggiata come singola esecuzione di attività.

Il diagramma mostra una pipeline con un trigger di pianificazione. Nella pipeline l'attività di copia passa a un set di dati di input, a un set di dati di output e a un'attività DataBricks, che viene eseguita in Azure Databricks. Il set di dati di input passa a un servizio collegato AWS S3. Il set di dati di output passa a un servizio collegato di Archiviazione di Azure.

Stima dei costi

Operazioni Tipi e unità
Eseguire la pipeline 3 esecuzioni di attività per esecuzione (1 per l'esecuzione del trigger, 2 per le esecuzioni di attività) = 720 esecuzioni di attività, arrotondate poiché il calcolatore consente solo incrementi di 1.000.
Presupposto copia dati: ore DIU per esecuzione = 10 min 10 min/60 min * 4 Azure Integration Runtime (impostazione DIU predefinita = 4) Per altre informazioni sulle unità di integrazione dati e l'ottimizzazione delle prestazioni di copia, vedere questo articolo
Esecuzione del presupposto dell'attività di Databricks: ore di esecuzione esterna per esecuzione = 10 min 10 min/60 min Esecuzione di attività di pipeline esterna

Esempio di calcolatore prezzi

Prezzi totali dello scenario per 30 giorni: $ 41,01

Screenshot del calcolatore prezzi configurato per una copia dei dati e la relativa trasformazione con lo scenario di Azure Databricks.