La soluzione descritta in questo articolo combina una gamma di servizi di Azure che inseriscono, archiviano, elaborano, arricchiscono e gestiscono dati e informazioni dettagliate da diverse origini (strutturate, semistrutturate, non strutturate e streaming).
Architettura
Scaricare un file di Visio di questa architettura.
Nota
- I servizi coperti da questa architettura sono solo un subset di una famiglia molto più ampia di servizi di Azure. Risultati simili possono essere ottenuti usando altri servizi o funzionalità non coperti da questa progettazione.
- Requisiti aziendali specifici per il proprio caso d'uso di analisi potrebbero richiedere l'uso di servizi o funzionalità diversi che non vengono considerati in questa progettazione.
Flusso di dati
I casi d'uso di analisi coperti dall'architettura sono illustrati dalle diverse origini dati sul lato sinistro del diagramma. I flusso dei dati attraverso la soluzione avviene dal basso verso l'alto come indicato di seguito:
Nota
Nelle sezioni seguenti Azure Data Lake viene usato come home per i dati in tutte le varie fasi del ciclo di vita dei dati. Azure Data Lake è organizzato in base a livelli e contenitori diversi, come indicato di seguito:
- Il livello raw è l'area di destinazione per i dati provenienti dai sistemi di origine. Come suggerisce il nome, i dati in questo livello sono in forma non elaborata, non filtrata e non recuperata.
- Nella fase successiva del ciclo di vita i dati vengono spostati nel livello arricchito in cui i dati vengono puliti, filtrati ed eventualmente trasformati.
- I dati vengono quindi spostati nel livello Curato, in cui vengono mantenuti i dati pronti per l'utente.
Per una revisione completa dei livelli e dei contenitori di Azure Data Lake e dei relativi usi, vedere la documentazione relativa alle zone e ai contenitori di Data Lake.
Servizi dati di Azure, HTAP nativo del cloud con Azure Cosmos DB e Dataverse
Processo
Collegamento ad Azure Synapse per Azure Cosmos DB e Collegamento ad Azure Synapse per Dataverse consentono di eseguire analisi near real-time sui dati operativi e delle applicazioni aziendali usando i motori di analisi disponibili nell'area di lavoro di Azure Synapse: pool di SQL Serverless e pool di Spark.
Quando si usa Azure Collegamento a Synapse per Azure Cosmos DB, usare una query SQL Serverless o un notebook del pool spark. È possibile accedere all'archivio analitico di Azure Cosmos DB e quindi combinare i set di dati dai dati operativi quasi in tempo reale con i dati del data lake o dal data warehouse.
Quando si usa Collegamento ad Azure Synapse per Dataverse, usare una query SQL Serverless o un notebook del pool di Spark. È possibile accedere alle tabelle Dataverse selezionate e quindi combinare i set di dati provenienti dai dati delle applicazioni aziendali near real-time con i dati del data lake o del data warehouse.
Store
- I set di dati risultanti dalle query SQL Serverless possono essere resi persistenti nel data lake. Se si usano notebook Spark, i set di dati risultanti possono essere resi persistenti nel data lake o nel data warehouse (SQL pool).
Server
Caricare i dati rilevanti dal pool Azure Synapse SQL o dal data lake nei set di dati di Power BI per la visualizzazione e l'esplorazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.
I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.
I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.
Database relazionali
Inserimento
- Usare le pipeline di Azure Synapse per eseguire il pull dei dati da un'ampia gamma di database, sia in locale che nel cloud. Le pipeline possono essere attivate in base a una pianificazione predefinita in risposta a un evento o possono essere chiamate in modo esplicito tramite le API REST.
Store
All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.
Dalla pipeline di Azure Synapse usare un'attività Copia dati per preparare i dati copiati dai database relazionali nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. È possibile salvare i dati in formato testo delimitato o compressi come file Parquet.
Processo
Usare flussi di dati, query sql serverless o notebook Spark per convalidare, trasformare e spostare i set di dati dal livello non elaborato, attraverso il livello arricchito e nel livello curato nel data lake.
- Come parte delle trasformazioni dei dati, è possibile richiamare modelli di training automatico dai pool SQL usando notebook T-SQL o Spark standard. Questi modelli di ML possono essere usati per arricchire i set di dati e generare altre informazioni dettagliate aziendali. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure ML.
Server
È possibile gestire il set di dati finale direttamente dal livello Curato di Data Lake oppure è possibile usare l'attività Copia dati per inserire il set di dati finale nelle tabelle del pool SQL usando il comando COPY per l'inserimento rapido.
Caricare i dati rilevanti dal pool Azure Synapse SQL o dal data lake nei set di dati di Power BI per la visualizzazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.
I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.
I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.
Origini dati semistrutturate
Inserimento
Usare le pipeline di Azure Synapse per eseguire il pull dei dati da un'ampia gamma di origini dati semistrutturate, sia in locale che nel cloud. Ad esempio:
- Inserire dati da origini basate su file contenenti file CSV o JSON.
- Connettersi a database No-SQL, ad esempio Azure Cosmos DB o MongoDB.
- Chiamare API REST fornite dalle applicazioni SaaS che funzioneranno come origine dati per la pipeline.
Store
All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.
Dalla pipeline di Azure Synapse usare un'attività Copia dati per eseguire il staging dei dati copiati dalle origini dati semistrutturate nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. Salvare i dati mantenendo il formato originale, come acquisito dalle origini dati.
Processo
Per le pipeline batch/micro batch, usare flussi di dati, query sql serverless o notebook Spark per convalidare, trasformare e spostare i set di dati nel livello curato nel data lake. Le query SQL Serverless espongono i file CSV, Parquet o JSON sottostanti come tabelle esterne, in modo che sia possibile eseguirvi query usando T-SQL.
- Come parte delle trasformazioni dei dati, è possibile richiamare modelli di Machine Learning da pool SQL con T-SQL standard o notebook Spark. Questi modelli di ML possono essere usati per arricchire i set di dati e generare altre informazioni dettagliate aziendali. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure ML.
Per scenari di telemetria near real-time e di analisi delle serie temporali, usare i pool di Esplora dati per inserire, consolidare e correlare facilmente i log e i dati degli eventi IoT tra più origini dati. Con i pool di Esplora dati è possibile usare le query Kusto (KQL) per eseguire analisi di serie temporali, clustering geospaziale e arricchimento di Machine Learning.
Server
È possibile gestire il set di dati finale direttamente dal livello Curato di Data Lake oppure è possibile usare l'attività Copia dati per inserire il set di dati finale nelle tabelle del pool SQL usando il comando COPY per l'inserimento rapido.
Caricare i dati rilevanti dai pool Azure Synapse SQL, dai pool di Esplora dati o da un data lake nei set di dati di Power BI per la visualizzazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.
I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.
I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.
Origini dati non strutturate
Inserimento
Usare le pipeline di Azure Synapse per eseguire il pull dei dati da un'ampia gamma di origini dati non strutturate, sia in locale che nel cloud. Ad esempio:
- Inserire video, immagini, audio o testo libero da origini basate su file che contengono i file di origine.
- Chiamare API REST fornite dalle applicazioni SaaS che funzioneranno come origine dati per la pipeline.
Store
All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.
Dalla pipeline di Azure Synapse usare un'attività Copia dati per preparare i dati copiati dalle origini dati non strutturate nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. Salvare i dati mantenendo il formato originale, come acquisito dalle origini dati.
Processo
Usare i notebook Spark per convalidare, trasformare, arricchire e spostare i set di dati dal livello raw, attraverso il livello arricchito e nel livello curato nel data lake.
- Come parte delle trasformazioni dei dati, è possibile richiamare modelli di Machine Learning da pool SQL con T-SQL standard o notebook Spark. Questi modelli di ML possono essere usati per arricchire i set di dati e generare altre informazioni dettagliate aziendali. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure ML.
Server
È possibile gestire il set di dati finale direttamente dal livello Curato data lake oppure usare l'attività Copia dati per inserire il set di dati finale nelle tabelle del data warehouse usando il comando COPY per l'inserimento rapido.
Caricare i dati rilevanti dal pool Azure Synapse SQL o dal data lake nei set di dati di Power BI per la visualizzazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali.
Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.
I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.
I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.
Streaming
Inserimento
- Usare Hub eventi di Azure o Hub IoT di Azure per inserire flussi di dati generati da applicazioni client o dispositivi IoT. Hub eventi o Hub IoT inserisce e archivia i dati di streaming mantenendo la sequenza di eventi ricevuti. I consumer possono quindi connettersi agli endpoint di Hub eventi o Hub IoT e recuperare i messaggi per l'elaborazione.
Store
All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.
Configurare l'acquisizione di Hub eventi o gli endpoint di archiviazione hub IoT per salvare una copia degli eventi nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. Questa funzionalità implementa il "percorso non critico" del modello di architettura Lambda e consente di eseguire analisi cronologiche e delle tendenze sui dati di flusso salvati nel data lake usando query di SQL Serverless o notebook Spark seguendo il modello per le origini dati semistrutturate descritto in precedenza.
Processo
Per informazioni dettagliate in tempo reale, usare un processo di Analisi di flusso per implementare il "percorso critico" del modello di architettura Lambda ed estrarre informazioni dettagliate dai dati del flusso in transito. Definire almeno un input per il flusso di dati proveniente dall'Hub eventi o dall'Hub IoT, una query per elaborare il flusso di dati di input e un output di Power BI a cui verranno inviati i risultati della query.
- Come parte dell'elaborazione dati con Analisi di flusso, è possibile richiamare modelli di Machine Learning per arricchire i set di dati di flusso e prendere le decisioni aziendali in base alle stime generate. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure Machine Learning.
Usare altri output dei processi di Analisi di flusso per inviare eventi elaborati ai pool Azure Synapse SQL o ai pool di Esplora dati per altri casi d'uso di analisi.
Per scenari di telemetria near real-time e di analisi delle serie temporali, usare i pool di Esplora dati per inserire facilmente eventi IoT direttamente da Hub eventi o Hub IoT. Con i pool di Esplora dati è possibile usare le query Kusto (KQL) per eseguire analisi di serie temporali, clustering geospaziale e arricchimento di Machine Learning.
Server
Gli analisti aziendali usano quindi i set di dati n tempo reale e le funzionalità del dashboard di Power BI per visualizzare le informazioni dettagliate in rapida evoluzione generate dalla query di Analisi di flusso.
I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.
I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.
Componenti
Nell'architettura sono stati usati i servizi di Azure seguenti:
- Azure Synapse Analytics
- Azure Data Lake Gen2
- Azure Cosmos DB
- Servizi cognitivi di Azure
- Azure Machine Learning
- Hub eventi di Azure
- Hub IoT di Azure
- Analisi di flusso di Azure
- Microsoft Purview
- Condivisione dati di Azure
- Microsoft Power BI
- Microsoft Entra ID
- Gestione dei costi Microsoft
- Azure Key Vault
- Monitoraggio di Azure
- Microsoft Defender per il cloud
- Azure DevOps
- Criteri di Azure
- GitHub
Alternative
Nell'architettura precedente le pipeline di Azure Synapse sono responsabili dell'orchestrazione delle pipeline di dati. Anche le pipeline di Azure Data Factory offrono le stesse funzionalità descritte in questo articolo.
È possibile anche usare Azure Databricks come motore di calcolo usato per elaborare dati strutturati e non strutturati direttamente nel data lake.
Nell'architettura precedente, Analisi di flusso di Azure è il servizio responsabile dell'elaborazione dei dati di streaming. È anche possibile usare i pool di Spark di Azure Synapse e Azure Databricks per eseguire lo stesso ruolo tramite l'esecuzione di notebook.
È anche possibile usare i cluster Kafka di Azure HDInsight per inserire dati di streaming e fornire il livello appropriato di prestazioni e scalabilità richiesto dai carichi di lavoro di streaming di grandi dimensioni.
È anche possibile usare Funzioni di Azure per richiamare Servizi cognitivi di Azure o i modelli di ML personalizzati di Azure Machine Learning da una pipeline di Azure Synapse.
Per confrontare le alternative, vedere:
Dettagli dello scenario
Questo scenario di esempio illustra come usare Azure Synapse Analytics con l'ampia famiglia di Servizi dati di Azure per creare una piattaforma dati moderna in grado di gestire le sfide più comuni per i dati in un'organizzazione.
Potenziali casi d'uso
Questo approccio può essere usato anche per:
- Stabilire un'architettura del prodotto dati, costituita da un data warehouse per i dati strutturati e un data lake per i dati semistrutturati e non strutturati. È possibile scegliere di distribuire un singolo prodotto dati per ambienti centralizzati o più prodotti dati per ambienti distribuiti come Data Mesh. Vedere altre informazioni sulla zona di destinazione di gestione dati e la zona di destinazione dati.
- Integrare origini dati relazionali con altri set di dati non strutturati, con l'uso di tecnologie di elaborazione dei Big Data.
- Usare la modellazione semantica e strumenti di visualizzazione avanzati per semplificare l'analisi dei dati.
- Condividere set di dati all'interno dell'organizzazione o con partner esterni attendibili.
- Implementare soluzioni di knowledge mining per estrarre informazioni aziendali preziose nascoste in immagini, PDF, documenti e così via.
Consigli
Individuazione e governance
La governance dei dati è una sfida comune negli ambienti aziendali di grandi dimensioni. Da un lato, gli analisti aziendali devono essere in grado di individuare e comprendere gli asset di dati che possono aiutare a risolvere i problemi aziendali. Dall'altro lato, i Chief Data Officer vogliono informazioni dettagliate sulla privacy e sulla sicurezza dei dati aziendali.
Microsoft Purview
Usare Microsoft Purview per l'individuazione dei dati e le informazioni dettagliate sugli asset di dati, la classificazione dei dati e la riservatezza, che copre l'intero panorama dei dati dell'organizzazione.
Microsoft Purview consente di gestire un glossario aziendale con la terminologia aziendale specifica necessaria agli utenti per comprendere la semantica dei set di dati e il modo in cui devono essere usati nell'organizzazione.
È possibile registrare tutte le origini dati e organizzarle in raccolte, approccio che serve anche come limite di sicurezza per i metadati.
Configurare analisi regolari per catalogare e aggiornare automaticamente i metadati rilevanti sugli asset di dati nell'organizzazione. Microsoft Purview può anche aggiungere automaticamente informazioni sulla derivazione dei dati in base alle informazioni provenienti da azure Data Factory o dalle pipeline di Azure Synapse.
Le etichette di classificazione dei dati e riservatezza dei dati possono essere aggiunte automaticamente agli asset di dati in base a regole preconfigurate o personalizzate applicate durante le analisi regolari.
I professionisti della governance dei dati possono usare i report e le informazioni dettagliate generate da Microsoft Purview per mantenere il controllo sull'intero panorama dei dati e proteggere l'organizzazione da eventuali problemi di sicurezza e privacy.
Servizi della piattaforma
Per migliorare la qualità delle soluzioni di Azure, seguire le raccomandazioni e le linee guida definite nei cinque pilastri di eccellenza dell'architettura di Well-Architected Framework di Azure: ottimizzazione dei costi, eccellenza operativa, efficienza delle prestazioni, affidabilità e sicurezza.
Seguendo queste raccomandazioni, i servizi seguenti devono essere considerati come parte della progettazione:
- Microsoft Entra ID: servizi di identità, single sign-on e autenticazione a più fattori tra carichi di lavoro di Azure.
- Gestione costi Microsoft: governance finanziaria sui carichi di lavoro di Azure.
- Azure Key Vault: gestione sicura di credenziali e certificati. Ad esempio, le pipeline di Azure Synapse, i pool di Spark di Azure Synapse e Azure ML possono recuperare credenziali e certificati da Azure Key Vault usato per accedere in modo sicuro agli archivi dati.
- Monitoraggio di Azure: consente di raccogliere, analizzare e agire sulle informazioni di telemetria delle risorse di Azure per identificare in modo proattivo i problemi e massimizzare le prestazioni e l'affidabilità.
- Microsoft Defender for Cloud: consente di rafforzare e monitorare il comportamento di sicurezza dei carichi di lavoro di Azure.
- Azure DevOps e GitHub: implementare procedure DevOps per applicare l'automazione e la conformità alle pipeline di sviluppo e distribuzione del carico di lavoro per Azure Synapse e Azure ML.
- Criteri di Azure: consente di implementare gli standard aziendali e la governance per la coerenza delle risorse, la conformità alle normative, la sicurezza, i costi e la gestione.
Considerazioni
Queste considerazioni implementano i pilastri di Azure Well-Architected Framework, che è un set di principi guida che possono essere usati per migliorare la qualità di un carico di lavoro. Per altre informazioni, vedere Microsoft Azure Well-Architected Framework.
Le tecnologie in questa architettura sono state scelte perché ognuna di esse fornisce le funzionalità necessarie per gestire le sfide più comuni per i dati in un'organizzazione. Questi servizi soddisfano i requisiti di scalabilità e disponibilità, consentendo al tempo stesso di controllare i costi. I servizi coperti da questa architettura sono solo un subset di una famiglia molto più ampia di servizi di Azure. Risultati simili possono essere ottenuti usando altri servizi o funzionalità non coperti da questa progettazione.
Requisiti aziendali specifici per il proprio caso d'uso di analisi possono anche richiedere l'uso di servizi o funzionalità diversi non considerati in questa progettazione.
Un'architettura simile può essere implementata anche per ambienti di pre-produzione in cui è possibile sviluppare e testare i carichi di lavoro. Considerare i requisiti specifici per i carichi di lavoro e le funzionalità di ogni servizio per un ambiente di pre-produzione conveniente.
Ottimizzazione dei costi
L'ottimizzazione dei costi riguarda l'analisi dei modi per ridurre le spese non necessarie e migliorare l'efficienza operativa. Per altre informazioni, vedere Panoramica del pilastro di ottimizzazione dei costi.
In linea generale, usare il calcolatore dei prezzi di Azure per stimare i costi. Il singolo piano tariffario ideale e il costo complessivo totale di ogni servizio incluso nell'architettura dipendono dalla quantità di dati da elaborare e archiviare e dal livello di prestazioni accettabile previsto. Usare la guida seguente per altre informazioni sul prezzo di ogni servizio:
L'architettura serverless di Azure Synapse Analytics consente di dimensionare i livelli di calcolo e archiviazione in modo indipendente. Le risorse di calcolo vengono addebitate in base all'utilizzo ed è possibile dimensionare o sospendere queste risorse su richiesta. Le risorse di archiviazione vengono addebitate per terabyte, pertanto i costi aumenteranno man mano che si inseriscono altri dati.
Azure Data Lake Gen 2 viene addebitato in base alla quantità di dati archiviati e in base al numero di transazioni per leggere e scrivere i dati.
Hub eventi di Azure e Hub IoT di Azure vengono addebitati in base alla quantità di risorse di calcolo necessarie per elaborare i flussi di messaggi.
Gli addebiti di Azure Machine Learning derivano dalla quantità di risorse di calcolo usate per eseguire il training dei modelli di Machine Learning e distribuirli.
I Servizi cognitivi vengono addebitati in base al numero di chiamate effettuate alle API del servizio.
Il prezzo di Microsoft Purview è basato sul numero di asset di dati nel catalogo e sulla quantità di potenza di calcolo necessaria per analizzarle.
Analisi di flusso di Azure viene addebitato in base alla quantità di potenza di calcolo necessaria per elaborare le query di flusso.
Power BI offre diverse opzioni di prodotto per i differenti requisiti. Power BI Embedded fornisce un'opzione basata su Azure per incorporare le funzionalità di Power BI all'interno delle applicazioni. Un'istanza di Power BI Embedded è inclusa nell'esempio di costi riportato in precedenza.
Azure Cosmos DB viene calcolato in base alla quantità di risorse di archiviazione e calcolo richieste dai database.
Distribuire lo scenario
Questo articolo include un repository complementare disponibile in GitHub che illustra come automatizzare la distribuzione dei servizi trattati in questa architettura. Seguire la guida alla distribuzione end-to-end di Analisi di Azure con Azure Synapse per distribuire questa architettura nella sottoscrizione. Questa guida alla distribuzione include istruzioni dettagliate e più opzioni di distribuzione.
Collaboratori
Questo articolo è aggiornato e gestito da Microsoft. Originariamente è stato scritto dai seguenti contributori.
Autore principale:
- Fabio Merge | Principal MTC Technical Architect
Per visualizzare i profili LinkedIn non pubblici, accedere a LinkedIn.
Passaggi successivi
Esaminare le linee guida definite nello scenario di gestione e analisi dei dati di Azure per l'ambiente di analisi scalabile in Azure.
Esplorare i percorsi di apprendimento degli ingegneri dei dati in Microsoft Learn per ulteriori contenuti di training e laboratori sui servizi interessati da questa architettura di riferimento.
Esaminare la documentazione e distribuire l'architettura di riferimento usando l'acceleratore di distribuzione disponibile in GitHub.