Eventi
31 mar, 23 - 2 apr, 23
Il più grande evento di apprendimento di Fabric, Power BI e SQL. 31 marzo - 2 aprile. Usare il codice FABINSIDER per salvare $400.
Iscriviti oggi stessoQuesto browser non è più supportato.
Esegui l'aggiornamento a Microsoft Edge per sfruttare i vantaggi di funzionalità più recenti, aggiornamenti della sicurezza e supporto tecnico.
Questo articolo illustra come valutare e ottimizzare il carico sulle capacità di Microsoft Fabric. Descrive anche le strategie per affrontare le situazioni di overload e fornisce indicazioni per ottimizzare il calcolo per ognuna delle esperienze di Fabric.
Se da un lato il modello di capacità di Fabric semplifica la configurazione e abilita la collaborazione, è molto probabile esaurire le risorse di calcolo condivise di una capacità. Potrebbe anche accadere di pagare per più risorse di quelle necessarie. Queste situazioni possono verificarsi quando la progettazione di alcune esperienze di Fabric non segue le procedure consigliate.
È importante ridurre il rischio di esaurimento delle risorse condivise: Fabric, come servizio gestito, risolve automaticamente tali situazioni in due modi.
Lo smoothing riduce la probabilità di limitazione (anche se la limitazione può comunque verificarsi). Lo smoothing è il modo in cui l'utilizzo viene allocato rispetto ai limiti, ma è indipendente dall'esecuzione dei lavori. Lo smoothing non modifica le prestazioni ma si limita a distribuire l'accounting del calcolo consumato su un periodo più lungo, in modo che non sia necessario uno SKU superiore per gestire il picco del calcolo.
Per ulteriori informazioni sulla capacità di Fabric, vedere Concetti e licenze di Microsoft Fabric e capacità di Fabric: tutto ciò che è necessario sapere sulle novità e su ciò che accadrà.
Pianificare le dimensioni di una capacità può essere una sfida. Ciò è dovuto al fatto che il calcolo richiesto può variare notevolmente a seconda delle operazioni eseguite, del modo in cui sono state eseguite (ad esempio, l'efficienza di una query DAX o del codice Python in un notebook) o del livello di concorrenza.
Per determinare le dimensioni corrette della capacità, è possibile effettuare il provisioning delle capacità di valutazione o degli SKU F con pagamento in base al consumo per misurare le dimensioni effettive della capacità necessarie prima di acquistare un'istanza riservata dello SKU F.
Suggerimento
È sempre una buona strategia iniziare con piccole dimensioni e poi aumentare gradualmente le dimensioni della capacità in base alle esigenze.
È consigliabile monitorare l'utilizzo delle capacità per sfruttarle al meglio. Prima di tutto, è importante comprendere che le operazioni di Fabric sono interattive o in background. Ad esempio, le query DAX di un report di Power BI sono richieste on-demand, che sono operazioni interattive, mentre gli aggiornamenti del modello semantico sono operazioni in background. Per ulteriori informazioni sulle operazioni e su come usano le risorse all'interno di Fabric, vedere Operazioni Fabric.
Il monitoraggio può rivelare all'utente che è in esecuzione la limitazione. La limitazione può verificarsi quando sono presenti numerose operazioni interattive o a esecuzione prolungata. In genere, le operazioni in background correlate alle esperienze SQL e Spark sono fluidificate, ovvero vengono distribuite in un periodo di 24 ore.
L'app Fabric Capacity Metrics è il modo migliore per monitorare e visualizzare l'utilizzo recente. L'app si suddivide in base al tipo di elemento (modello semantico, notebook, pipeline e altri) e ti consente di identificare elementi o operazioni che usano livelli elevati di calcolo (in modo che possano essere ottimizzati).
Gli amministratori possono usare l'area di lavoro Monitoraggio amministratore per ottenere informazioni sugli elementi usati di frequente (e sull'adozione complessiva). Possono anche usare l'hub di monitoraggio per visualizzare le attività correnti e recenti nel tenant. Ulteriori informazioni su alcune operazioni potrebbero essere disponibili anche nei Log Analytics o nel gateway dati locale.
Quando una capacità è altamente usata e inizia a mostrare limitazioni o rifiuto, esistono tre strategie per risolverla: ottimizzare, aumentare le prestazioni e aumentare il numero di istanze.
È consigliabile impostare le notifiche per apprendere quando l'utilizzo della capacità supera una soglia impostata. Prendere in considerazione anche l'uso di impostazioni specifiche del carico di lavoro per limitare le dimensioni delle operazioni, ad esempio il timeout delle query di Power BI o i limiti di riga o le impostazioni dell'area di lavoro Spark.
Gli autori di contenuti devono sempre ottimizzare la progettazione degli elementi di Fabric per garantire che sia efficiente e usi meno risorse di calcolo possibili. Le linee guida specifiche per ogni esperienza di Fabric vengono fornite più avanti in questo articolo.
È possibile aumentare la capacità per aumentare temporaneamente o in modo permanente le dimensioni dello SKU (con maggiore capacità di calcolo). L’aumento delle prestazioni garantisce che siano disponibili risorse di calcolo sufficienti per tutti gli elementi in una capacità ed evitare la limitazione.
È anche possibile ridimensionare, sospendere e riprendere gli SKU F di Fabric per allinearsi ai modelli di consumo.
È possibile aumentare il numero di istanze spostando alcune delle aree di lavoro o degli elementi in una capacità di Fabric differente per distribuire il carico di lavoro. Può essere un'opzione valida quando sono necessarie diverse strategie di capacità, impostazioni o amministratori. Il provisioning di più capacità è anche una buona strategia per isolare il calcolo per gli elementi ad alta priorità e anche per il contenuto self-service o di sviluppo. Ad esempio, i dirigenti dell'organizzazione si aspettano report e dashboard altamente reattivi. Questi report e dashboard possono risiedere in una capacità separata dedicata alla creazione di report esecutivi.
È anche possibile spostare le aree di lavoro di Power BI nella capacità condivisa, purché gli utenti dispongano di licenze di Power BI Pro che consentano loro di continuare ad accedere al contenuto.
protezione contro i picchi consente di limitare l'utilizzo eccessivo della capacità limitando la quantità totale di processi di calcolo in background utilizzati. Questo riduce il carico di elaborazione totale, rendendo meno probabile la presenza di ritardi interattivi o di rifiuti. Consente anche di recuperare più rapidamente la capacità se è presente un periodo di limitazione o rifiuto. Configura la protezione da sovratensioni per ciascuna capacità. La protezione contro i picchi aiuta a evitare limitazioni e rigetti, ma non è un sostituto per l'ottimizzazione della capacità, l'incremento delle prestazioni e il ridimensionamento.
Quando la protezione da picchi è attiva, i processi in background vengono rifiutati. Ciò significa che c'è un impatto sulla capacità anche quando è abilitata la protezione contro i picchi. Usando la protezione da sovratensioni, si sta ottimizzando la capacità per rimanere entro un intervallo di utilizzo che bilancia al meglio le esigenze di calcolo all'interno della capacità disponibile. Per proteggere completamente le soluzioni critiche, è consigliabile isolarle in una capacità di dimensioni adeguate.
Le esperienze e gli elementi in Fabric funzionano in modo diverso, quindi non è necessario ottimizzarli nello stesso modo. Questa sezione elenca gli elementi di Fabric in base all'esperienza e le azioni che è possibile eseguire per ottimizzarli.
Il data warehouse usa un'architettura serverless e i relativi nodi vengono gestiti automaticamente dal servizio. L'utilizzo della capacità viene calcolato in base ai secondi di unità di capacità attiva per ciascuna query anziché alla quantità di tempo di provisioning dei nodi front-end e back-end.
Tutte le operazioni del data warehouse sono operazioni in background e vengono fluidificate in un periodo di 24 ore.
L'endpoint di analisi SQL mira a offrire prestazioni per impostazione predefinita. A questo scopo, sono disponibili meno opzioni di ottimizzazione delle query rispetto a SQL Server o ai pool SQL dedicati di Azure Synapse Analytics.
Ecco alcuni punti da considerare per ridurre al minimo il calcolo.
VARCHAR
di lunghezza da 500 a 25 o la modifica da DECIMAL(32, 8)
a DECIMAL(10, 2)
può comportare una diminuzione significativa delle risorse assegnate per una query.FULLSCAN
anziché basarsi sulle statistiche generate automaticamente che usano il campionamento.Le esperienze di Data science e di Ingegneria dei dati usano il calcolo Spark per elaborare, analizzare e archiviare i dati in un lakehouse di Fabric. Il calcolo Spark viene configurato e misurato in termini di vCore. Tuttavia, Fabric usa le CU (unità di capacità) come misura di calcolo utilizzate da vari elementi, tra cui notebook Spark, definizioni di lavoro Spark e lavori lakehouse.
In Spark, una CU si traduce in due vCore spark di calcolo. Ad esempio, quando un cliente acquista uno SKU F64, sono disponibili 128 v-Core Spark per le esperienze Spark.
Tutte le operazioni Spark sono operazioni in background e vengono fluidificate in un periodo di 24 ore.
Per ulteriori informazioni, vedere Report di fatturazione e utilizzo in Fabric Spark.
Ecco alcuni punti da considerare per ridurre al minimo il calcolo.
Il consumo di CU del database KQL viene calcolato in base al numero di secondi in cui il database è attivo e al numero di vCore usati. Ad esempio, quando il database usa quattro vCore ed è attivo per 10 minuti, si useranno 2.400 (4 x 10 x 60) secondi di CU.
Tutte le operazioni di database KQL sono operazioni interattive.
Un meccanismo di scalabilità automatica viene usato per determinare le dimensioni del database KQL. Questo garantisce che le prestazioni migliori e ottimizzate per i costi vengano ottenute in base ai modelli di utilizzo.
Per consentire la disponibilità dei dati ad altri motori di Fabric, il database KQL viene sincronizzato con OneLake. In base al numero di letture e transazioni di scrittura eseguite dal database KQL, le CPU vengono utilizzate dalla capacità. Usa i contatori di lettura e scrittura di OneLake, equivalenti alle operazioni di lettura e scrittura negli account Azure Data Lake Storage (ADLS) Gen2.
Questa sezione riguarda le ottimizzazioni per i flussi di dati e le pipeline di dati in Data Factory.
Tutte le operazioni sono operazioni in background e vengono fluidificate in un periodo di 24 ore.
Ecco alcuni punti da considerare per ridurre al minimo il calcolo.
Le operazioni in Power BI sono interattive o in background.
Le operazioni interattive seguenti comportano in genere un utilizzo elevato del calcolo.
Le operazioni in background seguenti comportano in genere un utilizzo elevato del calcolo.
Altre domande? Provare a chiedere alla Community di Fabric.
Eventi
31 mar, 23 - 2 apr, 23
Il più grande evento di apprendimento di Fabric, Power BI e SQL. 31 marzo - 2 aprile. Usare il codice FABINSIDER per salvare $400.
Iscriviti oggi stessoFormazione
Percorso di apprendimento
Use advance techniques in canvas apps to perform custom updates and optimization - Training
Use advance techniques in canvas apps to perform custom updates and optimization
Certificazione
Microsoft Certified: Fabric Data Engineer Associate - Certifications
In qualità di specialista di dati, dovresti avere competenze nei modelli di caricamento dei dati, architetture dei dati e processi di orchestrazione.
Documentazione
Ridimensionare la capacità di Fabric - Microsoft Fabric
Questo articolo illustra come ridimensionare una capacità di Microsoft Fabric in Azure.
Operazioni di Fabric - Microsoft Fabric
Informazioni sulle operazioni di Microsoft Fabric.
Comprendere la fattura di Azure per una capacità di Fabric - Microsoft Fabric
Informazioni su come esplorare la fattura di Azure per una capacità di Fabric.