Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Azure Istanza gestita per Apache Cassandra include ora una funzionalità di cache write-through (anteprima) tramite l'uso di macchine virtuali serie L. Questa implementazione consente di ridurre al minimo la latenza della coda e migliorare le prestazioni di lettura, in particolare per i carichi di lavoro a elevato utilizzo di lettura. Questi tipi di vm specifici sono dotati di dischi collegati localmente per aumentare le operazioni di input/output al secondo (IOPS) per le operazioni di lettura e per ridurre la latenza della coda.
Importante
La cache write-through è disponibile in anteprima pubblica. Questa funzionalità viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.
Vantaggi dell'uso della cache write-through
Riduzione della latenza della coda: questa implementazione è incentrata sulla riduzione della latenza della coda per migliorare l'esperienza utente, in particolare nelle applicazioni sensibili al tempo, riducendo i ritardi nelle operazioni di lettura.
Ottimizzazione dei carichi di lavoro a elevato utilizzo di lettura: questa implementazione è destinata agli scenari con carichi di lavoro di lettura elevati. La progettazione è destinata in modo specifico e migliora le prestazioni di lettura. Riconosce le richieste delle applicazioni in cui le operazioni di lettura frequenti sono la norma.
Delega dei dischi localizzati: i tipi di macchina virtuale designati presentano dischi collegati localmente, un elemento chiave che consente all'architettura di aumentare le operazioni di I/O al secondo per le operazioni di lettura. Questa scelta di progettazione mira a ottimizzare l'efficienza e la velocità di risposta del recupero dei dati.
Aumento delle operazioni di I/O al secondo: i dischi NVMe (Memory Express) collegati in locale aumentano le operazioni di I/O al secondo per le letture e riducono la latenza della coda. Questa implementazione cerca di fornire una soluzione completa che risolve i colli di bottiglia delle prestazioni per i carichi di lavoro a elevato utilizzo di lettura.
Come accedere alle macchine virtuali serie L
Per i cluster Azure Istanza gestita esistenti per Apache Cassandra, è possibile accedere alle macchine virtuali serie L aggiungendo un nuovo data center:
Nel riquadro Data Center selezionare il pulsante Aggiungi.
Nella casella Dimensioni SKU selezionare il tipo di macchina virtuale serie L preferito.
Nota
È possibile accedere alle nuove funzionalità della replica automatica quando si aggiunge un nuovo data center. Altre informazioni.
Dopo aver creato il data center, verificare che venga visualizzato nell'elenco dei data center.
Scenario a elevato utilizzo di lettura con cache write-through
L'analisi seguente illustra un test di esempio che confronta le operazioni di I/O al secondo e la latenza tra dischi gestiti Premium e NVMe per le letture. Tramite un esame dettagliato delle metriche delle prestazioni in questo confronto, è possibile ottenere informazioni utili sull'efficacia della cache write-through per i dischi NVMe collegati localmente.
Operazioni di I/O al secondo per dischi gestiti Premium e dischi NVMe locali
L'esempio seguente illustra le operazioni di I/O al secondo di una matrice RAID 0 con quattro dischi gestiti Premium (configurazione attuale).
L'esempio seguente illustra le operazioni di I/O al secondo di una matrice RAID 1 con dischi NVMe locali e dischi gestiti Premium.
L'esempio che usa dischi NVMe collegati in locale offre prestazioni di lettura migliori pari a 248.000 operazioni di I/O al secondo.
Latenza per dischi gestiti Premium e dischi NVMe locali
L'esempio seguente mostra la velocità effettiva di una matrice RAID 0 con quattro dischi gestiti Premium (configurazione attuale).
L'esempio seguente illustra la velocità effettiva di una matrice RAID 1 con dischi NVMe locali e dischi gestiti Premium.
L'esempio che usa dischi NVMe collegati in locale ha prestazioni di capacità di velocità effettiva superiori di 14,9 Gbps.
Nota
I dischi locali sono temporanei e potrebbero essere persi. Tuttavia, i dati rimangono intatti nei dischi gestiti Premium collegati alla rete, perché i dati vengono rispecchiati usando la tecnologia RAID. È possibile monitorare l'integrità della matrice RAID tramite le metriche di Monitoraggio di Azure di RaidArrayDegradedMetric e RaidArrayRebuildMetric.






