Condividi tramite


Cache write-through in Azure Istanza gestita per Apache Cassandra

Azure Istanza gestita per Apache Cassandra include ora una funzionalità di cache write-through (anteprima) tramite l'uso di macchine virtuali serie L. Questa implementazione consente di ridurre al minimo la latenza della coda e migliorare le prestazioni di lettura, in particolare per i carichi di lavoro a elevato utilizzo di lettura. Questi tipi di vm specifici sono dotati di dischi collegati localmente per aumentare le operazioni di input/output al secondo (IOPS) per le operazioni di lettura e per ridurre la latenza della coda.

Importante

La cache write-through è disponibile in anteprima pubblica. Questa funzionalità viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.

Vantaggi dell'uso della cache write-through

  • Riduzione della latenza della coda: questa implementazione è incentrata sulla riduzione della latenza della coda per migliorare l'esperienza utente, in particolare nelle applicazioni sensibili al tempo, riducendo i ritardi nelle operazioni di lettura.

  • Ottimizzazione dei carichi di lavoro a elevato utilizzo di lettura: questa implementazione è destinata agli scenari con carichi di lavoro di lettura elevati. La progettazione è destinata in modo specifico e migliora le prestazioni di lettura. Riconosce le richieste delle applicazioni in cui le operazioni di lettura frequenti sono la norma.

  • Delega dei dischi localizzati: i tipi di macchina virtuale designati presentano dischi collegati localmente, un elemento chiave che consente all'architettura di aumentare le operazioni di I/O al secondo per le operazioni di lettura. Questa scelta di progettazione mira a ottimizzare l'efficienza e la velocità di risposta del recupero dei dati.

  • Aumento delle operazioni di I/O al secondo: i dischi NVMe (Memory Express) collegati in locale aumentano le operazioni di I/O al secondo per le letture e riducono la latenza della coda. Questa implementazione cerca di fornire una soluzione completa che risolve i colli di bottiglia delle prestazioni per i carichi di lavoro a elevato utilizzo di lettura.

Come accedere alle macchine virtuali serie L

Per i cluster Azure Istanza gestita esistenti per Apache Cassandra, è possibile accedere alle macchine virtuali serie L aggiungendo un nuovo data center:

  1. Nel riquadro Data Center selezionare il pulsante Aggiungi.

    Screenshot delle selezioni per l'aggiunta di un nuovo data center.

  2. Nella casella Dimensioni SKU selezionare il tipo di macchina virtuale serie L preferito.

    Screenshot dei requisiti per un nuovo data center.

    Nota

    È possibile accedere alle nuove funzionalità della replica automatica quando si aggiunge un nuovo data center. Altre informazioni.

  3. Dopo aver creato il data center, verificare che venga visualizzato nell'elenco dei data center.

    Screenshot di un data center appena creato.

Scenario a elevato utilizzo di lettura con cache write-through

L'analisi seguente illustra un test di esempio che confronta le operazioni di I/O al secondo e la latenza tra dischi gestiti Premium e NVMe per le letture. Tramite un esame dettagliato delle metriche delle prestazioni in questo confronto, è possibile ottenere informazioni utili sull'efficacia della cache write-through per i dischi NVMe collegati localmente.

Operazioni di I/O al secondo per dischi gestiti Premium e dischi NVMe locali

L'esempio seguente illustra le operazioni di I/O al secondo di una matrice RAID 0 con quattro dischi gestiti Premium (configurazione attuale).

Screenshot di un test di IOPS che usa dischi Premium.

L'esempio seguente illustra le operazioni di I/O al secondo di una matrice RAID 1 con dischi NVMe locali e dischi gestiti Premium.

Screenshot di un test di IOPS che usa dischi NVMe locali.

L'esempio che usa dischi NVMe collegati in locale offre prestazioni di lettura migliori pari a 248.000 operazioni di I/O al secondo.

Latenza per dischi gestiti Premium e dischi NVMe locali

L'esempio seguente mostra la velocità effettiva di una matrice RAID 0 con quattro dischi gestiti Premium (configurazione attuale).

Screenshot di un test di latenza che usa dischi Premium.

L'esempio seguente illustra la velocità effettiva di una matrice RAID 1 con dischi NVMe locali e dischi gestiti Premium.

Screenshot di un test della velocità effettiva che usa dischi NVMe.

L'esempio che usa dischi NVMe collegati in locale ha prestazioni di capacità di velocità effettiva superiori di 14,9 Gbps.

Nota

I dischi locali sono temporanei e potrebbero essere persi. Tuttavia, i dati rimangono intatti nei dischi gestiti Premium collegati alla rete, perché i dati vengono rispecchiati usando la tecnologia RAID. È possibile monitorare l'integrità della matrice RAID tramite le metriche di Monitoraggio di Azure di RaidArrayDegradedMetric e RaidArrayRebuildMetric.

Passaggi successivi