Larghezza di banda della rete di macchine virtuali

Azure offre un'ampia gamma di dimensioni e tipi di macchine virtuali, ognuna con una diversa combinazione di prestazioni. Tra queste prestazioni c'è la velocità effettiva (o larghezza di banda) della rete, misurata in megabit al secondo (Mbps). Poiché le macchine virtuali sono ospitate su hardware condiviso, la capacità di rete deve essere condivisa equamente tra le macchine virtuali che condividono lo stesso hardware. Alle macchine virtuali di dimensioni maggiori viene allocata una larghezza di banda relativamente maggiore rispetto alle macchine virtuali più piccole.

La larghezza di banda di rete allocata a ogni macchina virtuale è misurata sul traffico in uscita dalla macchina virtuale. Tutto il traffico di rete che esce dalla macchina virtuale viene conteggiato per il limite allocato, indipendentemente dalla destinazione. Se, ad esempio, una macchina virtuale ha un limite di 1.000 Mbps, tale limite si applica sia che il traffico in uscita sia destinato a un'altra macchina virtuale nella stessa rete virtuale sia all'esterno di Azure.

Il traffico in ingresso non viene misurato o limitato direttamente. Tuttavia, esistono altri fattori, ad esempio i limiti di CPU e di archiviazione, che possono influire sulle capacità di una macchina virtuale di elaborare i dati in ingresso.

La rete accelerata è una funzione progettata per migliorare le prestazioni di rete, tra cui la latenza, la velocità effettiva e l'utilizzo della CPU. Mentre la rete accelerata può migliorare la velocità effettiva di una macchina virtuale, è possibile farlo solo fino alla larghezza di banda allocata alla macchina virtuale. Sono disponibili altre informazioni sulle rete accelerata per macchine virtuali Windows o Linux.

Le macchine virtuali di Azure devono avere almeno un'interfaccia collegata, ma possono averne anche molte. La larghezza di banda allocata a una macchina virtuale è la somma di tutto il traffico in uscita in tutte le interfacce di rete associate alla macchina virtuale. In altre parole, la larghezza di banda allocata è per macchina virtuale, indipendentemente dal numero di interfacce di rete collegate alla macchina virtuale. Per informazioni su quante interfacce di rete sono supportate dalle diverse dimensioni di macchina virtuale di Azure, vedere le dimensioni delle VM Windows e Linux di Azure.

Velocità effettiva della rete prevista

La velocità effettiva in uscita prevista e il numero di interfacce di rete supportati da ogni dimensione di VM sono descritti in dettaglio nelle informazioni sulle dimensioni delle VM Windows e Linux di Azure. Selezionare un tipo, ad esempio Utilizzo generico, quindi selezionare una serie di dimensioni nella pagina risultante, ad esempio la serie Dv2. Ciascuna serie dispone di una tabella con specifiche di rete nell'ultima colonna, denominata Schede di interfaccia di rete max/prestazioni rete previste (Mbps).

Il limite di velocità effettiva si applica alla macchina virtuale. La velocità effettiva è influenzata dai fattori seguenti:

  • Numero di interfacce di rete: il limite di larghezza di banda è cumulativo per tutto il traffico in uscita dalla macchina virtuale.
  • Accelerazione di rete: anche se la funzione può essere utile per ottenere il limite pubblicato, non modifica il limite.
  • Destinazione del traffico: tutte le destinazioni contano per il limite in uscita.
  • Protocollo: tutto il traffico in uscita su tutti i protocolli conta per il limite.

Limiti di rete Flow

Oltre alla larghezza di banda, il numero di connessioni di rete presenti in una macchina virtuale in qualsiasi momento può influire sulle prestazioni di rete. Lo stack di rete di Azure mantiene lo stato per ogni direzione di una connessione TCP/UDP nelle strutture di dati denominate "flussi". Una connessione TCP/UDP tipica avrà 2 flussi creati, uno per l'ingresso e un altro per la direzione in uscita.

Il trasferimento dei dati tra endpoint richiede la creazione di diversi flussi oltre a quelli che eseguono il trasferimento dei dati. Alcuni esempi sono i flussi creati per la risoluzione DNS e i flussi creati per i probe di integrità del servizio di bilanciamento del carico. Si noti anche che le appliance virtuali di rete (NVA) come gateway, proxy, firewall, vedranno i flussi creati per le connessioni terminate nell'appliance e originati dall'appliance.

Flow count for TCP conversation through a forwarding appliance

Flow limiti e connessioni attive Consigli

Oggi, lo stack di rete di Azure supporta flussi totali di 1M (500k in ingresso e 500k in uscita) per una macchina virtuale. Le connessioni attive totali che possono essere gestite da una macchina virtuale in diversi scenari sono le seguenti.

  • Le macchine virtuali appartenenti alla rete virtuale possono gestire 500k connessioni attive per tutte le dimensioni della macchina virtuale con flussi attivi di 500k in ogni direzione.
  • Le macchine virtuali con appliance virtuali di rete (NVA) come gateway, proxy, firewall possono gestire 250k connessioni attive con flussi attivi di 500k in ogni direzione a causa dell'inoltro e della creazione di un nuovo flusso aggiuntivo sulla nuova configurazione della connessione all'hop successivo, come illustrato nel diagramma precedente.

Una volta raggiunto questo limite, le connessioni aggiuntive vengono eliminate. Le prestazioni di connessione e di terminazione possono influire anche sulle prestazioni di rete come l'istituzione della connessione e le condivisioni di terminazione della CPU con routine di elaborazione dei pacchetti. È consigliabile eseguire il benchmark dei carichi di lavoro rispetto ai modelli di traffico previsti e aumentare in modo appropriato i carichi di lavoro per soddisfare le esigenze di prestazioni.

Le metriche sono disponibili in Monitoraggio di Azure per tenere traccia del numero di flussi di rete e della frequenza di creazione del flusso nelle istanze vm o VMSS.

Screenshot shows the Metrics page of Azure Monitor with a line chart and totals for inbound and outbound flows.

Passaggi successivi