Dela via


Prestandamått för Azure NetApp Files-datalager för Azure VMware Solution

I den här artikeln beskrivs prestandamått som Azure NetApp Files-datalager levererar för virtuella datorer på Azure VMware Solution (AVS).

De testade scenarierna är följande:

  • En-till-flera virtuella datorer som körs på en enda AVS-värd och ett enda Azure NetApp Files-datalager
  • En-till-flera Azure NetApp Files-datalager med en enda AVS-värd
  • Skala ut Azure NetApp Files-datalager med flera AVS-värdar

Följande read:write I/O-förhållanden testades för varje scenario: 100:0, 75:25, 50:50, 25:75, 0:100

Prestandamått som beskrivs i den här artikeln utfördes med tillräckligt volymgenomflöde för att förhindra att mjuka gränser påverkar prestanda. Prestandamått kan uppnås med Azure NetApp Files Premium- och Ultra-tjänstnivåer och i vissa fall med standardtjänstnivå. Mer information om volymdataflöde finns i Prestandaöverväganden för Azure NetApp Files.

Se Azure NetApp Files-datalager för Azure VMware Solution TCO Estimator för att förstå storleksfördelarna och de associerade kostnadsfördelarna med Azure NetApp Files-datalager.

Miljöinformation

Resultatet i den här artikeln uppnåddes med hjälp av följande miljökonfiguration:

  • Värdstorlek för Azure VMware Solution: AV36
  • Privat molnanslutning i Azure VMware Solution: UltraPerformance-gateway med FastPath
  • Virtuella gästdatorer: Ubuntu 21.04, 16 vCPU, 64 GB minne
  • Arbetsbelastningsgenerator: fio

Svarstid

Trafikfördröjningen från AVS till Azure NetApp Files-datalager varierar från under millisekunder (för miljöer med minimal belastning) upp till 2–3 millisekunder (för miljöer med medelhög till hög belastning). Svarstiden är potentiellt högre för miljöer som försöker push-överföra över dataflödesgränserna för olika komponenter. Svarstid och dataflöde kan variera beroende på flera faktorer, inklusive I/O-storlek, läs-/skrivförhållanden, konkurrerande nätverkstrafik och så vidare.

En-till-flera virtuella datorer som körs på en enda AVS-värd och ett enda Azure NetApp Files-datalager

I ett enda AVS-värdscenario sker I/O för datalager-I/O för AVS till Azure NetApp Files via ett enda nätverksflöde. I följande diagram jämförs dataflödet och IOPs för en enskild virtuell dator med det aggregerade dataflödet och IOPs för fyra virtuella datorer. I efterföljande scenarier ökar antalet nätverksflöden när fler värdar och datalager läggs till.

Graphs comparing a single virtual machine with four virtual machines over a single network flow.

En-till-flera Azure NetApp Files-datalager med en enda AVS-värd

I följande diagram jämförs dataflödet för en enskild virtuell dator på ett enda Azure NetApp Files-datalager med det aggregerade dataflödet för fyra Azure NetApp Files-datalager. I båda scenarierna har varje virtuell dator en VMDK på varje Azure NetApp Files-datalager.

Graphs comparing a single virtual machine on a single datastore with four datastores.

I följande diagram jämförs IOPs för en enskild virtuell dator på ett enda Azure NetApp Files-datalager med de aggregerade IOP:erna för åtta Azure NetApp Files-datalager. I båda scenarierna har varje virtuell dator en VMDK på varje Azure NetApp Files-datalager.

Graphs comparing a single virtual machine on a single datastore with eight datastores.

Skala ut Azure NetApp Files-datalager med flera AVS-värdar

Följande diagram visar det aggregerade dataflödet och IOPs för 16 virtuella datorer som distribueras över fyra AVS-värdar. Det finns fyra virtuella datorer per AVS-värd, var och en i ett annat Azure NetApp Files-datalager.

Nästan identiska resultat uppnåddes med en enda virtuell dator på varje värd med fyra VMDK:er per virtuell dator och var och en av dessa VMDK:er i ett separat datalager.

Graphs showing aggregated throughput and IOPs of 16 virtual machines distributed across four AVS hosts.

Nästa steg