Freigeben über


Azure NetApp Files–Leistungs benchmarks für Datenspeicher für Azure VMware-Lösung

In diesem Artikel werden Leistungs benchmarks beschrieben, die Azure NetApp Files-Datenspeicher für virtuelle Computer auf Azure VMware Solution (AVS) bereitstellen.

Die getesteten Szenarien sind wie folgt:

  • 1:mehrere virtuelle Computer, die auf einem einzelnen AVS-Host und einem einzelnen Azure NetApp Files-Datenspeicher ausgeführt werden
  • 1:4 Azure NetApp Files-Datenspeicher mit einem einzelnen AVS-Host
  • Skalieren von Azure NetApp Files-Datenspeichern mit mehreren AVS-Hosts

Die folgenden read:write E/A-Verhältnisse wurden für jedes Szenario getestet: 100:0, 75:25, 50:50, 25:75, 0:100

In diesem Artikel dokumentierte Benchmarks wurden mit ausreichendem Volumendurchsatz durchgeführt, um zu verhindern, dass weiche Grenzwerte die Leistung beeinträchtigen. Benchmarks können mit Azure NetApp Files Premium und Ultra Service Levels und in einigen Fällen mit Standard service level erreicht werden. Weitere Informationen zum Volumendurchsatz finden Sie unter Leistungsüberlegungen für Azure NetApp Files.

Lesen Sie den Azure NetApp Files-Datenspeicher für Azure VMware Solution TCO Estimator , um die Größenanpassung und die damit verbundenen Kostenvorteile von Azure NetApp Files-Datenspeichern zu verstehen.

Umgebungsdetails

Die Ergebnisse in diesem Artikel wurden mit der folgenden Umgebungskonfiguration erzielt:

  • Größe des Azure VMware-Lösungshosts: AV36
  • Private Cloudkonnektivität von Azure VMware Solution: UltraPerformance-Gateway mit FastPath
  • Virtuelle Gastcomputer: Ubuntu 21.04, 16 vCPU, 64 GB Arbeitsspeicher
  • Workload-Generator: fio

Latency

Die Datenverkehrslatenz von AVS zu Azure NetApp Files-Datenspeichern variiert von Unter millisekunden (für Umgebungen unter minimaler Auslastung) bis zu 2-3 Millisekunden (für Umgebungen unter mittlerer bis schwerer Last). Die Latenz ist für Umgebungen, die versuchen, über die Durchsatzgrenzen verschiedener Komponenten hinauszuschieben, potenziell höher. Latenz und Durchsatz können je nach verschiedenen Faktoren variieren, einschließlich E/A-Größe, Lese-/Schreibverhältnissen, konkurrierender Netzwerkdatenverkehr usw.

1:mehrere virtuelle Computer, die auf einem einzelnen AVS-Host und einem einzelnen Azure NetApp Files-Datenspeicher ausgeführt werden

In einem einzelnen AVS-Hostszenario erfolgt der AVS to Azure NetApp Files-Datenspeicher-E/A über einen einzelnen Netzwerkfluss. Die folgenden Diagramme vergleichen den Durchsatz und IOPs eines einzelnen virtuellen Computers mit dem aggregierten Durchsatz und IOPs von vier virtuellen Computern. In den nachfolgenden Szenarien erhöht sich die Anzahl der Netzwerkflüsse, da mehr Hosts und Datenspeicher hinzugefügt werden.

Graphs comparing a single virtual machine with four virtual machines over a single network flow.

1:4 Azure NetApp Files-Datenspeicher mit einem einzelnen AVS-Host

Die folgenden Diagramme vergleichen den Durchsatz eines einzelnen virtuellen Computers auf einem einzelnen Azure NetApp Files-Datenspeicher mit dem aggregierten Durchsatz von vier Azure NetApp Files-Datenspeichern. In beiden Szenarien verfügt jeder virtuelle Computer über einen VMDK in jedem Azure NetApp Files-Datenspeicher.

Graphs comparing a single virtual machine on a single datastore with four datastores.

Die folgenden Diagramme vergleichen die IOPs eines einzelnen virtuellen Computers auf einem einzelnen Azure NetApp Files-Datenspeicher mit den aggregierten IOPs von acht Azure NetApp Files-Datenspeichern. In beiden Szenarien verfügt jeder virtuelle Computer über einen VMDK in jedem Azure NetApp Files-Datenspeicher.

Graphs comparing a single virtual machine on a single datastore with eight datastores.

Skalieren von Azure NetApp Files-Datenspeichern mit mehreren AVS-Hosts

Die folgende Abbildung zeigt den aggregierten Durchsatz und IOPs von 16 virtuellen Computern, die über vier AVS-Hosts verteilt sind. Pro AVS-Host gibt es vier virtuelle Computer, die jeweils in einem anderen Azure NetApp Files-Datenspeicher vorhanden sind.

Nahezu identische Ergebnisse wurden mit einem einzelnen virtuellen Computer auf jedem Host mit vier VMDKs pro virtuellen Computer und jedem dieser VMDKs in einem separaten Datenspeicher erzielt.

Graphs showing aggregated throughput and IOPs of 16 virtual machines distributed across four AVS hosts.

Nächste Schritte