Тесты производительности хранилища данных Azure NetApp Files для Решение Azure VMware

В этой статье описываются показатели производительности хранилища данных Azure NetApp Files для виртуальных машин на Решение Azure VMware (AVS).

Тестируемые сценарии приведены следующим образом:

  • Один к нескольким виртуальным машинам, работающим на одном узле AVS и одном хранилище данных Azure NetApp Files
  • Хранилища данных Azure NetApp Files с одним узлом AVS
  • Горизонтальное масштабирование хранилищ данных Azure NetApp Files с несколькими узлами AVS

Для каждого сценария были проверены следующие read:write коэффициенты ввода-вывода: 100:0, 75:25, 50:50, 25:75, 0:100

Тесты, описанные в этой статье, были выполнены с достаточной пропускной способностью тома, чтобы предотвратить влияние мягких ограничений на производительность. Тесты производительности можно достичь с помощью уровней обслуживания Azure NetApp Files Premium и ценовой категории "Ультра", а в некоторых случаях — с уровнем обслуживания уровня "Стандартный". Дополнительные сведения о пропускной способности тома см. в рекомендациях по производительности для Azure NetApp Files.

Ознакомьтесь с хранилищем данных Azure NetApp Files для Решение Azure VMware Оценщик TCO, чтобы понять размер и связанные с ними преимущества хранилища данных Azure NetApp Files.

Сведения о среде

Результаты этой статьи были достигнуты с помощью следующей конфигурации среды:

  • размер узла Решение Azure VMware: AV36
  • Решение Azure VMware подключение к частному облаку: шлюз UltraPerformance с помощью FastPath
  • Гостевые виртуальные машины: Ubuntu 21.04, 16 виртуальных ЦП, 64 ГБ памяти
  • Генератор рабочей нагрузки: fio

Задержка

Задержка трафика от AVS к хранилищам данных Azure NetApp Files зависит от вложенных миллисекунда (для сред под минимальной нагрузкой) до 2–3 миллисекунда (для сред под средней и тяжелой нагрузкой). Задержка потенциально выше для сред, пытающихся выйти за пределы пропускной способности различных компонентов. Задержка и пропускная способность могут отличаться в зависимости от нескольких факторов, включая размер ввода-вывода, коэффициенты чтения и записи, конкурирующий сетевой трафик и т. д.

Один к нескольким виртуальным машинам, работающим на одном узле AVS и одном хранилище данных Azure NetApp Files

В одном сценарии узла AVS avS в хранилище данных Azure NetApp Files происходит через один сетевой поток. Ниже приведены графики сравнения пропускной способности и операций ввода-вывода в секунду для одной виртуальной машины с агрегированной пропускной способностью и операций ввода-вывода в секунду четырех виртуальных машин. В последующих сценариях число сетевых потоков увеличивается по мере добавления дополнительных узлов и хранилищ данных.

Graphs comparing a single virtual machine with four virtual machines over a single network flow.

Хранилища данных Azure NetApp Files с одним узлом AVS

Следующие графы сравнивают пропускную способность одной виртуальной машины в одном хранилище данных Azure NetApp Files с агрегированной пропускной способностью четырех хранилищ данных Azure NetApp Files. В обоих сценариях каждая виртуальная машина имеет VMDK в каждом хранилище данных Azure NetApp Files.

Graphs comparing a single virtual machine on a single datastore with four datastores.

В следующих графах сравниваются операции ввода-вывода в секунду для одной виртуальной машины в одном хранилище данных Azure NetApp Files с объединенными ввода-выводами в секунду из восьми хранилищ данных Azure NetApp Files. В обоих сценариях каждая виртуальная машина имеет VMDK в каждом хранилище данных Azure NetApp Files.

Graphs comparing a single virtual machine on a single datastore with eight datastores.

Горизонтальное масштабирование хранилищ данных Azure NetApp Files с несколькими узлами AVS

На следующем графике показана агрегированная пропускная способность и количество операций ввода-вывода в секунду 16 виртуальных машин, распределенных между четырьмя узлами AVS. Существует четыре виртуальных машины на узел AVS, каждая из которых размещена в другом хранилище данных Azure NetApp Files.

Практически идентичные результаты были достигнуты с помощью одной виртуальной машины на каждом узле с четырьмя виртуальными дисками на каждую виртуальную машину и каждый из этих виртуальных дисков в отдельном хранилище данных.

Graphs showing aggregated throughput and IOPs of 16 virtual machines distributed across four AVS hosts.

Следующие шаги