Обновленная серия NDv2

Применимо к: ✔️ Виртуальные машины Linux ✔️ Виртуальные машины Windows ✔️ Универсальные масштабируемые наборы

Виртуальные машины серии NDv2 представляют собой новое пополнение семейства графических процессоров для наиболее требовательных задач ИИ с поддержкой ускорения за счет GPU, машинного обучения, моделирования и рабочих нагрузок HPC.

NDv2 работает на основе 8 процессоров GPU NVIDIA Tesla V100, подключенных по NVLINK, каждый из которых оснащен 32 ГБ памяти GPU. У каждой виртуальной машины NDv2 есть также 40 процессоров Intel Xeon Platinum 8168 (Skylake) без технологии Hyper-Threading и 672 ГиБ системной памяти.

Экземпляры NDv2 обеспечивают превосходную производительность для рабочих нагрузок HPC и ИИ, которые используют ядра вычислений, оптимизированные для GPU на основе CUDA, а также для многих средств ИИ, машинного обучения и аналитики со стандартной поддержкой ускорения GPU, например TensorFlow, Pytorch, Caffe, RAPIDS и других платформ.

Важно отметить, что NDv2 рассчитаны на ресурсоемкие рабочие нагрузки с возможностью как вертикального увеличения масштаба (за счет использования 8 GPU для каждой виртуальной машины), так и горизонтального увеличения масштаба (работа нескольких виртуальных машин вместе). Серия NDv2 теперь поддерживает 100-гигабитную межсерверную сеть InfiniBand EDR, аналогичную той, что доступна на виртуальных машинах серии HB для высокопроизводительных вычислений. Это обеспечивает эффективную кластеризацию для сценариев параллельной обработки, включая распределенное обучение для ИИ и машинного обучения. Эта межсерверная сеть поддерживает все основные протоколы InfiniBand, включая те, что используются библиотеками NCCL2 NVIDIA. Это позволяет эффективно выполнять кластеризацию процессоров GPU.

Важно!

При включении InfiniBand на виртуальной машине ND40rs_v2 используйте драйвер Mellanox OFED 4.7–1.0.0.1.

Из-за увеличения памяти GPU для новой виртуальной машины ND40rs_v2 требуется использование виртуальных машин 2-го поколения и соответствующих образов из Marketplace.

Примечание. ND40s_v2 с 16 ГБ памяти для каждого GPU больше не доступна для ознакомления и заменена обновленным вариантом ND40rs_v2.


Хранилище класса Premium: поддерживается
Кэширование в хранилище класса Premium: поддерживается
Диски (цен. категория "Ультра"): поддерживаются (дополнительные сведения о доступности, использовании и производительности)
Динамическая миграция: не поддерживается
Обновления с сохранением памяти: не поддерживается
Поддержка создания виртуальных машин: поколение 2
Ускорение сети: поддерживается
Временные диски ОС: поддерживаются
InfiniBand: поддерживается
Nvidia NVLink Interconnect: поддерживается
Вложенная виртуализация: не поддерживается

Размер vCPU Память: ГиБ Временное хранилище (SSD): ГиБ Графический процессор Память GPU: ГиБ Максимальное число дисков данных Максимальная пропускная способность дисков без кэширования: операций ввода-вывода в секунду / МБит/с Максимальная пропускная способность сети Максимальное число сетевых адаптеров
Standard_ND40rs_v2 40 672 2948 8 V100 32 ГБ (NVLink) 32 32 80000 / 800 24000 Мбит/с 8

Поддерживаемые операционные системы и драйверы

Чтобы воспользоваться преимуществами GPU виртуальных машин Azure серии N, необходимо установить графические драйверы GPU NVIDIA.

Расширение драйвера GPU NVIDIA устанавливает необходимые драйверы CUDA или GRID NVIDIA на виртуальную машину серии N. Для установки расширения и управления им можно использовать портал Azure или такие инструменты, как Azure PowerShell и шаблоны Azure Resource Manager. Общие сведения о расширениях виртуальных машин см. в статье Расширения и компоненты виртуальных машин Azure.

Если вы решите установить драйверы GPU NVIDIA вручную, см. статью Установка драйверов GPU NVIDIA на виртуальные машины серии N под управлением Linux.

Определение размера

  • Емкость хранилища отображается в единицах ГиБ (1 ГиБ = 1024^3 байтов). При сравнении емкости дисков в ГБ (1000^3 байтов) с емкостью дисков в ГиБ (1024^3 байтов) помните, что значения емкости в ГиБ могут казаться меньше, чем в ГБ. Например, 1023 ГиБ = 1098,4 ГБ.

  • Пропускная способность дисков измеряется в операциях ввода-вывода в секунду (IOPS) и МБит/с, где 1 МБит/с = 10^6 байтов в секунду.

  • Диски данных могут работать в режиме кэширования и в режиме без кэширования. Чтобы использовать кэширование диска данных, для режима кэширования узла следует задать значение ReadOnly или ReadWrite. Чтобы не использовать кэширование диска данных, для режима кэширования узла следует задать значение None.

  • Сведения о том, как получить оптимальную производительность хранилища для виртуальных машин, см. в статье Производительность диска и виртуальной машины.

  • Ожидаемая пропускная способность сети — это максимальная совокупная пропускная способность, выделенная на каждый тип виртуальной машины по всем сетевым адаптерам для всех назначений. Чтобы получить дополнительную информацию, см. Пропускная способность сети для виртуальных машин.

    Верхние пределы не гарантированы. Пределы предлагают руководство по выбору типа виртуальной машины, подходящего для предполагаемого приложения. Фактическая производительность сети зависит от нескольких факторов, в том числе загрузки сети и приложения, а также параметров сети. Сведения об оптимизации пропускной способности см. в статье Оптимизация пропускной способности сети для виртуальных машин Azure. Чтобы обеспечить ожидаемую производительность сети на виртуальных машинах Linux или Windows, возможно, потребуется выбрать определенную версию виртуальной машины или оптимизировать ее. Чтобы получить дополнительную информацию, см. Проверка пропускной способности (NTTTCP).

Другие размеры и сведения

Калькулятор цен: калькулятор цен.

Дополнительные сведения о типах дисков см. в статье Какие типы дисков доступны в Azure.

Дальнейшие действия

Узнайте больше о том, как с помощью единиц вычислений Azure (ACU) сравнить производительность вычислений для различных номеров SKU Azure.