Поделиться через


Начало работы с DirectML

Связывание DirectML с средой выполнения ONNX часто является самым простым способом для многих разработчиков, чтобы обеспечить масштабируемое использование искусственного интеллекта с аппаратным ускорением. Эти три шага являются общим руководством по использованию этого мощного combo.

1. Преобразование

Формат ONNX позволяет использовать среду выполнения ONNX с DirectML, которая обеспечивает кросс-аппаратные возможности.

Чтобы преобразовать модель в формат ONNX, можно использовать ONNXMLTools или Olive.

2. Оптимизация

После создания модели onnx используйте Оливку с помощью DirectML для оптимизации модели. Вы увидите драматические улучшения производительности, которые можно развернуть в экосистеме оборудования Windows.

3. Интеграция

Когда модель готова, пришло время перенести аппаратное ускорение вывода в приложение с помощью onNX Runtime и DirectML. Для моделей создания ИИ рекомендуется использовать API создания среды выполнения ONNX()

Мы создали некоторые примеры, чтобы показать, как можно использовать DirectML и среду выполнения ONNX:

DirectML и PyTorch

Серверная часть DirectML для Pytorch обеспечивает высокопроизводительный низкоуровневый доступ к оборудованию GPU, предоставляя знакомый API Pytorch для разработчиков. Дополнительные сведения об использовании PyTorch с DirectML см. здесь

DirectML для веб-приложений (предварительная версия)

API веб-нейронной сети (WebNN) — это новый веб-стандарт, позволяющий веб-приложениям и платформам ускорить глубокие нейронные сети с аппаратным оборудованием на устройстве, такими как GPU, ЦП или специально созданные акселераторы искусственного интеллекта, такие как NPUs. API WebNN использует API DirectML в Windows для доступа к собственным возможностям оборудования и оптимизации выполнения моделей нейронной сети. Дополнительные сведения о WebNN см. здесь