Как интегрировать ИИ в клиентское приложение Windows?
Интеграция ИИ в приложение Windows может быть достигнута с помощью двух основных методов: локальной модели или облачной модели. Для локальной модели у вас есть возможность использовать уже существующую модель или обучить собственную модель с помощью платформ, таких как TensorFlow или PyTorch, а затем интегрировать её в приложение через OnnxRuntime. Microsoft Foundry на Windows предлагает API для различных функций, включая OCR или использование модели Phi Silica. С другой стороны, размещение модели в облаке и доступ к ней через REST API позволяет приложению оставаться упрощенным путем делегирования ресурсоемких задач в облако. Дополнительные сведения см. в разделе Использование моделей Машинное обучение в приложении Windows.
Нужна ли последняя версия Windows 11 и Copilot+ PC с NPU для использования функций ИИ?
Существует множество способов выполнения рабочих нагрузок ИИ, как путем установки и запуска моделей локально на устройстве Windows, так и при помощи облачных моделей (см. Начало работы с ИИ в Windows), однако функции ИИ, поддерживаемые Windows AI APIs, в настоящее время требуют ПК Copilot+ с NPU.
Какие языки программирования лучше всего подходят для разработки ИИ в клиентских приложениях Windows?
Вы можете использовать любой язык программирования, который вы предпочитаете. Например, C# широко используется для создания клиентских приложений Windows. Если вам требуется больше контроля над низкоуровневой информацией, C++ является отличным вариантом. Кроме того, можно использовать Python. Вы также можете использовать подсистема Windows для Linux (WSL) для запуска средств ИИ на основе Linux на Windows.
Каковы лучшие платформы ИИ для клиентских приложений Windows?
Рекомендуется использовать OnnxRuntime.
Как обрабатывать конфиденциальность и безопасность данных при использовании ИИ в клиентских приложениях Windows?
При разработке приложений, на основе ИИ, важно соблюдать конфиденциальность и безопасность данных пользователей. Перед сбором данных следует следовать рекомендациям по обработке данных, таким как шифрование конфиденциальных данных, использование безопасных подключений и получение согласия пользователя. Вы также должны быть прозрачными о том, как вы используете данные и предоставлять пользователям контроль над их данными. Обязательно прочитайте Разработка ответственных приложений и функций генеративного ИИ в Windows.
Каковы требования к системе для запуска ИИ в клиентских приложениях Windows?
Требования к системе для приложений Windows, использующих ИИ, зависят от сложности модели ИИ и используемого аппаратного ускорения. Для простых моделей может быть достаточно современного ЦП, но для более сложных моделей может потребоваться GPU или NPU. Также следует учитывать требования к памяти и хранилищу приложения, а также пропускную способность сети, необходимую для облачных служб ИИ.
Как оптимизировать производительность ИИ в клиентских приложениях Windows?
Чтобы оптимизировать производительность искусственного интеллекта в приложениях Windows, следует рассмотреть возможность использования аппаратного ускорения, например GPU или NPU, чтобы ускорить выводы модели. Windows Copilot+ ноутбуки оптимизированы для рабочих нагрузок ИИ и могут повысить производительность задач ИИ. См. также обзор Foundry Toolkit для Visual Studio Code.
Можно ли использовать предварительно обученные модели ИИ в клиентском приложении Windows?
Да, вы можете использовать предварительно обученные модели ИИ в приложении Windows. Вы можете скачать предварительно обученные модели из Интернета или использовать облачную службу искусственного интеллекта для доступа к предварительно обученным моделям. Затем эти модели можно интегрировать в приложение с помощью платформы, такой как OnnxRuntime.
Что такое DirectML?
DirectML — это низкоуровневый API для машинного обучения, который обеспечивает ускорение GPU для распространенных задач машинного обучения в широком спектре поддерживаемых аппаратных и драйверов, включая все gpu с поддержкой DirectX 12 от поставщиков, таких как AMD, Intel, NVIDIA и Qualcomm.
Как узнать, какой тип ЦП, GPU или NPU имеет мое устройство?
Чтобы проверить тип ЦП, GPU или NPU на устройстве Windows и как он выполняется, откройте диспетчер задач (CTRL+ SHIFT+ ESC), а затем выберите вкладку Performance, и вы сможете просмотреть ЦП, память, Память, Wi-Fi, GPU и (или) NPU, а также сведения о скорости работы, скорость использования и другие данные.
Что такое Windows ML?
Windows ML (машинное обучение) позволяет вашему приложению использовать общую системную копию ONNX Runtime (ORT), а также добавляет поддержку динамической загрузки специфичных для поставщика провайдеров выполнения (EP), чтобы выполнение вывода модели можно было оптимизировать для широкого спектра ЦП, ГП и NPU в экосистеме Windows без необходимости включать в само приложение тяжеловесные среды выполнения или EP.