如何将 AI 集成到Windows客户端应用中?
可以通过两个主要方法(本地模型或基于云的模型)将 AI 集成到Windows应用程序。 对于本地模型选项,你可以利用预先存在的模型或使用 TensorFlow 或 PyTorch 等平台训练自己的模型,然后通过 OnnxRuntime 将其合并到应用程序中。 Microsoft foundry on Windows 为各种功能(包括 OCR 或利用 Phi 硅模型)提供 API。 另一方面,将您的模型托管在云端并通过REST API访问它,可以通过将资源密集型任务委托给云来使您的应用程序保持简洁。 有关详细信息,请参阅 在 Windows 应用中使用机器学习模型。
是否需要最新版本的 Windows 11 和具有 NPU 的AI+ PC才能使用 AI 功能?
有多种方法可以运行 AI 工作负载,可以在 Windows 设备上本地安装并运行模型,或者运行基于云的模型(请参阅Get started with AI on Windows),然而,Windows AI API 支持的 AI 功能当前需要配备 NPU 的AI+ PC。
哪些编程语言最适合在 Windows 客户端应用中开发 AI?
您可以使用任何您喜欢的编程语言。 例如,C# 通常用于创建Windows客户端应用。 如果您需要对低级细节有更多控制,C++ 是一个很好的选择。 或者,可以考虑使用 Python。 还可以使用 适用于 Linux 的 Windows 子系统 (WSL) 在 Windows 上运行基于 Linux 的 AI 工具。
Windows客户端应用的最佳 AI 框架是什么?
建议使用 OnnxRuntime。
如何在Windows客户端应用中使用 AI 时处理数据隐私和安全性?
在开发人工智能驱动的应用程序时,尊重用户数据的隐私和安全性是至关重要的。 您应该遵循数据处理的最佳实践,例如加密敏感数据、使用安全连接,以及在收集数据之前获得用户的同意。 您还应该对如何使用数据保持透明,并让用户掌控他们的数据。 请确保阅读 在 Windows 上开发负责任的生成式 AI 应用程序和功能。
在Windows客户端应用中运行 AI 的系统要求是什么?
使用 AI 的Windows应用的系统要求取决于 AI 模型的复杂性和使用的硬件加速。 对于简单模型,现代 CPU 可能足够,但对于更复杂的模型,可能需要 GPU 或 NPU。 你还应该考虑应用程序的内存和存储需求,以及基于云的人工智能服务所需的网络带宽。
如何在Windows客户端应用中优化 AI 性能?
若要优化Windows应用中的 AI 性能,应考虑使用硬件加速(如 GPU 或 NPU)来加速模型推理。 Windows Copilot+ 笔记本电脑针对 AI 工作负载进行优化,可为 AI 任务提供显著的性能提升。 另请参阅 Foundry Toolkit for Visual Studio Code 概述。
是否可以在Windows客户端应用中使用预先训练的 AI 模型?
可以,可以在Windows应用中使用预先训练的 AI 模型。 你可以从互联网下载预训练的模型,或使用基于云的 AI 服务来访问预训练的模型。 你可以使用像 OnnxRuntime 这样的框架将这些模型集成到你的应用程序中。
什么是 DirectML?
DirectML 是用于机器学习的底层 API,可针对范围广泛的受支持硬件和驱动程序(包括 AMD、Intel、NVIDIA 和 Qualcomm 等供应商所有支持 DirectX 12 的 GPU),为常见的机器学习任务提供 GPU 加速。
如何了解我的设备具有哪种类型的 CPU、GPU 或 NPU?
若要检查Windows设备上的 CPU、GPU 或 NPU 的类型及其性能,请打开任务管理器(Ctrl + Shift + Esc),然后选择性能选项卡,并查看计算机的 CPU、内存、Wi-Fi、GPU 和/或 NPU,以及有关其速度的信息, 利用率和其他数据。
什么是 Windows ML?
Windows ML(机器学习)使应用能够使用 ONNX Runtime(ORT)在系统范围内的共享副本,并支持动态下载供应商专用的 执行提供程序(EP),从而使模型推理能够在 Windows 生态系统中的各种 CPU、GPU 和 NPU 上得到优化,而无需应用自身携带庞大的运行时或 EP。