這個主題會帶你通過在 CPU 上使用 Windows ML 運行 ONNX 模型的簡單步驟,然後在你準備好時,引導你進行硬體加速。
想了解更多關於 Windows ML 的資訊,請參閱 「什麼是 Windows ML」。
先決條件
- Windows App SDK 支援的 Windows 版本
- 架構:x64 或 ARM64
- 語言特定的先決條件如下所示
- .NET 8 或更高版本才能使用所有 Windows 機器學習 API
- 在 .NET 6 中,你可以用
Microsoft.Windows.AI.MachineLearningAPI 安裝執行提供者,但不能使用這些Microsoft.ML.OnnxRuntimeAPI。
- 在 .NET 6 中,你可以用
- 以 Windows 10 特定 TFM 為目標,類似
net8.0-windows10.0.19041.0或更新版本
步驟一:尋找一位模特兒
在寫任何程式碼之前,你需要一個 ONNX 模型。 請參閱 「尋找或訓練模型 」以獲得 ONNX 模型的指引。
步驟二:安裝 Windows ML
請參閱 安裝與部署 Windows ML 以了解涵蓋所有支援語言與部署模式(框架依賴與自包含)的完整說明。
步驟 3:新增命名空間/標頭
在你的專案中安裝 Windows ML 後,請參考「 使用 ONNX APIS 」,了解該使用哪些命名空間/標頭的指引。
步驟四:運行 ONNX 模型
安裝 Windows ML 後,你可以在 CPU 上運行 ONNX 模型,無需額外設定。 請參閱 「運行 ONNX 模型 」以獲得指引。
此時你的應用程式在 CPU 上已有可運作的推理路徑。
步驟五:可選擇在 NPU 或 GPU 上加速
想要在 NPU、GPU 甚至 CPU 上獲得更快的推論? 請參閱 加速 AI 模型 ,為目標硬體新增硬體調校的執行提供者。
另請參閱
- 加速 AI 模型 - 新增 NPU、GPU 或 CPU 執行提供者
- 執行 ONNX 模型 - 關於推論 ONNX 模型的資訊
- 安裝與部署 Windows ML - 使用 Windows ML 部署應用程式的選項
- 教學課程 - 使用 Windows ML 搭配 ResNet-50 模型的完整端對端教學課程
- 程式碼範例 - 使用 Windows ML 的程式碼範例