開始使用 Windows ML

這個主題會帶你通過在 CPU 上使用 Windows ML 運行 ONNX 模型的簡單步驟,然後在你準備好時,引導你進行硬體加速。

想了解更多關於 Windows ML 的資訊,請參閱 「什麼是 Windows ML」。

先決條件

  • .NET 8 或更高版本才能使用所有 Windows 機器學習 API
    • 在 .NET 6 中,你可以用 Microsoft.Windows.AI.MachineLearning API 安裝執行提供者,但不能使用這些 Microsoft.ML.OnnxRuntime API。
  • 以 Windows 10 特定 TFM 為目標,類似 net8.0-windows10.0.19041.0 或更新版本

步驟一:尋找一位模特兒

在寫任何程式碼之前,你需要一個 ONNX 模型。 請參閱 「尋找或訓練模型 」以獲得 ONNX 模型的指引。

步驟二:安裝 Windows ML

請參閱 安裝與部署 Windows ML 以了解涵蓋所有支援語言與部署模式(框架依賴與自包含)的完整說明。

步驟 3:新增命名空間/標頭

在你的專案中安裝 Windows ML 後,請參考「 使用 ONNX APIS 」,了解該使用哪些命名空間/標頭的指引。

步驟四:運行 ONNX 模型

安裝 Windows ML 後,你可以在 CPU 上運行 ONNX 模型,無需額外設定。 請參閱 「運行 ONNX 模型 」以獲得指引。

此時你的應用程式在 CPU 上已有可運作的推理路徑。

步驟五:可選擇在 NPU 或 GPU 上加速

想要在 NPU、GPU 甚至 CPU 上獲得更快的推論? 請參閱 加速 AI 模型 ,為目標硬體新增硬體調校的執行提供者。

另請參閱