Kom igång med Windows ML

Det här avsnittet beskriver den minimala vägen till att köra en ONNX-modell med Windows ML på CPU och pekar sedan på maskinvaruacceleration när du är redo.

Mer information om Windows ML finns i Vad är Windows ML.

Förutsättningar

  • Version av Windows som Windows App SDK stöder
  • Arkitektur: x64 eller ARM64
  • Språkspecifika förutsättningar som visas nedan
  • .NET 8 eller senare för att använda alla Windows ML-API:er
    • Med .NET 6 kan du installera körningsproviders med hjälp av API:erna Microsoft.Windows.AI.MachineLearning, men du kan inte använda Microsoft.ML.OnnxRuntime API:erna.
  • Rikta in sig på en Windows 10-specifik TFM som net8.0-windows10.0.19041.0 eller senare

Steg 1: Hitta en modell

Innan du skriver någon kod behöver du en ONNX-modell. Mer information om hur du hämtar ONNX-modeller finns i Hitta eller träna modeller .

Steg 2: Installera Windows ML

Se Installera och distribuera Windows ML för fullständiga instruktioner för alla språk och distributionslägen som stöds (ramverksberoende och fristående).

Steg 3: Lägg till namnområden/rubriker

När du har installerat Windows ML i projektet kan du läsa Använda ONNX-API:er för vägledning om vilka namnområden/rubriker som ska användas.

Steg 4: Kör en ONNX-modell

Med Windows ML installerat kan du köra ONNX-modeller på processorn utan ytterligare installation. Mer information finns i Köra ONNX-modeller .

I det här läget har din app en fungerande slutsatsdragningssökväg för CPU.

Steg 5: Om du vill kan du påskynda NPU eller GPU

Vill du ha snabbare slutsatsdragning för NPU, GPU eller till och med CPU? Se Accelerera AI-modeller för att lägga till utförandeleverantörer som är optimerade för din målmaskinvara.

Se även