Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Det här avsnittet beskriver den minimala vägen till att köra en ONNX-modell med Windows ML på CPU och pekar sedan på maskinvaruacceleration när du är redo.
Mer information om Windows ML finns i Vad är Windows ML.
Förutsättningar
- Version av Windows som Windows App SDK stöder
- Arkitektur: x64 eller ARM64
- Språkspecifika förutsättningar som visas nedan
- .NET 8 eller senare för att använda alla Windows ML-API:er
- Med .NET 6 kan du installera körningsproviders med hjälp av API:erna
Microsoft.Windows.AI.MachineLearning, men du kan inte användaMicrosoft.ML.OnnxRuntimeAPI:erna.
- Med .NET 6 kan du installera körningsproviders med hjälp av API:erna
- Rikta in sig på en Windows 10-specifik TFM som
net8.0-windows10.0.19041.0eller senare
Steg 1: Hitta en modell
Innan du skriver någon kod behöver du en ONNX-modell. Mer information om hur du hämtar ONNX-modeller finns i Hitta eller träna modeller .
Steg 2: Installera Windows ML
Se Installera och distribuera Windows ML för fullständiga instruktioner för alla språk och distributionslägen som stöds (ramverksberoende och fristående).
Steg 3: Lägg till namnområden/rubriker
När du har installerat Windows ML i projektet kan du läsa Använda ONNX-API:er för vägledning om vilka namnområden/rubriker som ska användas.
Steg 4: Kör en ONNX-modell
Med Windows ML installerat kan du köra ONNX-modeller på processorn utan ytterligare installation. Mer information finns i Köra ONNX-modeller .
I det här läget har din app en fungerande slutsatsdragningssökväg för CPU.
Steg 5: Om du vill kan du påskynda NPU eller GPU
Vill du ha snabbare slutsatsdragning för NPU, GPU eller till och med CPU? Se Accelerera AI-modeller för att lägga till utförandeleverantörer som är optimerade för din målmaskinvara.
Se även
- Påskynda AI-modeller – Lägga till NPU-, GPU- eller CPU-körningsproviders
- Köra ONNX-modeller – Information om slutsatsdragning av ONNX-modeller
- Installera och distribuera Windows ML – Alternativ för att distribuera en app med Windows ML
- Självstudie – Fullständig slut-till-slut-självstudie med hjälp av Windows ML och ResNet-50-modellen
- Kodexempel – Våra kodexempel med Windows ML