Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
In dit onderwerp helpen we u bij de minimale stappen voor het uitvoeren van een ONNX-model met Windows ML op een CPU en verwijzen we u vervolgens naar hardwareversnelling wanneer u daar klaar voor bent.
Zie Wat is Windows ML voor meer informatie over Windows ML.
Vereiste voorwaarden
- Versie van Windows die Windows App SDK ondersteunt
- Architectuur: x64 of ARM64
- Taalspecifieke vereisten die hieronder worden weergegeven
- .NET 8 of hoger voor het gebruik van alle Windows ML-API's
- Met .NET 6 kunt u uitvoeringsproviders installeren met behulp van de
Microsoft.Windows.AI.MachineLearningAPI's, maar u kunt deMicrosoft.ML.OnnxRuntimeAPI's niet gebruiken.
- Met .NET 6 kunt u uitvoeringsproviders installeren met behulp van de
- Gericht op een Windows 10-specifieke TFM zoals
net8.0-windows10.0.19041.0of hoger
Stap 1: Een model zoeken
Voordat u code schrijft, hebt u een ONNX-model nodig. Zie Modellen zoeken of trainen voor hulp bij het verkrijgen van ONNX-modellen.
Stap 2: Windows ML installeren
Zie Windows ML installeren en implementeren voor volledige instructies in alle ondersteunde talen en implementatiemodi (frameworkafhankelijk en zelfstandig).
Stap 3: Naamruimten/headers toevoegen
Nadat u Windows ML in uw project hebt geïnstalleerd, raadpleegt u ONNX-API's gebruiken voor hulp bij de naamruimten/headers die u wilt gebruiken.
Stap 4: Een ONNX-model uitvoeren
Als Windows ML is geïnstalleerd, kunt u ONNX-modellen uitvoeren op de CPU zonder extra installatie. Zie ONNX-modellen uitvoeren voor hulp.
Op dit moment heeft uw app een werkend deductiepad voor CPU.
Stap 5: Optioneel versnellen op NPU of GPU
Wilt u snellere deductie op NPU, GPU of zelfs CPU? Zie AI-modellen versnellen om hardware-afgestemde uitvoeringsproviders toe te voegen voor uw doelhardware.
Zie ook
- AI-modellen versnellen - NPU-, GPU- of CPU-uitvoeringsproviders toevoegen
- ONNX-modellen uitvoeren - Informatie over inferentie van ONNX-modellen
- Windows ML installeren en implementeren - Opties voor het implementeren van een app met Windows ML
- Zelfstudie : volledige end-to-end zelfstudie met Windows ML met het ResNet-50-model
- Codevoorbeelden - Onze codevoorbeelden met Windows ML