Aan de slag met Windows ML

In dit onderwerp helpen we u bij de minimale stappen voor het uitvoeren van een ONNX-model met Windows ML op een CPU en verwijzen we u vervolgens naar hardwareversnelling wanneer u daar klaar voor bent.

Zie Wat is Windows ML voor meer informatie over Windows ML.

Vereiste voorwaarden

  • Versie van Windows die Windows App SDK ondersteunt
  • Architectuur: x64 of ARM64
  • Taalspecifieke vereisten die hieronder worden weergegeven
  • .NET 8 of hoger voor het gebruik van alle Windows ML-API's
    • Met .NET 6 kunt u uitvoeringsproviders installeren met behulp van de Microsoft.Windows.AI.MachineLearning API's, maar u kunt de Microsoft.ML.OnnxRuntime API's niet gebruiken.
  • Gericht op een Windows 10-specifieke TFM zoals net8.0-windows10.0.19041.0 of hoger

Stap 1: Een model zoeken

Voordat u code schrijft, hebt u een ONNX-model nodig. Zie Modellen zoeken of trainen voor hulp bij het verkrijgen van ONNX-modellen.

Stap 2: Windows ML installeren

Zie Windows ML installeren en implementeren voor volledige instructies in alle ondersteunde talen en implementatiemodi (frameworkafhankelijk en zelfstandig).

Stap 3: Naamruimten/headers toevoegen

Nadat u Windows ML in uw project hebt geïnstalleerd, raadpleegt u ONNX-API's gebruiken voor hulp bij de naamruimten/headers die u wilt gebruiken.

Stap 4: Een ONNX-model uitvoeren

Als Windows ML is geïnstalleerd, kunt u ONNX-modellen uitvoeren op de CPU zonder extra installatie. Zie ONNX-modellen uitvoeren voor hulp.

Op dit moment heeft uw app een werkend deductiepad voor CPU.

Stap 5: Optioneel versnellen op NPU of GPU

Wilt u snellere deductie op NPU, GPU of zelfs CPU? Zie AI-modellen versnellen om hardware-afgestemde uitvoeringsproviders toe te voegen voor uw doelhardware.

Zie ook