Commencez avec Windows ML

Cette rubrique vous guide tout au long du chemin minimal d’exécution d’un modèle ONNX avec Windows ML sur le processeur, puis vous pointe vers l’accélération matérielle lorsque vous êtes prêt.

Pour en savoir plus sur Windows ML, consultez Présentation de Windows ML.

Prerequisites

  • .NET 8 ou version ultérieure pour utiliser toutes les API Windows ML
    • Avec .NET 6, vous pouvez installer des fournisseurs d’exécution à l’aide des Microsoft.Windows.AI.MachineLearning API, mais vous ne pouvez pas utiliser les Microsoft.ML.OnnxRuntime API.
  • Ciblage d’un TFM spécifique à Windows 10 comme net8.0-windows10.0.19041.0 ou version ultérieure

Étape 1 : Rechercher un modèle

Avant d’écrire du code, vous avez besoin d’un modèle ONNX. Consultez Rechercher ou entraîner des modèles pour obtenir des conseils sur l’obtention de modèles ONNX.

Étape 2 : Installer Windows ML

Consultez Installer et déployer Windows ML pour obtenir des instructions complètes sur tous les langages et modes de déploiement pris en charge (dépendant de l’infrastructure et autonome).

Étape 3 : Ajouter des espaces de noms ou en-têtes

Une fois que vous avez installé Windows ML dans votre projet, consultez Utiliser les API ONNX pour obtenir des conseils sur les espaces de noms/en-têtes à utiliser.

Étape 4 : Exécuter un modèle ONNX

Avec Windows ML installé, vous pouvez exécuter des modèles ONNX sur l’UC sans configuration supplémentaire. Consultez Exécuter des modèles ONNX pour obtenir des conseils.

À ce stade, votre application a un chemin d’inférence opérationnel sur l’UC.

Étape 5 : Accélérer éventuellement sur NPU ou GPU

Vous souhaitez accélérer l’inférence sur NPU, GPU ou même processeur ? Consultez Accélération des modèles IA pour ajouter des fournisseurs d’exécution optimisés pour le matériel de votre matériel cible.

Voir aussi