Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette rubrique vous guide tout au long du chemin minimal d’exécution d’un modèle ONNX avec Windows ML sur le processeur, puis vous pointe vers l’accélération matérielle lorsque vous êtes prêt.
Pour en savoir plus sur Windows ML, consultez Présentation de Windows ML.
Prerequisites
- Version de Windows prise en charge par le Kit de développement logiciel (SDK) d’application Windows
- Architecture : x64 ou ARM64
- Conditions préalables spécifiques à la langue affichées ci-dessous
- .NET 8 ou version ultérieure pour utiliser toutes les API Windows ML
- Avec .NET 6, vous pouvez installer des fournisseurs d’exécution à l’aide des
Microsoft.Windows.AI.MachineLearningAPI, mais vous ne pouvez pas utiliser lesMicrosoft.ML.OnnxRuntimeAPI.
- Avec .NET 6, vous pouvez installer des fournisseurs d’exécution à l’aide des
- Ciblage d’un TFM spécifique à Windows 10 comme
net8.0-windows10.0.19041.0ou version ultérieure
Étape 1 : Rechercher un modèle
Avant d’écrire du code, vous avez besoin d’un modèle ONNX. Consultez Rechercher ou entraîner des modèles pour obtenir des conseils sur l’obtention de modèles ONNX.
Étape 2 : Installer Windows ML
Consultez Installer et déployer Windows ML pour obtenir des instructions complètes sur tous les langages et modes de déploiement pris en charge (dépendant de l’infrastructure et autonome).
Étape 3 : Ajouter des espaces de noms ou en-têtes
Une fois que vous avez installé Windows ML dans votre projet, consultez Utiliser les API ONNX pour obtenir des conseils sur les espaces de noms/en-têtes à utiliser.
Étape 4 : Exécuter un modèle ONNX
Avec Windows ML installé, vous pouvez exécuter des modèles ONNX sur l’UC sans configuration supplémentaire. Consultez Exécuter des modèles ONNX pour obtenir des conseils.
À ce stade, votre application a un chemin d’inférence opérationnel sur l’UC.
Étape 5 : Accélérer éventuellement sur NPU ou GPU
Vous souhaitez accélérer l’inférence sur NPU, GPU ou même processeur ? Consultez Accélération des modèles IA pour ajouter des fournisseurs d’exécution optimisés pour le matériel de votre matériel cible.
Voir aussi
- Accélérer les modèles IA - Ajouter des fournisseurs d’exécution NPU, GPU ou CPU
- Exécuter des modèles ONNX - Informations sur l’inférence des modèles ONNX
- Installer et déployer Windows ML - Options de déploiement d’une application à l’aide de Windows ML
- Tutoriel - Tutoriel complet de bout en bout à l’aide de Windows ML avec le modèle ResNet-50
- Exemples de code - Nos exemples de code à l’aide de Windows ML