Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Windows ML fonctionne avec des modèles de format ONNX, car Windows ML est simplement un mécanisme de distribution fournissant les fournisseurs d’exécution ONNX Runtime et d’exécution spécifiques au matériel. Cela signifie que vous pouvez utiliser des millions de modèles préentraînés existants à partir de différentes sources ou entraîner vos propres modèles. Ce guide explique où rechercher, convertir ou entraîner des modèles ONNX.
| Options | Détails |
|---|---|
| 1. Utiliser des modèles à partir d’AI Toolkit | Choisissez parmi 20 modèles OSS ou plus (y compris les modèles LLM et d'autres types de modèles) qui sont prêts à être optimisés pour une utilisation avec Windows ML grâce à l'outil de conversion d'AI Toolkit |
| 2. Utiliser d’autres modèles ONNX existants | Parcourir plus de 30 000 modèles ONNX préentraînés à partir de Hugging Face ou d’autres sources |
| 3. Convertir des modèles existants au format ONNX | Parcourez plus de 2 400 000 modèles PyTorch / TensorFlow / etc préentraînés à partir de Hugging Face ou d’autres sources et convertissez-les en ONNX |
| 4. Ajuster les modèles existants | Ajuster plus de 2 400 000 modèles PyTorch / TensorFlow / etc préentraînés à partir de Hugging Face ou d’autres sources pour fonctionner mieux pour votre scénario (et les convertir au format ONNX) |
| 5. Entraîner des modèles | Entraîner vos propres modèles dans PyTorch, TensorFlow ou d’autres frameworks et les convertir en ONNX |
Vous pouvez également choisir parmi des dizaines de modèles et d’API IA prêts à l’emploi dans Microsoft Foundry sur Windows, qui s’exécutent via Windows ML. Pour en savoir plus , consultez Utiliser l’IA locale avec Microsoft Foundry sur Windows .
Option 1 : Utiliser des modèles à partir d’AI Toolkit
Avec l’outil de conversion d’AI Toolkit, il existe des dizaines de machines virtuelles LL et d’autres types de modèles prêts à être optimisés pour une utilisation avec Windows ML. En obtenant un modèle via AI Toolkit, vous obtiendrez un modèle ONNX converti optimisé pour la variété de matériel sur lequel Windows ML s’exécute.
Pour parcourir les modèles disponibles, consultez la liste des modèles d’AI Toolkit.
Option 2 : Utiliser d’autres modèles ONNX existants
Hugging Face héberge des milliers de modèles ONNX que vous pouvez utiliser avec Windows ML. Vous trouverez des modèles ONNX par :
- Explorer le Hugging Face Model Hub
- Filtrage par « ONNX » dans le filtre de bibliothèque
Vous devrez trouver un modèle compatible avec la version du runtime ONNX incluse dans la version de Windows ML que vous utilisez. Consultez les versions d’ONNX Runtime fournies dans Windows ML pour connaître la version d’ONNX Runtime que vous utilisez avec Windows ML.
Option 3 : Convertir des modèles existants au format ONNX
Les modèles de PyTorch, TensorFlow ou d’autres frameworks peuvent être convertis au format ONNX et utilisés avec Windows ML.
Hugging Face héberge des millions de modèles que vous pouvez convertir et utiliser avec Windows ML.
Vous devez convertir le modèle à exécuter avec la version ONNX Runtime incluse dans la version de Windows ML que vous utilisez. Consultez les versions d’ONNX Runtime fournies dans Windows ML pour connaître la version d’ONNX Runtime que vous utilisez avec Windows ML.
Pour convertir un modèle au format ONNX, consultez la documentation spécifique à l’infrastructure, par exemple :
Option 4 : Ajuster les modèles existants
De nombreux modèles sur Hugging Face ou d’autres sources peuvent être affinés (en suivant les instructions sur les cartes de modèle sur Hugging Face). Vous pouvez ensuite convertir le modèle affiné en ONNX en suivant les instructions de l’option 3 ci-dessus.
Un moyen populaire d’ajuster les modèles est d’utiliser la commande olive finetune. Consultez la documentation Olive pour en savoir plus sur l’utilisation d’Olive.
Option 5 : Entraîner des modèles
Si vous avez besoin d’un modèle pour une tâche spécifique et que vous ne trouvez pas de modèle existant, vous pouvez effectuer l’apprentissage de votre propre modèle dans PyTorch, TensorFlow ou d’autres frameworks.
Une fois que vous avez entraîné votre modèle, suivez les instructions de l’option 3 ci-dessus pour convertir votre modèle au format ONNX.
Étapes suivantes
Une fois que vous avez un modèle ONNX, vous pouvez l’exécuter avec Windows ML sur vos appareils cibles.
- Initialiser des fournisseurs d’exécution - Télécharger et inscrire des fournisseurs d’exécution dans Windows ML
- Exécuter des modèles ONNX - Découvrez comment exécuter l’inférence avec Windows ML
Autres solutions
Dans le cadre de Microsoft Foundry sur Windows, vous pouvez également choisir parmi des dizaines de modèles et d’API IA prêts à l’emploi, qui s’exécutent via Windows ML. Pour en savoir plus , consultez Utiliser l’IA locale avec Microsoft Foundry sur Windows .