Partager via


Prise en main de DirectML

L’appairage de DirectML avec le runtime ONNX est souvent le moyen le plus simple pour de nombreux développeurs d’apporter l’IA accélérée matériellement à leurs utilisateurs à grande échelle. Ces trois étapes sont un guide général pour utiliser cette combinaison puissante.

1. Convertir

Le format ONNX vous permet de tirer parti du runtime ONNX avec DirectML, qui fournit des fonctionnalités inter-matériels.

Pour convertir votre modèle au format ONNX, vous pouvez utiliser ONNXMLTools ou Olive.

2. Optimiser

Une fois que vous avez un modèle .onnx, tirez parti d’live alimenté par DirectML pour optimiser votre modèle. Vous verrez des améliorations spectaculaires des performances que vous pouvez déployer sur l’écosystème matériel Windows.

3. Intégrer

Lorsque votre modèle est prêt, il est temps d’apporter une inférence matérielle accélérée à votre application avec ONNX Runtime et DirectML. Pour les modèles IA génératifs, nous vous recommandons d’utiliser l’API ONNX Runtime Generate()

Nous avons créé des exemples pour montrer comment utiliser DirectML et le runtime ONNX :

DirectML et PyTorch

Le back-end DirectML pour Pytorch offre un accès à hautes performances et bas niveau au matériel des GPU, tout en exposant une API Pytorch familière pour les développeurs. Vous trouverez plus d’informations sur l’utilisation de PyTorch avec DirectML ici

DirectML pour les applications web (préversion)

L’API de réseau neuronal web (WebNN) est une norme web émergente qui permet aux applications web et aux infrastructures d’accélérer des réseaux neuronaux profonds avec du matériel sur appareil tel que des GPU, des PROCESSEURs ou des accélérateurs d’IA conçus à des fins telles que des processeurs npus. L’API WebNN tire parti de l’API DirectML sur Windows pour accéder aux fonctionnalités matérielles natives et optimiser l’exécution des modèles de réseau neuronal. Pour plus d’informations sur WebNN, consultez cette page