Partager via


Commencer avec DirectML

L’appairage de DirectML avec le runtime ONNX est souvent le moyen le plus simple pour de nombreux développeurs d’apporter l’IA accélérée matériellement à leurs utilisateurs à grande échelle. Ces trois étapes sont un guide général pour utiliser cette combinaison puissante.

1. Convertir

Le format ONNX vous permet de tirer profit du runtime ONNX avec DirectML, qui fournit des fonctionnalités inter-matériels.

Pour convertir votre modèle au format ONNX, vous pouvez utiliser ONNXMLTools ou Olive.

2. Optimiser

Une fois que vous avez un modèle .onnx, tirez profit d’Olive à technologie DirectML pour optimiser votre modèle. Vous verrez des améliorations spectaculaires des performances que vous pouvez déployer sur l’écosystème matériel Windows.

3. Intégrer

Lorsque votre modèle est prêt, il est temps d’apporter une inférence accélérée matériellement à votre application avec ONNX Runtime et DirectML. Pour les modèles d’IA générative, nous vous recommandons d’utiliser l’API ONNX Runtime Generate()

Nous avons créé des échantillons pour montrer comment utiliser DirectML et le runtime ONNX :

DirectML et PyTorch

Le back-end DirectML pour Pytorch permet un accès hautes performances et bas niveau au matériel GPU, tout en exposant une API Pytorch familière pour les développeurs. Vous trouverez plus d’informations sur l’utilisation de PyTorch avec DirectML ici

DirectML pour les applications web (préversion)

L’API de réseau neuronal web (WebNN) est une norme web émergente qui permet aux applications web et aux frameworks d’accélérer des réseaux neuronaux profonds avec du matériel sur appareil tel que des processeurs GPU, CPU ou des accélérateurs d’IA spécialement conçus tels que des processeurs NPU. L’API WebNN tire profit de l’API DirectML sur Windows pour accéder aux fonctionnalités matérielles natives et optimiser l’exécution des modèles de réseau neuronal. Pour plus d’informations sur WebNN, consultez cette page