Comment puis-je intégrer l’IA dans mon application cliente Windows ?
L’intégration de l’IA à votre application Windows peut être réalisée via deux méthodes principales : un modèle local ou un modèle basé sur le cloud. Pour l’option de modèle local, vous avez la possibilité d’utiliser un modèle préexistant ou d’entraîner vos propres plateformes à l’aide de TensorFlow ou pyTorch, puis de l’incorporer dans votre application via OnnxRuntime. Microsoft Foundry sur Windows offre des API pour différentes fonctions, notamment OCR ou utilisation du modèle Phi Silicon. D'autre part, l’hébergement de votre modèle sur le cloud et son accès via une API REST permettent à votre application de rester rationalisée en déléguant les tâches gourmandes en ressources au cloud. Pour plus d’informations, consultez Utiliser des modèles Machine Learning dans votre application Windows.
Ai-je besoin de la dernière version de Windows 11 et d’un Copilot+ PC avec un NPU pour utiliser des fonctionnalités IA ?
Il existe de nombreuses façons d’exécuter des charges de travail IA, En installant et en exécutant des modèles localement sur votre appareil Windows ou en exécutant des modèles basés sur le cloud (consultez
Quels langages de programmation sont les meilleurs pour développer l’IA dans Windows applications clientes ?
Vous pouvez utiliser le langage de programmation de votre choix. Par exemple, C# est largement utilisé pour créer des applications clientes Windows. Si vous avez besoin d’un meilleur contrôle sur les détails de bas niveau, C++ est une excellente option. Vous pouvez également envisager d’utiliser Python. Vous pouvez également utiliser le Sous-système Windows pour Linux (WSL) pour exécuter des outils d’IA basés sur Linux sur Windows.
Quelles sont les meilleures infrastructures IA pour les applications clientes Windows ?
Nous vous recommandons d’utiliser OnnxRuntime.
Comment gérer la confidentialité et la sécurité des données lors de l’utilisation de l’IA dans Windows applications clientes ?
Le respect de la confidentialité et de la sécurité des données utilisateur est essentiel lors du développement d’applications basées sur l’IA. Vous devez suivre les meilleures pratiques pour la gestion des données, telles que le chiffrement des données sensibles, l’utilisation de connexions sécurisées et l’obtention du consentement de l’utilisateur avant de collecter des données. Vous devez également être transparent sur la façon dont vous utilisez les données et donner aux utilisateurs le contrôle de leurs données. Veillez également à lire Développer des applications et des fonctionnalités d'IA générative responsable sur Windows.
Quelles sont les exigences système requises pour l’exécution de l’IA dans Windows applications clientes ?
La configuration système requise pour les applications Windows qui utilisent l’IA dépend de la complexité du modèle IA et de l’accélération matérielle utilisée. Pour les modèles simples, un processeur moderne peut être suffisant, mais pour des modèles plus complexes, un GPU ou un NPU peut être nécessaire. Vous devez également prendre en compte les besoins en mémoire et en stockage de votre application, ainsi que la bande passante réseau requise pour les services d'IA basés sur le cloud.
Comment optimiser les performances de l’IA dans Windows applications clientes ?
Pour optimiser les performances de l’IA dans les applications Windows, vous devez envisager d’utiliser l’accélération matérielle, telle que les GPU ou les processeurs réseau, pour accélérer l’inférence du modèle. Windows Copilot+ ordinateurs portables sont optimisés pour les charges de travail IA et peuvent fournir une amélioration significative des performances pour les tâches IA. Consultez également Aperçu de Foundry Toolkit pour Visual Studio Code.
Puis-je utiliser des modèles IA préentraînés dans mon application cliente Windows ?
Oui, vous pouvez utiliser des modèles IA préentraînés dans votre application Windows. Vous pouvez télécharger des modèles préentraînés à partir d’Internet ou utiliser un service d'IA basé sur le cloud pour accéder aux modèles préentraînés. Vous pouvez ensuite intégrer ces modèles dans votre application à l’aide d’une infrastructure telle qu’OnnxRuntime.
Qu’est-ce que DirectML ?
DirectML est une API de bas niveau pour l’apprentissage automatique qui propose une accélération de GPU pour les tâches courantes d’apprentissage automatique sur un large éventail de matériels et de pilotes pris en charge, y compris tous les GPU compatibles avec DirectX 12 provenant de fournisseurs tels que AMD, Intel, NVIDIA et Qualcomm.
Comment puis-je savoir de quel type d’UC, de GPU ou de NPU dispose mon appareil ?
Pour vérifier le type de processeur, de GPU ou de NPU sur votre appareil Windows et comment il fonctionne, ouvrez le Gestionnaire de tâches (Ctrl + Maj + Échap), puis sélectionnez l'Performance et vous pourrez voir le processeur, la mémoire, le Wi-Fi, le GPU et/ou le NPU répertoriés, ainsi que des informations sur sa vitesse, taux d’utilisation et autres données.
Qu’est-ce que Windows ML ?
Windows ML (Machine Learning) permet à votre application d’utiliser une copie partagée du runtime ONNX (ORT) à l’échelle du système et ajoute la prise en charge du téléchargement dynamique de fournisseurs d’exécution (EP) spécifiques aux fournisseurs, afin que l’inférence de vos modèles puisse être optimisée sur la grande variété de processeurs, de GPU et de NPU de l’écosystème Windows, sans que votre application ait à embarquer elle-même des runtimes ou des EP lourds.