Partager des insights d’IA responsable à l’aide de la carte de performance d’IA responsable (préversion)
Notre tableau de bord IA responsable est conçu pour aider les professionnels de l’apprentissage automatique et les scientifiques des données à explorer et à évaluer des insights de modèle, ainsi qu’éclairer leurs décisions basées sur des données. Bien qu’il puisse vous aider à implémenter l’IA responsable pratiquement dans votre cycle de vie d’apprentissage automatique, certains besoins ne sont pas satisfaits :
- Il existe souvent un écart entre les outils techniques d’IA responsable (conçus pour les professionnels de l’apprentissage automatique) et les exigences éthiques, réglementaires et métier qui définissent l’environnement de production.
- Bien qu’un cycle de vie d’apprentissage automatique de bout en bout inclut des intervenants techniques et non techniques dans la boucle, il offre peu de support pour permettre un alignement efficace de plusieurs intervenants, ce qui aide les experts techniques à recueillir en temps opportun des commentaires et une orientation des intervenants non techniques.
- Les réglementations en matière d’IA permettent de partager des insights de modèle et de données avec des auditeurs et des responsables de gestion des risques à des fins de vérifiabilité.
L’un des principaux avantages de l’utilisation de l’écosystème Azure Machine Learning a trait à l’archivage des insights de modèle et de données dans l’historique des exécutions Azure Machine Learning (pour référence rapide à l’avenir). Dans le cadre de cette infrastructure et pour accompagner les modèles Machine Learning et leurs tableaux de bord d’IA responsable correspondants, nous introduisons la carte de performance d’IA responsable pour permettre aux professionnels du ML de générer et de partager facilement leurs données et modèles d’enregistrements d’intégrité.
Important
Cette fonctionnalité est actuellement disponible en préversion publique. Cette préversion est fournie sans contrat de niveau de service et n’est pas recommandée pour les charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge.
Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Qui devrait utiliser une carte de performance d’IA responsable ?
Si vous êtes un scientifique des données ou un professionnel du Machine Learning, après avoir entraîné votre modèle et généré ses tableaux de bord d’IA responsable correspondants à des fins d’évaluation et de prise de décision, vous pouvez extraire ces apprentissages via notre carte de performance PDF et partager facilement le rapport avec vos parties prenantes techniques et non techniques pour créer une confiance et obtenir leur approbation pour le déploiement.
Si vous êtes responsable de produit, responsable d’entreprise ou partie prenante responsable sur un produit IA, vous pouvez transmettre les performances de votre modèle souhaité et les valeurs cibles d’équité, telles que la précision de votre cible, le taux d’erreur cible, etc., à votre équipe de science des données, leur demandant de générer cette carte de performance en fonction de vos valeurs cibles identifiées et si votre modèle les satisfait. Cela peut être utile pour déterminer si le modèle doit être déployé ou amélioré.
Étapes suivantes
- Découvrez comment générer le tableau de bord et la carte de performance d’IA responsable par le biais de CLI et SDK ou de l’interface utilisateur d’Azure Machine Learning studio.
- Apprenez-en davantage sur le tableau de bord et la carte de performance de l’IA responsable dans cet article du blog de la communauté tech.