Épisode

Comment expliquer les modèles avec IntepretML - Exploration approfondie

Avec la popularité récente des algorithmes d’apprentissage automatique tels que les réseaux neuronaux et les méthodes d’ensemble, etc., les modèles Machine Learning deviennent plus comme une « boîte noire », plus difficile à comprendre et à interpréter. Pour obtenir la confiance des parties prenantes, il est fort nécessaire de développer des outils et des méthodologies pour aider l’utilisateur à comprendre et à expliquer comment les prédictions sont effectuées. Dans cette vidéo, vous allez découvrir notre code source ouvert Machine Apprentissage Toolkit d’interprétabilité, InterpretML, qui intègre les technologies de pointe développées par Microsoft et tire parti des bibliothèques tierces éprouvées. InterpretML introduit un modèle de boîte transparente de pointe (EBM), et offre un accès facile à un large éventail d’autres modèles de boîte transparente et d’autres explicatifs de boîte noire.

Pour en savoir plus: