Résumé

Effectué

Faisons le bilan de ce que nous avons abordé.

Principalement, nous avons abordé un problème de classification complexe en prenant pour exemples des arbres de décision et des forêts aléatoires. Notre scénario était difficile (entraîner un modèle dans le but de déterminer les vainqueurs de médaille en gymnastique rythmique), mais nous nous en sommes bien sortis. Il est intéressant de noter que nous y sommes parvenus en utilisant uniquement des fonctionnalités de base : l’âge, le poids, la taille et l’année des jeux.

Nous avons appris que pour optimiser les modèles complexes, nous avons souvent des décisions à prendre sur la façon dont le modèle sera structuré, par exemple sa taille ou sa profondeur. Nous avons abordé la manière dont les modèles plus grands et plus complexes sont bien plus difficiles à comprendre en interne, une fois entraînés, mais démontrent souvent des gains de performances impressionnants par rapport aux types de modèles plus simples.

Nous avons également utilisé des hyperparamètres, qui sont des paramètres qui affectent le fonctionnement de l’entraînement. Nous avons constaté que les hyperparamètres peuvent apporter des améliorations importantes à l’apprentissage d’un modèle, et que trouver la sélection optimale requiert à la fois de poursuivre un raisonnement et une expérimentation.