Resumo

Concluído

Vamos resumir o que abordamos.

Principalmente, abordamos um problema complexo de classificação usando árvores de decisão e florestas aleatórias como exemplo. Nosso cenário era difícil – treinar um modelo para adivinhar quais pessoas eram medalhistas de Ginástica Rítmica – mas conseguimos. Curiosamente, encontramos uma maneira de fazer isso usando apenas recursos básicos: idade, peso, altura e ano dos jogos.

Aprendemos que, para otimizar modelos complexos, muitas vezes temos decisões a tomar sobre como o modelo será estruturado, como quão grande ou profundo ele será. Discutimos como modelos maiores e mais complexos são muito mais difíceis de entender internamente, uma vez treinados, mas muitas vezes têm ganhos de desempenho impressionantes em relação a tipos de modelos mais simples.

Também praticamos o trabalho com hiperparâmetros, que são configurações que afetam como o treinamento funciona. Descobrimos que os hiperparâmetros podem fazer grandes melhorias na forma como um modelo é treinado, e que encontrar a seleção ideal requer raciocínio e experimentação.