Resumen

Completado

Vamos a resumir los temas tratados.

Principalmente, hemos abordado un problema complejo de clasificación usando como ejemplo árboles de decisión y bosques aleatorios. Nuestro escenario era difícil: entrenar un modelo para adivinar los medallistas en gimnasia rítmica, pero lo conseguimos. Lo interesante es que encontramos una manera de hacerlo usando solo características básicas: edad, peso, altura y el año de los juegos.

Hemos aprendido que, para optimizar modelos complejos, a menudo tenemos que tomar decisiones sobre cómo se estructurará el modelo, por ejemplo, su tamaño o profundidad. Se ha analizado cómo los modelos más grandes y complejos son mucho más difíciles de entender internamente una vez entrenados, pero con frecuencia han mejorado enormemente el rendimiento con respecto a los tipos de modelos más sencillos.

También hemos practicado el trabajo con hiperparámetros que son configuraciones que afectan al funcionamiento del entrenamiento. Hemos descubierto que los hiperparámetros pueden realizar grandes mejoras en la forma en que se entrena un modelo y que encontrar la selección óptima requiere tanto razonamiento como experimentación.