Entdecken neuer Regressionsmodelle

Abgeschlossen

In Lerneinheit 2 haben wir uns mit der Anpassung einer geraden Linie an Datenpunkte beschäftigt. Die Regression eignet sich jedoch für viele Arten von Beziehungen, einschließlich solcher mit mehreren Faktoren und solcher, bei denen die Relevanz eines Faktors von einem anderen abhängt.

Experimentieren mit Modellen

Regressionsmodelle werden häufig gewählt, da sie mit kleinen Datenstichproben arbeiten, stabil und einfach zu interpretieren sind und es eine Vielzahl von Modellen gibt.

Die lineare Regression ist die einfachste Form der Regression, bei der es keine Begrenzung der Anzahl der verwendeten Merkmale bzw. Features gibt. Die lineare Regression gibt es in vielen Formen, die oft nach der Anzahl der verwendeten Features und der Form der passenden Kurve benannt sind.

Entscheidungsstrukturen gehen schrittweise an die Vorhersage einer Variablen heran. Wenn wir an unser Fahrradbeispiel denken, könnte die Entscheidungsstruktur möglicherweise zunächst die Beispiele in „Frühling/Sommer“ sowie „Herbst/Winter“ unterteilen und eine Vorhersage auf der Grundlage des Wochentags treffen. Für „Montag im Frühling/Sommer“ kann möglicherweise ein Fahrradmietpreis von 100 pro Tag gelten, während für „Montag im Herbst/Winter“ möglicherweise ein Mietpreis von 20 pro Tag gelten kann.

Ensemblealgorithmen konstruieren nicht nur eine Entscheidungsstruktur, sondern eine große Anzahl an Strukturen, wodurch bessere Vorhersagen bei komplexeren Daten möglich sind. Ensemblealgorithmen wie „Random Forest“ werden aufgrund ihrer starken Vorhersagefähigkeiten häufig beim maschinellen Lernen und bei Data Science eingesetzt.

Wissenschaftliche Fachkräfte für Daten experimentieren häufig mit der Verwendung verschiedener Modelle. In der folgenden Übung werden wir mit verschiedenen Modelltypen experimentieren, um zu vergleichen, wie sie bei identischen Daten abschneiden.