Zusammenfassung

Abgeschlossen

Glückwunsch! Sie haben die Einführung in die Regression nun abgeschlossen. Hier sind die wichtigen Punkte noch einmal zusammengefasst.

Wir haben erfahren, dass bei der Regression nach einer kontinuierlichen Beziehung zwischen Merkmalen (Englisch: Feature) und Bezeichnungen (Englisch: Label) gesucht wird und dass dies normalerweise mit einfachen mathematischen Funktionen ausgedrückt werden kann. Es wurde beschrieben, dass Modelle basierend auf zwei Faktoren benannt werden:

  • Der Art der Kurve, die von Regressionsmodellen angepasst wird. Bei der linearen Regression wird beispielsweise nach Beziehungen in „gerader Linie“ gesucht, während bei der Polynomregression auch mit nicht linearen Beziehungen gearbeitet werden kann.
  • Wie viele Variablen verwendet werden: Bei der einfachen Regression wird ein Merkmal verwendet, während es bei der multiplen Regression mehrere sind.

Darüber hinaus wurden R2-Werte beschrieben, mit denen bewertet wird, wie gut ein Modell zu den Daten passt. Der Wert 0 bedeutet hierbei, dass das Modell ineffektiv ist, während der Wert 1 angibt, dass es perfekt passt.

Abschließend wurde die Extrapolation beschrieben, das Vorhersagen von Werten mithilfe von Features, die außerhalb des Bereichs unseres Trainingsdatasets liegen. Wir haben festgestellt, dass sich dies mit Regressionsmodellen recht einfach bewerkstelligen lässt. Wir haben aber auch gesehen, dass Modelle u. U. ungeeignete Ergebnisse liefern, wenn die Features sehr verschieden von den Features in unseren Trainingsdaten waren.