Freigeben über


KnownForecastingModels enum

Bekannte Werte von ForecastingModels , die der Dienst akzeptiert.

Felder

Arimax

Ein ARIMAX-Modell (Autoregressive Integrated Moving Average with Explanatory Variable) kann als multiples Regressionsmodell mit einem oder mehreren autoregressiven (AR)-Begriffen und/oder einem oder mehreren Begriffen des gleitenden Durchschnitts (MA) angezeigt werden. Diese Methode eignet sich für die Prognose, wenn Daten stationär/nicht stationär sind, und multivariat mit einem beliebigen Datenmustertyp, d. h. level/trend/saisonalität/zyklischer Zyklischer Art.

AutoArima

Auto-Autoregressive Integrated Moving Average (ARIMA)-Modell verwendet Zeitreihendaten und statistische Analysen, um die Daten zu interpretieren und zukünftige Vorhersagen zu treffen. Dieses Modell zielt darauf ab, Daten mithilfe von Zeitreihendaten zu seinen früheren Werten zu erklären und verwendet lineare Regression, um Vorhersagen zu treffen.

Average

Das Average-Vorhersagemodell trifft Vorhersagen, indem es den Durchschnitt der Zielwerte für jede Zeitreihe in den Trainingsdaten vorträgt.

DecisionTree

Entscheidungsstrukturen sind eine nicht parametrische beaufsichtigte Lernmethode, die sowohl für Klassifizierungs- als auch Für Regressionsaufgaben verwendet wird. Das Ziel besteht darin, ein Modell zu erstellen, das den Wert einer Zielvariable vorhersagt, indem einfache Entscheidungsregeln gelernt werden, die aus den Datenfeatures abgeleitet werden.

ElasticNet

Elastisches Netz ist eine beliebte Art der regularisierten linearen Regression, die zwei beliebte Strafen kombiniert, insbesondere die Funktionen L1 und L2.

ExponentialSmoothing

Exponentielle Glättung ist eine Zeitreihenvorhersagemethode für univariate Daten, die erweitert werden kann, um Daten mit einem systematischen Trend oder einer saisonalen Komponente zu unterstützen.

ExtremeRandomTrees

Extreme Trees ist ein Ensemble-Algorithmus für maschinelles Lernen, der die Vorhersagen aus vielen Entscheidungsstrukturen kombiniert. Es steht im Zusammenhang mit dem weit verbreiteten Zufallsgesamtalgorithmus.

GradientBoosting

Die Technik der Übertragung von Wochenlernern in einen starken Lernenden heißt Boosting. Der Algorithmus zur Farbverlaufsaufhebung funktioniert auf dieser Ausführungstheorie.

KNN

Der KNN-Algorithmus (K-nearest neighbors) verwendet "Featureähnlichkeit", um die Werte neuer Datenpunkte vorherzusagen, was weiter bedeutet, dass dem neuen Datenpunkt ein Wert zugewiesen wird, basierend darauf, wie eng er den Punkten im Trainingssatz entspricht.

LassoLars

Lassomodell passt mit Least Angle Regression a.k.a. Lars. Es handelt sich um ein lineares Modell, das mit einem L1 vor dem Regularisierer trainiert wurde.

LightGBM

LightGBM ist ein Framework zur Farbverlaufssteigerung, das strukturbasierte Lernalgorithmen verwendet.

Naive

Beim naiven Vorhersagemodell wird für Vorhersagen jeweils der neueste Zielwert für jede Zeitreihe in den Trainingsdaten übertragen.

Prophet

Prophet ist ein Verfahren zum Vorhersagen von Zeitreihendaten basierend auf einem additiven Modell, bei dem nichtlineare Trends mit jährlicher, wöchentlicher und täglicher Saisonalität sowie Feiertagseffekten passen. Es funktioniert am besten mit Zeitreihen mit starken saisonalen Auswirkungen und mehreren Jahreszeiten mit historischen Daten. Prophet ist robust gegenüber fehlenden Daten und Trendverschiebungen und verarbeitet Ausreißer in der Regel gut.

RandomForest

Zufällige Gesamtstruktur ist ein überwachter Lernalgorithmus. Der "Wald", den er aufbaut, ist ein Ensemble von Entscheidungsbäumen, die normalerweise mit der "Bagging"-Methode trainiert werden. Die allgemeine Idee der Bagging-Methode ist, dass eine Kombination von Lernmodellen das Gesamtergebnis erhöht.

SeasonalAverage

Das Vorhersagemodell für den saisonalen Durchschnitt trifft Vorhersagen, indem es den Durchschnittswert der letzten Datenreihe für jede Zeitreihe in den Trainingsdaten vorträgt.

SeasonalNaive

Beim saisonalen naiven Vorhersagemodell wird für Vorhersagen jeweils die neueste Saison von Zielwerten für jede Zeitreihe in den Trainingsdaten übertragen.

SGD

SGD: Stochastischer Gradientenabstieg ist ein Optimierungsalgorithmus, der häufig in Machine Learning-Anwendungen verwendet wird, um die Modellparameter zu finden, die der besten Anpassung zwischen vorhergesagten und tatsächlichen Ausgaben entsprechen. Es ist eine ungenaue, aber leistungsstarke Technik.

TCNForecaster

TCNForecaster: Temporal Convolutional Networks Forecaster. TODO: Bitten Sie das Vorhersageteam um eine kurze Einführung.

XGBoostRegressor

XGBoostRegressor: Der Extreme Gradient Boosting Regressor ist ein überwachtes Machine Learning-Modell mit einem Ensemble von Basislern.