Freigeben über


ForecastingJob Klasse

Konfiguration für AutoML-Vorhersagetask.

Initialisieren Sie einen neuen AutoML-Prognosetask.

Vererbung
azure.ai.ml.entities._job.automl.tabular.automl_tabular.AutoMLTabular
ForecastingJob

Konstruktor

ForecastingJob(*, primary_metric: str | None = None, forecasting_settings: ForecastingSettings | None = None, **kwargs)

Parameter

primary_metric
Optional[str]
Erforderlich

Die primäre Metrik, die für die Modellauswahl verwendet werden soll.

forecasting_settings
Optional[ForecastingSettings]
Erforderlich

Die Einstellungen für den Vorhersagetask.

kwargs
Dict[str, Any]
Erforderlich

Auftragsspezifische Argumente

Methoden

dump

Gibt den Auftragsinhalt in eine Datei im YAML-Format ab.

set_data

Definieren Sie die Datenkonfiguration.

set_featurization

Definieren Sie die Featureentwicklungskonfiguration.

set_forecast_settings

Verwalten von Parametern, die von Vorhersageaufgaben verwendet werden

set_limits

Legen Sie Grenzwerte für den Auftrag fest.

set_training

Die Methode zum Konfigurieren von Einstellungen für das Vorhersagetraining.

dump

Gibt den Auftragsinhalt in eine Datei im YAML-Format ab.

dump(dest: str | PathLike | IO, **kwargs) -> None

Parameter

dest
Union[<xref:PathLike>, str, IO[AnyStr]]
Erforderlich

Der lokale Pfad oder Dateistream, in den der YAML-Inhalt geschrieben werden soll. Wenn dest ein Dateipfad ist, wird eine neue Datei erstellt. Wenn dest eine geöffnete Datei ist, wird die Datei direkt in geschrieben.

kwargs
dict

Zusätzliche Argumente, die an den YAML-Serialisierer übergeben werden sollen.

Ausnahmen

Wird ausgelöst, wenn dest ein Dateipfad ist und die Datei bereits vorhanden ist.

Wird ausgelöst, wenn dest eine geöffnete Datei ist und die Datei nicht beschreibbar ist.

set_data

Definieren Sie die Datenkonfiguration.

set_data(*, training_data: Input, target_column_name: str, weight_column_name: str | None = None, validation_data: Input | None = None, validation_data_size: float | None = None, n_cross_validations: str | int | None = None, cv_split_column_names: List[str] | None = None, test_data: Input | None = None, test_data_size: float | None = None) -> None

Parameter

training_data
Input

Trainingsdaten

target_column_name
str

Spaltenname der Zielspalte.

weight_column_name
Optional[str]

Gewichtung des Spaltennamens, standardmäßig Keine

validation_data
Optional[Input]

Validierungsdaten, standardwert auf Keine

validation_data_size
Optional[float]

Validierungsdatengröße, standardwert auf "None"

n_cross_validations
Optional[Union[str, int]]

n_cross_validations, wird standardmäßig Keine verwendet.

cv_split_column_names
Optional[List[str]]

cv_split_column_names wird standardmäßig Keine verwendet.

test_data
Optional[Input]

Testdaten, standardmäßig keine

test_data_size
Optional[float]

Testdatengröße, standardwert: Keine

Ausnahmen

Wird ausgelöst, wenn dest ein Dateipfad ist und die Datei bereits vorhanden ist.

Wird ausgelöst, wenn dest eine geöffnete Datei ist und die Datei nicht beschreibbar ist.

set_featurization

Definieren Sie die Featureentwicklungskonfiguration.

set_featurization(*, blocked_transformers: List[BlockedTransformers | str] | None = None, column_name_and_types: Dict[str, str] | None = None, dataset_language: str | None = None, transformer_params: Dict[str, List[ColumnTransformer]] | None = None, mode: str | None = None, enable_dnn_featurization: bool | None = None) -> None

Parameter

blocked_transformers
Optional[List[Union[BlockedTransformers, str]]]

Eine Liste von Transformatornamen, die während der Featurisierung blockiert werden sollen, lautet standardmäßig Keine.

column_name_and_types
Optional[Dict[str, str]]

Ein Wörterbuch mit Spaltennamen und Featuretypen, die zum Aktualisieren des Spaltenzwecks verwendet werden, ist standardmäßig auf Keine festgelegt.

dataset_language
Optional[str]

Iso 639-3-Code mit drei Zeichen für die Sprache(en) im Dataset. Andere Sprachen als Englisch werden nur unterstützt, wenn Sie GPU-fähiges Compute verwenden. Die language_code "mul" sollte verwendet werden, wenn das Dataset mehrere Sprachen enthält. Informationen zum Suchen nach ISO 639-3-Codes für verschiedene Sprachen finden Sie unter https://en.wikipedia.org/wiki/List_of_ISO_639-3_codes, standardmäßig keine.

transformer_params
Optional[Dict[str, List[ColumnTransformer]]]

Ein Wörterbuch mit Transformatoren und entsprechenden Anpassungsparametern , ist standardmäßig auf Keine festgelegt.

mode
Optional[str]

"off", "auto", default to "auto", default to None

enable_dnn_featurization
Optional[bool]

Gibt an, ob DNN-basierte Featureentwicklungsmethoden eingeschlossen werden sollen, standardmäßig keine

Ausnahmen

Wird ausgelöst, wenn dest ein Dateipfad ist und die Datei bereits vorhanden ist.

Wird ausgelöst, wenn dest eine geöffnete Datei ist und die Datei nicht beschreibbar ist.

set_forecast_settings

Verwalten von Parametern, die von Vorhersageaufgaben verwendet werden

set_forecast_settings(*, time_column_name: str | None = None, forecast_horizon: str | int | None = None, time_series_id_column_names: str | List[str] | None = None, target_lags: str | int | List[int] | None = None, feature_lags: str | None = None, target_rolling_window_size: str | int | None = None, country_or_region_for_holidays: str | None = None, use_stl: str | None = None, seasonality: str | int | None = None, short_series_handling_config: str | None = None, frequency: str | None = None, target_aggregate_function: str | None = None, cv_step_size: int | None = None, features_unknown_at_forecast_time: str | List[str] | None = None) -> None

Parameter

time_column_name
Optional[str]

Der Name der Zeitspalte. Dieser Parameter ist bei Vorhersageaufgaben erforderlich, um die Spalte „datetime“ in den Eingabedaten anzugeben, die zum Erstellen der Zeitreihe sowie zum Ableiten des Intervalls verwendet wird.

forecast_horizon

Der gewünschte maximale Prognosehorizont in Einheiten der Zeitreihenhäufigkeit. Der Standardwert ist 1.

Die Einheiten basieren auf dem Zeitintervall Ihrer Trainingsdaten (z. B. monatlich oder wöchentlich), die vorhergesagt werden sollen. Bei Vorhersageaufgaben ist dieser Parameter erforderlich. Weitere Informationen zum Festlegen von Vorhersageparametern finden Sie unter Automatisches Trainieren eines Modells für die Zeitreihenprognose.

time_series_id_column_names
Optional[Union[str, List[str]]]

Die Namen der Spalten, die zum Gruppieren einer Zeitreihe verwendet werden. Dieser Parameter kann zum Erstellen mehrerer Reihen verwendet werden. Wenn die Spaltennamen der Zeitreihen-ID nicht definiert sind oder die angegebenen Bezeichnerspalten nicht alle Reihen im Dataset identifizieren, werden die Zeitreihenbezeichner automatisch für Ihr Dataset erstellt.

target_lags

Die Anzahl vergangener Zeiträume, um die die Zielspalte verzögert werden soll. Standardmäßig sind die Verzögerungen deaktiviert.

Bei Vorhersagen stellt dieser Parameter die Anzahl von Zeilen dar, um die die Zielwerte basierend auf der Häufigkeit der Daten verzögert werden sollen. Dies wird als eine Liste oder als einzelner Integer dargestellt. Die Verzögerung sollte verwendet werden, wenn die Beziehung zwischen den unabhängigen Variablen und der abhängigen Variablen standardmäßig nicht übereinstimmt oder korreliert. Wenn Sie beispielsweise versuchen, die Nachfrage nach einem Produkt vorherzusagen, hängt die Nachfrage in einem Monat möglicherweise vom Preis für bestimmte Produkte vor 3 Monaten ab. In diesem Beispiel möchten Sie möglicherweise den Zielwert (Nachfrage) um 3 Monate negativ verzögern, sodass das Modell mit der richtigen Beziehung trainiert wird. Weitere Informationen finden Sie unter Automatisches Trainieren eines Modells für die Zeitreihenprognose.

Hinweis zur automatischen Erkennung von Zielverzögerungen und der Größe des rollierenden Fensters. Weitere Informationen finden Sie in den entsprechenden Kommentaren im Abschnitt zum rollierenden Fenster. Wir verwenden den nächsten Algorithmus, um die optimale Zielverzögerung und Größe des rollierenden Fensters zu erkennen.

  1. Schätzen Sie die maximale Verzögerung für die Auswahl der Rückblickfeatures. In unserem Fall ist dies die Anzahl von Zeiträumen bis zur nächsten Granularitätsstufe der Datumshäufigkeit, d. h. bei der Häufigkeit „täglich“ ist dies eine Woche (7) und bei „wöchentlich“ ein Monat (4). Diese Werte werden mit 2 multipliziert, um die größtmöglichen Werte für Verzögerungen/rollierende Fenster zu erhalten. In unseren Beispielen beträgt die maximale Verzögerung 14 bzw. 8.

  2. Erstellen Sie eine Reihe mit herausgerechneter Saisonalität, indem Sie Trend- und Restkomponenten hinzufügen. Diese Reihe wird im nächsten Schritt verwendet.

  3. Schätzen Sie den Wert der Funktion für partielle Autokorrelation (Partial Auto Correlation Function, PACF) für die Daten aus Schritt 2, und suchen Sie nach Punkten, bei denen die automatische Korrelation signifikant ist, d. h. ihr absoluter Wert ist größer als 1,96/square_root (maximaler Verzögerungswert), was einer Signifikanz von 95 % entspricht.

  4. Wenn alle Punkte signifikant sind, betrachten wir dies als hohe Saisonalität und erstellen keine Rückblickfeatures.

  5. Wir überprüfen die PACF-Werte vom Anfang. Der Wert vor der ersten nicht signifikanten automatischen Korrelation bestimmt die Verzögerung. Wenn auf das erste signifikante Element (Wert korreliert mit sich selbst) ein nicht signifikantes Element folgt, beträgt die Verzögerung 0, und wir verwenden keine Rückblickfeatures.

feature_lags
Optional[str]

Flag zum Generieren von Verzögerungen für numerische Features mit „auto“ oder „None“.

target_rolling_window_size
Optional[Union[str, int]]

Die Anzahl vergangener Zeiträume, die zum Erstellen eines Durchschnittswerts für das rollierende Fenster der Zielspalte verwendet werden.

Bei Vorhersagen stellt dieser Parameter n historische Zeiträume zum Generieren von vorhergesagten Werten dar, <= Größe des Trainingssatzes. Wenn nicht angegeben, ist n die vollständige Trainingsmenge. Geben Sie diesen Parameter an, wenn Sie beim Trainieren des Modells nur eine bestimmte Menge des Verlaufs beachten möchten. Wenn „auto“ festgelegt ist, wird das rollierende Fenster geschätzt und der letzte Wert verwendet, bei dem der PACF-Wert größer als der Signifikanzschwellenwert ist. Weitere Informationen finden Sie im Abschnitt zu „target_lags“.

country_or_region_for_holidays
Optional[str]

Das Land/die Region, das bzw. die zum Generieren von Feiertagfeatures verwendet wird. Dabei sollte es sich um den aus zwei Buchstaben bestehenden Länder-/Regionscode nach ISO 3166 handeln (z. B. „US“ oder „GB“).

use_stl

Konfigurieren der STL-Aufschlüsselung der Zeitreihen-Zielspalte. Für „use_stl“ sind drei Werte möglich: „None“ (Standardwert, keine STL-Aufschlüsselung), „season“ (nur die Saisonkomponente generieren) und „season_trend“ (sowohl Saison- als auch Trendkomponenten generieren).

seasonality
Optional[Union[int, str]

Festlegen der Saisonalität von Zeitreihen als ganzzahliges Vielfaches der Zeitreihenhäufigkeit. Wenn „auto“ festgelegt ist, wird die Saisonalität abgeleitet. Wenn „None“ festgelegt ist, wird davon ausgegangen, dass die Zeitreihe nicht saisonal ist, was „seasonality=1“ entspricht.

short_series_handling_config

Der Parameter definiert, wie kurze Zeitreihen beim automatisierten maschinellen Lernen verarbeitet werden.

Mögliche Werte: „auto“ (Standardwert), „pad“, „drop“ und „None“.

  • automatische kurze Reihen werden aufgefüllt, wenn keine langen Reihen vorhanden sind,

Andernfalls werden kurze Reihen gelöscht.

  • pad: alle kurzen Zeitreihen werden aufgefüllt.
  • drop: alle kurzen Zeitreihen werden abgelegt.
  • None: kurze Zeitreihen werden nicht geändert.

Wenn „pad“ festgelegt ist, wird die Tabelle mit den Nullen und leeren Werten für die Regressoren und Zufallswerten für das Ziel aufgefüllt, wobei der Mittelwert dem Median des Zielwerts für die angegebene Zeitreihen-ID entspricht. Wenn der Median größer oder gleich null (0) ist, wird der minimale aufgefüllte Wert durch null abgeschnitten. Eingabe:

Date

numeric_value

string

Ziel

2020-01-01

23

green

55

Ausgabe, wenn die Mindestanzahl von Werten 4 ist:

Date

numeric_value

string

Ziel

2019-12-29

0

Nicht verfügbar

55.1

2019-12-30

0

Nicht verfügbar

55.6

2019-12-31

0

Nicht verfügbar

54.5

2020-01-01

23

green

55

Hinweis: Wir haben zwei Parameter, short_series_handling_configuration und Legacy-short_series_handling. Wenn beide Parameter festgelegt sind, werden sie wie in der folgenden Tabelle dargestellt synchronisiert (short_series_handling_configuration und short_series_handling sind aus Gründen der Einfachheit als handling_configuration bzw. handling angegeben).

Handhabung

handlingconfiguration

Ergebnishandling

resulthandlingconfiguration

True

auto

True

auto

True

Pad

True

auto

True

drop

True

auto

True

Keine

False

Keine

False

auto

False

Keine

False

Pad

False

Keine

False

drop

False

Keine

False

Keine

False

Keine

frequency

Die Vorhersagehäufigkeit.

Bei Vorhersagen stellt dieser Parameter den Zeitraum dar, für den die Vorhersage erfolgen soll, z. B. täglich, wöchentlich, jährlich usw. Die Vorhersagehäufigkeit ist standardmäßig auf die Dataset-Häufigkeit festgelegt. Sie können sie optional auf einen größeren (aber nicht auf einen kleineren) Wert als die Dataset-Häufigkeit festlegen. Wir aggregieren die Daten und generieren die Ergebnisse mit der Vorhersagehäufigkeit. Für tägliche Daten können Sie die Häufigkeit beispielsweise auf täglich, wöchentlich oder monatlich festlegen, aber nicht auf stündlich. Die Häufigkeit muss ein Pandas-Offset-Alias sein. Weitere Informationen finden Sie in der Pandas-Dokumentation: https://pandas.pydata.org/pandas-docs/stable/user_guide/timeseries.html#dateoffset-objects

target_aggregate_function

Die Funktion zum Aggregieren der Zeitreihen-Zielspalte, um sie an eine benutzerdefinierte Häufigkeit anzupassen. Wenn die target_aggregation_function festgelegt ist, aber nicht der freq-Parameter, wird ein Fehler ausgelöst. Die möglichen Zielaggregationsfunktionen sind „sum“, „max“, „min“ und „mean“.

  • Die Zielspaltenwerte werden basierend auf dem angegebenen Vorgang aggregiert. „sum“ eignet sich für die meisten Szenarien.

  • Numerische Vorhersagespalten in den Daten werden nach Summe, Mittelwert, Minimalwert und Maximalwert aggregiert. Deshalb werden durch automatisiertes ML neue Spalten mit dem Namen der Aggregationsfunktion als Suffix erstellt und der ausgewählte Aggregationsvorgang angewendet.

  • Bei kategorischen Vorhersagespalten werden die Daten nach Modus aggregiert. Dies ist die auffälligste Kategorie im Fenster.

  • Datumsvorhersagespalten werden nach Minimalwert, Maximalwert und Modus aggregiert.

Freq

target_aggregation_function

Data RegularityFixing-Mechanismus

Keine (Standard)

Keine (Standard)

Die Aggregation wird nicht angewendet. Wenn die Gültigkeitsfähigkeit nicht bestimmt werden kann, wird der Fehler ausgelöst.

Einige Werte

Keine (Standard)

Die Aggregation wird nicht angewendet. Wenn die Anzahl der Datenpunktekonformität mit der häufigkeitsgefälscht ist, werden diese Punkte um 90 % beremoviert, andernfalls wird der Fehler ausgelöst.

Keine (Standard)

Aggregationsfunktion

Der Fehler beimMissingfrequencyparameter ist dargestellt.

Einige Werte

Aggregationsfunktion

Aggregieren Sie die Tofrequenz mithilfe derprovidedaggregationfunction.

cv_step_size
Optional[int]

Die Anzahl von Zeiträumen zwischen der „origin_time“ eines Kreuzvalidierungsfolds und dem nächsten Fold. Wenn für tägliche Daten beispielsweise n_step = 3 ist, liegt die Ursprungszeit für jeden Fold drei Tage auseinander.

features_unknown_at_forecast_time
Optional[Union[str, List[str]]]

Die Featurespalten, die für das Training verfügbar sind, aber zum Zeitpunkt der Vorhersage/Rückschlüsse unbekannt sind. Wenn features_unknown_at_forecast_time auf eine leere Liste festgelegt ist, wird davon ausgegangen, dass alle Featurespalten im Dataset zum Rückschlusszeitpunkt bekannt sind. Wenn dieser Parameter nicht festgelegt ist, wird die Unterstützung für zukünftige Features nicht aktiviert.

Ausnahmen

Wird ausgelöst, wenn dest ein Dateipfad ist und die Datei bereits vorhanden ist.

Wird ausgelöst, wenn dest eine geöffnete Datei ist und die Datei nicht beschreibbar ist.

set_limits

Legen Sie Grenzwerte für den Auftrag fest.

set_limits(*, enable_early_termination: bool | None = None, exit_score: float | None = None, max_concurrent_trials: int | None = None, max_cores_per_trial: int | None = None, max_nodes: int | None = None, max_trials: int | None = None, timeout_minutes: int | None = None, trial_timeout_minutes: int | None = None) -> None

Parameter

enable_early_termination
Optional[bool]

Gibt an, ob eine vorzeitige Beendigung aktiviert werden soll, wenn sich die Bewertung nicht kurzfristig verbessert, wird standardmäßig Auf Keine festgelegt.

Logik zum frühzeitigen Beenden:

  • Kein frühzeitiges Beenden für die ersten 20 Iterationen (Orientierungspunkte).

  • Das Fenster für das frühzeitige Beenden startet bei der 21. Iteration und sucht nach early_stopping_n_iters-Iterationen

    (derzeit auf 10 festgelegt). Dies bedeutet, dass die erste Iteration, bei der das Beenden erfolgen kann, die 31. ist.

  • AutoML plant nach dem vorzeitigen Beenden weiterhin zwei Ensembleiterationen, was zu höheren Bewertungen führen kann.

  • Frühzeitiges Beenden wird ausgelöst, wenn der berechnete absolute Wert des besten Scores mit dem für vergangene

    early_stopping_n_iters-Iterationen identisch ist, das heißt, wenn es keine Verbesserung beim Score für early_stopping_n_iters-Iterationen gibt.

exit_score
Optional[float]

Der Zielscore für das Experiment. Das Experiment wird beendet, nachdem dieser Score erreicht wurde. Wenn keine Angabe erfolgt (keine Kriterien), wird das Experiment ausgeführt, bis kein weiterer Fortschritt bei der primären Metrik erzielt wird. Weitere Informationen zu Exitkriterien finden Sie in diesem Artikel , standardmäßig keine.

max_concurrent_trials
Optional[int]

Dies ist die maximale Anzahl von Iterationen, die parallel ausgeführt werden. Der Standardwert ist 1.

  • AmlCompute-Cluster unterstützen eine Iteration, die pro Knoten ausgeführt wird.

Für mehrere übergeordnete Ausführungen von AutoML-Experimenten, die auf einem einzelnen AmlCompute-Cluster parallel ausgeführt werden, sollte die Summe der max_concurrent_trials-Werte für alle Experimente kleiner oder gleich der maximalen Anzahl an Knoten sein. Andernfalls werden Ausführungen in die Warteschlange gestellt, bis Knoten verfügbar sind.

  • DSVM unterstützt mehrere Iterationen pro Knoten. max_concurrent_trials Sollten

kleiner oder gleich der Anzahl der Kerne auf dem DSVM sein. Für mehrere Experimente, die auf einer einzelnen DSVM parallel ausgeführt werden, sollte die Summe der max_concurrent_trials-Werte für alle Experimente kleiner oder gleich der maximalen Anzahl an Knoten sein.

  • Databricks: max_concurrent_trials sollte kleiner oder gleich der Anzahl von

Workerknoten in Databricks.

max_concurrent_trials gilt nicht für lokale Ausführungen. Der Name dieses Parameters lautete früher concurrent_iterations.

max_cores_per_trial
Optional[int]

Die maximale Anzahl von Threads, die für eine bestimmte Trainingsiteration verwendet werden sollen. Gültige Werte:

  • Größer als 1 und kleiner oder gleich der maximalen Anzahl von Kernen auf dem Computeziel.

  • Gleich -1, was bedeutet, dass alle möglichen Kerne pro Iteration pro untergeordneter Ausführung verwendet werden.

  • Gleich 1, der Standardwert.

max_nodes
Optional[int]

[Experimentell] Die maximale Anzahl von Knoten, die für verteiltes Training verwendet werden sollen.

  • Für die Prognose wird jedes Modell mithilfe von max(2, int(max_nodes/max_concurrent_trials)))-Knoten trainiert.

  • Für die Klassifizierung/Regression wird jedes Modell mit max_nodes Knoten trainiert.

Hinweis: Dieser Parameter befindet sich in der öffentlichen Vorschau und kann sich in Zukunft ändern.

max_trials
Optional[int]

Die Gesamtzahl der verschiedenen Algorithmus- und Parameterkombinationen, die während eines automatisierten ML-Experiments getestet werden sollen. Wenn keine Angabe erfolgt ist, lautet der Standardwert 1000 Iterationen.

timeout_minutes
Optional[int]

Maximal zulässige Dauer für alle Iterationen (in Minuten). Danach wird das Experiment beendet. Wenn keine Angabe erfolgt, beträgt das Standardtimeout für Experimente 6 Tage. Um ein Timeout von weniger als oder gleich 1 Stunde anzugeben, stellen Sie sicher, dass die Größe Ihres Datasets nicht größer als 10.000.000 (Zeilen mal Spalte) ist, oder dass ein Fehler auftritt, der standardmäßig auf Keine lautet.

trial_timeout_minutes
Optional[int]

Maximale Dauer in Minuten für jede Ausführung einer Iteration, bevor sie beendet wird. Wenn nicht angegeben, wird ein Wert von 1 Monat oder 43200 Minuten verwendet, standardmäßig keine.

Ausnahmen

Wird ausgelöst, wenn dest ein Dateipfad ist und die Datei bereits vorhanden ist.

Wird ausgelöst, wenn dest eine geöffnete Datei ist und die Datei nicht beschreibbar ist.

set_training

Die Methode zum Konfigurieren von Einstellungen für das Vorhersagetraining.

set_training(*, enable_onnx_compatible_models: bool | None = None, enable_dnn_training: bool | None = None, enable_model_explainability: bool | None = None, enable_stack_ensemble: bool | None = None, enable_vote_ensemble: bool | None = None, stack_ensemble_settings: StackEnsembleSettings | None = None, ensemble_model_download_timeout: int | None = None, allowed_training_algorithms: List[str] | None = None, blocked_training_algorithms: List[str] | None = None, training_mode: str | TrainingMode | None = None) -> None

Parameter

enable_onnx_compatible_models

Gibt an, ob das Erzwingen der ONNX-kompatiblen Modelle aktiviert oder deaktiviert werden soll. Die Standardeinstellung lautet „false“. Weitere Informationen zu Open Neural Network Exchange (ONNX) und Azure Machine Learning finden Sie in diesem Artikel.

enable_dnn_training
Optional[bool]

Gibt an, ob DNN-basierte Modelle bei der Modellauswahl eingeschlossen werden sollen. Für DNN-NLP-Aufgaben ist der Standardwert jedoch „True“ und für alle anderen Aufgaben des automatisierten maschinellen Lernens „False“.

enable_model_explainability

Gibt an, ob die Erläuterung des besten AutoML-Modells am Ende aller AutoML-Trainingsiterationen aktiviert werden soll. Weitere Informationen finden Sie unter Interpretierbarkeit: Modellerklärungen beim automatisierten maschinellen Lernen. , ist standardmäßig Keine.

enable_stack_ensemble

Gibt an, ob die StackEnsemble-Iteration aktiviert/deaktiviert werden soll. Wenn das Flag enable_onnx_compatible_models festgelegt wird, ist die StackEnsemble-Iteration deaktiviert. Analog dazu wird die StackEnsemble-Iteration für Timeseries-Aufgaben standardmäßig deaktiviert, um das Risiko einer Überanpassung aufgrund eines kleinen Trainingssatzes zu vermeiden, der für die Anpassung des Meta-Learners verwendet wird. Weitere Informationen zu Ensembles finden Sie unter Ensemblekonfiguration , Standardwerte auf Keine.

enable_vote_ensemble

Gibt an, ob die VotingEnsemble-Iteration aktiviert/deaktiviert werden soll. Weitere Informationen zu Ensembles finden Sie unter Ensemblekonfiguration , Standardwerte auf Keine.

stack_ensemble_settings
Optional[StackEnsembleSettings]

Einstellungen für Die StackEnsemble-Iteration, Standardwerte auf None

ensemble_model_download_timeout
Optional[int]

Während der VotingEnsemble- und StackEnsemble-Modellgeneration werden mehrere angepasste Modelle aus den vorherigen untergeordneten Ausführungen heruntergeladen. Konfigurieren Sie diesen Parameter mit einem höheren Wert als 300 Sekunden. Wenn mehr Zeit benötigt wird, wird standardmäßig Keine verwendet.

allowed_training_algorithms
Optional[List[str]]

Eine Liste der Modellnamen, in denen nach einem Experiment gesucht werden soll. Wenn nicht angegeben, werden alle für den Task unterstützten Modelle abzüglich aller angegebenen blocked_training_algorithms oder veralteten TensorFlow-Modelle verwendet. Standardwert ist Keine.

blocked_training_algorithms
Optional[List[str]]

Eine Liste von Algorithmen, die für ein Experiment ignoriert werden sollen, lautet standardmäßig Keine.

training_mode

[Experimentell] Der zu verwendende Trainingsmodus. Die möglichen Werte sind:

  • distributed– ermöglicht verteiltes Training für unterstützte Algorithmen.

  • non_distributed– deaktiviert verteiltes Training.

  • auto: Derzeit ist es identisch mit non_distributed. In Zukunft könnte sich dies ändern.

Hinweis: Dieser Parameter befindet sich in der öffentlichen Vorschau und kann sich in Zukunft ändern.

Ausnahmen

Wird ausgelöst, wenn dest ein Dateipfad ist und die Datei bereits vorhanden ist.

Wird ausgelöst, wenn dest eine geöffnete Datei ist und die Datei nicht beschreibbar ist.

Attribute

base_path

Der Basispfad der Ressource.

Gibt zurück

Der Basispfad der Ressource.

Rückgabetyp

str

creation_context

Der Erstellungskontext der Ressource.

Gibt zurück

Die Erstellungsmetadaten für die Ressource.

Rückgabetyp

featurization

Rufen Sie die Tabellarische Featurisierungseinstellungen für den AutoML-Auftrag ab.

Gibt zurück

Tabellarische Featurisierungseinstellungen für den AutoML-Auftrag

Rückgabetyp

forecasting_settings

Gibt die Vorhersageeinstellungen zurück.

Gibt zurück

Vorhersageeinstellungen.

Rückgabetyp

id

Die Ressourcen-ID.

Gibt zurück

Die globale ID der Ressource, eine Arm-ID (Azure Resource Manager).

Rückgabetyp

inputs

limits

Rufen Sie die tabellarischen Grenzwerte für den AutoML-Auftrag ab.

Gibt zurück

Tabellarische Grenzwerte für den AutoML-Auftrag

Rückgabetyp

log_files

Auftragsausgabedateien.

Gibt zurück

Das Wörterbuch der Protokollnamen und URLs.

Rückgabetyp

log_verbosity

Rufen Sie die Protokoll-Ausführlichkeit für den AutoML-Auftrag ab.

Gibt zurück

Protokoll-Ausführlichkeit für den AutoML-Auftrag

Rückgabetyp

<xref:LogVerbosity>

outputs

primary_metric

Gibt die primäre Metrik zurück, die für die Modellauswahl verwendet werden soll.

Gibt zurück

Die primäre Metrik für die Modellauswahl.

Rückgabetyp

status

Der Status des Auftrags.

Zu den häufig zurückgegebenen Werten zählen „Running“ (Wird ausgeführt), „Completed“ (Abgeschlossen) und „Failed“ (Fehlgeschlagen). Alle möglichen Werte sind:

  • NotStarted: Dies ist ein temporärer Zustand, in dem sich clientseitige Run-Objekte vor der Cloudübermittlung befinden.

  • Starting: Die Verarbeitung der Ausführung in der Cloud hat begonnen. Die aufrufende Funktion besitzt zu diesem Zeitpunkt eine Ausführungs-ID.

  • Bereitstellung: Bedarfsgesteuerte Computeerstellung wird für eine bestimmte Auftragsübermittlung erstellt.

  • Vorbereitung: Die Ausführungsumgebung wird vorbereitet und befindet sich in einer von zwei Phasen:

    • Docker-Imagebuild

    • Einrichten der Conda-Umgebung

  • Warteschlangen: Der Auftrag wird auf dem Computeziel in die Warteschlange gestellt. In BatchAI befindet sich der Auftrag beispielsweise in einer Warteschlange.

    während darauf gewartet wird, dass alle angeforderten Knoten bereit sind.

  • Ausführen: Der Auftrag wurde auf dem Computeziel ausgeführt.

  • Abschluss: Die Ausführung des Benutzercodes wurde abgeschlossen, und die Ausführung befindet sich in Nachverarbeitungsphasen.

  • CancelRequested: Für den Auftrag wurde ein Abbruch angefordert.

  • Abgeschlossen: Die Ausführung wurde erfolgreich abgeschlossen. Dies umfasst sowohl die Ausführung von Benutzercode als auch die Ausführung.

    Nachbearbeitungsphasen der Ausführung ein.

  • Failed: Die Ausführung ist fehlgeschlagen. In der Regel liefert die Eigenschaft „Error“ einer Ausführung Details zur Ursache.

  • Canceled: Folgt einer Abbruchanforderung und gibt an, dass die Ausführung jetzt erfolgreich abgebrochen wurde.

  • „NotResponding“ (Reagiert nicht): Für eine Ausführung, für die Heartbeats aktiviert ist, wurde vor Kurzem kein Heartbeat gesendet.

Gibt zurück

Status des Auftrags.

Rückgabetyp

studio_url

Azure ML Studio-Endpunkt.

Gibt zurück

Die URL der Auftragsdetailseite.

Rückgabetyp

task_type

Vorgangstyp abrufen.

Gibt zurück

Der Typ der auszuführenden Aufgabe. Mögliche Werte sind : "klassifizierung", "regression", "forecasting".

Rückgabetyp

str

test_data

Abrufen von Testdaten

Gibt zurück

Testen der Dateneingabe

Rückgabetyp

training

Gibt die Einstellungen für das Vorhersagetraining zurück.

Gibt zurück

Trainingseinstellungen.

Rückgabetyp

<xref:azure.ai.ml.automl.ForecastingTrainingSettings>

training_data

Abrufen von Trainingsdaten.

Gibt zurück

Eingabe von Trainingsdaten

Rückgabetyp

type

Der Typ des Auftrags.

Gibt zurück

Der Typ des Auftrags.

Rückgabetyp

validation_data

Abrufen von Validierungsdaten.

Gibt zurück

Eingabe von Validierungsdaten

Rückgabetyp