Trainieren von ML-Modellen mit der AutoML-Python-API für Azure Databricks
In diesem Artikel wird veranschaulicht, wie Sie ein Modell mit Azure Databricks AutoML mithilfe der API trainieren. Unter Was ist AutoML? erfahren Sie mehr. Die Python-API stellt Funktionen zum Starten von AutoML-Ausführungen zum Zweck der Klassifizierung, Regression und Prognose bereit. Jeder Funktionsaufruf trainiert eine Menge von Modellen und generiert ein Testnotebook für jedes Modell.
In den folgenden Schritten wird allgemein beschrieben, wie ein AutoML-Experiment mithilfe der API eingerichtet wird:
- Erstellen Sie ein Notebook und fügen Sie es einem Cluster an, auf dem Databricks Runtime ML ausgeführt wird.
- Identifizieren Sie, welche Tabelle Sie aus Ihrer vorhandenen Datenquelle verwenden möchten, oder laden Sie eine Datendatei in DBFS hoch, und erstellen Sie eine Tabelle.
- Um eine AutoML-Ausführung zu starten, übergeben Sie den Tabellennemen an die entsprechende API-Spezifikation: Klassifizierung, Regression oder Prognose.
- Wenn die AutoML-Ausführung beginnt, wird in der Konsole eine MLflow-Experiment-URL angezeigt. Verwenden Sie diese URL, um den Fortschritt der Ausführung zu überwachen. Aktualisieren Sie das MLflow-Experiment, um die Testversionen zu sehen, sobald sie abgeschlossen sind.
- Nach Abschluss der AutoML-Ausführung:
- Verwenden Sie die Links in der Ausgabezusammenfassung, um zum MLflow-Experiment oder zum Notebook zu navigieren, das die besten Ergebnisse generiert hat.
- Verwenden Sie den Link zum Notebook für das Durchsuchen von Daten, um Einblicke in die an AutoML übergebenen Daten zu erhalten. Sie können dieses Notebook auch an denselben Cluster anfügen und das Notebook erneut ausführen, um die Ergebnisse zu reproduzieren oder zusätzliche Datenanalysen durchzuführen.
- Verwenden Sie das Zusammenfassungsobjekt, das vom AutoML-Aufruf zurückgegeben wurde, um weitere Details zu den Testversionen zu erkunden oder ein Modell zu laden, das von einer bestimmten Testversion trainiert wurde. Erfahren Sie mehr über das Objekt AutoMLSummary.
- Klonen Sie alle generierten Notebooks aus den Testversionen und führen Sie das Notebook erneut aus, indem Sie es an denselben Cluster anfügen, um die Ergebnisse zu reproduzieren. Sie können auch die erforderlichen Änderungen vornehmen und sie erneut ausführen, um zusätzliche Modelle zu trainieren und sie für dasselbe Experiment zu protokollieren.
Anforderungen
Weitere Informationen finden Sie unter Anforderungen für AutoML-Experimente.
Klassifizierungsspezifikation
Im folgenden Codebeispiel wird eine AutoML-Ausführung zum Trainieren eines Klassifizierungsmodells konfiguriert. Weitere Parameter zum weiteren Anpassen der AutoML-Ausführung finden Sie unter Klassifizierungs- und Regressionsparameter.
Hinweis
Der Parameter max_trials
ist in Databricks Runtime 10.4 ML veraltet und wird in Databricks Runtime 11.0 ML und höher nicht unterstützt. Verwenden Sie timeout_minutes
, um die Dauer einer AutoML-Ausführung zu steuern.
databricks.automl.classify(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
data_dir: Optional[str] = None,
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
pos_label: Optional[Union[int, bool, str] = None, # <DBR> 11.1 ML and above
primary_metric: str = "f1",
time_col: Optional[str] = None,
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Regressionsspezifikation
Im folgenden Codebeispiel wird eine AutoML-Ausführung zum Trainieren eines Regressionsmodells konfiguriert. Weitere Parameter zum weiteren Anpassen der AutoML-Ausführung finden Sie unter Klassifizierungs- und Regressionsparameter.
Hinweis
Der Parameter max_trials
ist in Databricks Runtime 10.4 ML veraltet und wird in Databricks Runtime 11.0 ML und höher nicht unterstützt. Verwenden Sie timeout_minutes
, um die Dauer einer AutoML-Ausführung zu steuern.
databricks.automl.regress(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
data_dir: Optional[str] = None,
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
primary_metric: str = "r2",
time_col: Optional[str] = None,
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Prognosespezifikation
Im folgenden Codebeispiel wird eine AutoML-Ausführung zum Trainieren eines Prognosemodells konfiguriert. Weitere Informationen zu Parametern für die AutoML-Ausführung finden Sie unter Prognoseparameter. Um Auto-ARIMA verwenden zu können, muss die Zeitreihe eine reguläre Häufigkeit haben (d. h., das Intervall zwischen zwei beliebigen Punkten muss während der gesamten Zeitreihe identisch sein). Die Häufigkeit muss mit der im API-Aufruf angegebenen Einheit für Häufigkeit übereinstimmen. AutoML behandelt fehlende Zeitschritte, indem diese Werte mit dem vorherigen Wert aufgefüllt werden.
databricks.automl.forecast(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
time_col: str,
country_code: str = "US", # <DBR> 12.0 ML and above
data_dir: Optional[str] = None,
exclude_frameworks: Optional[List[str]] = None,
experiment_dir: Optional[str] = None,
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 12.2 LTS ML and above
frequency: str = "D",
horizon: int = 1,
identity_col: Optional[Union[str, List[str]]] = None,
output_database: Optional[str] = None, # <DBR> 10.5 ML and above
primary_metric: str = "smape",
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Klassifizierungs- und Regressionsparameter
Hinweis
Ausschließlich bei Klassifizierungs- und Regressionsproblemen haben Sie folgende Möglichkeiten:
- Angeben, welche Spalten in das Training einbezogen werden sollen
- Auswählen benutzerdefinierter Imputationsmethoden
Feldname | Typ | BESCHREIBUNG |
---|---|---|
dataset | str pandas.DataFrame pyspark.DataFrame pyspark.sql.DataFrame | Eingabetabellenname oder DataFrame, der Trainingsfeatures und das Ziel enthält. Der Tabellenname kann im Format „..“ oder „.“ vorliegen bei anderen Tabellen als Unity Catalog-Tabellen |
target_col | str | Spaltenname für die Zielbezeichnung. |
data_dir | str des Formatsdbfs:/<folder-name> |
(Optional) DBFS-Pfad zum Speichern des Trainingsdatasets. Dieser Pfad ist sowohl für Treiber- als auch für Workerknoten sichtbar. Databricks empfiehlt, dieses Feld leer zu lassen, damit automatisiertes ML das Trainingsdataset als MLflow-Artefakt speichern kann. Wenn ein benutzerdefinierter Pfad angegeben ist, erbt das Dataset die Zugriffsberechtigungen des AutoML-Experiments nicht. |
exclude_cols | List[str] | (Optional) Liste der Spalten, die bei AutoML-Berechnungen ignoriert werden sollen. Standardwert: [] |
exclude_ frameworks | List[str] | (Optional) Liste der Algorithmusframeworks, die AutoML bei der Entwicklung von Modellen nicht berücksichtigen sollte. Mögliche Werte: leere Liste oder mindestens eine der folgenden Werte: “sklearn”, “lightgbm”, “xgboost”. Standardwert: [] (alle Frameworks werden berücksichtigt) |
experiment_dir | str | (Optional) Pfad zum Verzeichnis im Arbeitsbereich, in dem die generierten Notebooks und Experimente gespeichert werden. Standard: /Users/<username>/databricks_automl/ |
experiment_name | str | (Optional) Name des MLflow-Experiments, das von AutoML erstellt wird. Standard: Der Name wird automatisch generiert. |
feature_store_lookups | List[Dict] | (Optional) Liste der Wörterbücher, die Features im Featurespeicher für die Datenerweiterung darstellen. Es folgen gültige Schlüssel in den einzelnen Verzeichnissen: * table_name (str): erforderlich. Name der Featuretabelle. * lookup_key (list oder str): erforderlich. Spaltennamen, die als Schlüssel verwendet werden sollen, wenn die Featuretabelle mit den im Parameter dataset übergebenen Daten verknüpft wird. Die Reihenfolge der Spaltennamen muss der Reihenfolge der Primärschlüssel der Featuretabelle entsprechen.* timestamp_lookup_key (str): erforderlich, wenn die angegebene Tabelle eine Zeitreihen-Featuretabelle ist. Der Spaltenname, der beim Ausführen einer Zeitpunktsuche in der Featuretabelle mit den im Parameter dataset übergebenen Daten verwendet werden soll.Standardwert: [] |
imputers | Dict[str, Union[str, Dict[str, Any]]] | (Optional) Wörterbuch, in dem jeder Schlüssel ein Spaltenname und jeder Wert eine Zeichenfolge oder ein Wörterbuch ist, das die Imputationsstrategie beschreibt. Bei Angabe als Zeichenfolge muss der Wert “mean”, “median” oder “most_frequent”. Um einen bekannten Wert zu imputieren, geben Sie den Wert als Wörterbuch an.{"strategy": "constant", "fill_value": <desired value>} . Sie können auch Zeichenfolgenoptionen als Wörterbücher angeben, z.B. {“strategy”: “mean”}.Wenn für eine Spalte keine Imputationsstrategie angegeben wird, wählt AutoML basierend auf Spaltentyp und Inhalt eine Standardstrategie aus. Wenn Sie eine nicht standardmäßige Imputationsmethode angeben, führt AutoML keine semantische Typerkennung durch. Standard: {} |
max_trials | int | (Optional) Maximale Anzahl der auszuführende Testversionen. Dieser Parameter ist in Databricks Runtime 10.5 ML und niedriger verfügbar, ist jedoch ab Databricks Runtime 10.3 ML veraltet. In Databricks Runtime 11.0 ML und höher wird dieser Parameter nicht unterstützt. Standard: 20 Wenn timeout_minutes=None ist, führt AutoML die maximale Anzahl von Testversionen aus. |
pos_label | Union[int, bool, str] | (Nur Klassifizierung) Die positive Klasse. Dies ist nützlich für die Berechnung von Metriken wie Genauigkeit und Abruf. Dies sollte nur für binäre Klassifizierungsprobleme angegeben werden. |
primary_metric | str | Metrik zum Auswerten und Bewerten der Modellleistung. Unterstützte Metriken für die Regression: “r2” (Standard), “mae”, “rmse”, “mse” Unterstützte Metriken für die Klassifizierung: “f1” (Standard), “log_loss”, “precision”, “accuracy”, “roc_auc” |
time_col | str | Verfügbar in Databricks Runtime 10.1 ML und höheren Versionen. (Optional) Spaltenname für eine Zeitspalte. Falls angegeben, versucht AutoML, das Dataset chronologisch in Trainings-, Validierungs- und Testmengen aufzuteilen, wobei die frühesten Punkte als Trainingsdaten und die neuesten Punkte als Testmenge verwendet werden. Akzeptierte Spaltentypen sind Zeitstempel und Integer. Mit Databricks Runtime 10.2 ML und höher werden auch Zeichenfolgenspalten unterstützt. Wenn der Spaltentyp eine Zeichenfolge ist, versucht AutoML, sie mithilfe der semantischen Erkennung in einen Zeitstempel zu konvertieren. Wenn die Konvertierung fehlschlägt, schlägt auch die AutoML-Ausführung fehl. |
timeout_minutes | int | (Optional) Maximale Wartezeit bis zum Abschluss von AutoML-Testversionen. Längere Timeouts ermöglichen es AutoML, mehr Testversionen auszuführen und ein Modell mit besserer Genauigkeit zu identifizieren. Standardwert: 120 Minuten Mindestwert: 5 Minuten Ein Fehler wird gemeldet, wenn das Timeout zu kurz ist, um mindestens eine Testversion abzuschließen. |
Prognoseparameter
Feldname | Typ | BESCHREIBUNG |
---|---|---|
dataset | str pandas.DataFrame pyspark.DataFrame pyspark.sql.DataFrame |
Eingabetabellenname oder DataFrame, der Trainingsfeatures und das Ziel enthält. Der Tabellenname kann im Format „..“ oder „.“ vorliegen bei anderen Tabellen als Unity Catalog-Tabellen |
target_col | str | Spaltenname für die Zielbezeichnung. |
time_col | str | Name der Zeitspalte für die Vorhersage. |
frequency | str | Häufigkeit der Zeitreihe für Vorhersagen. Dies ist der Zeitraum, in dem Ereignisse erwartet werden. Die Standardeinstellung ist „D“ oder tägliche Daten. Achten Sie darauf, die Einstellung zu ändern, wenn Ihre Daten eine andere Häufigkeit aufweisen. Mögliche Werte: “W” (weeks) “D” / “days” / “day” “hours” / “hour” / “hr” / “h” “m” / “minute” / “min” / “minutes” / “T” “S” / “seconds” / “sec” / “second” Folgendes ist nur mit Databricks Runtime 12.0 ML und höher verfügbar: „M“/„Monat“/“Monate“ „Q“/„Quartal“/„Quartale“ „Y“/„Jahr”/„Jahre” Standard: “D” |
horizon | int | Anzahl der Zeiträume in der Zukunft, für die Vorhersagen zurückgegeben werden sollen. Die Einheiten sind die Zeitreihenhäufigkeit. Standardwert: 1 |
data_dir | str des Formatsdbfs:/<folder-name> |
(Optional) DBFS-Pfad zum Speichern des Trainingsdatasets. Dieser Pfad ist sowohl für Treiber- als auch für Workerknoten sichtbar. Databricks empfiehlt, dieses Feld leer zu lassen, damit automatisiertes ML das Trainingsdataset als MLflow-Artefakt speichern kann. Wenn ein benutzerdefinierter Pfad angegeben ist, erbt das Dataset die Zugriffsberechtigungen des AutoML-Experiments nicht. |
exclude_ frameworks | List[str] | (Optional) Liste der Algorithmusframeworks, die AutoML bei der Entwicklung von Modellen nicht berücksichtigen sollte. Mögliche Werte: leere Liste oder mindestens eine der folgenden Werte: “prophet”, “arima”. Standardwert: [] (alle Frameworks werden berücksichtigt) |
experiment_dir | str | (Optional) Pfad zum Verzeichnis im Arbeitsbereich, in dem die generierten Notebooks und Experimente gespeichert werden. Standard: /Users/<username>/databricks_automl/ |
experiment_name | str | (Optional) Name des MLflow-Experiments, das von AutoML erstellt wird. Standard: Der Name wird automatisch generiert. |
feature_store_lookups | List[Dict] | (Optional) Liste der Wörterbücher, die Features im Featurespeicher für die Datenerweiterung darstellen. Es folgen gültige Schlüssel in den einzelnen Verzeichnissen: * table_name (str): erforderlich. Name der Featuretabelle. * lookup_key (list oder str): erforderlich. Spaltennamen, die als Schlüssel verwendet werden sollen, wenn die Featuretabelle mit den im Parameter dataset übergebenen Daten verknüpft wird. Die Reihenfolge der Spaltennamen muss der Reihenfolge der Primärschlüssel der Featuretabelle entsprechen.* timestamp_lookup_key (str): erforderlich, wenn die angegebene Tabelle eine Zeitreihen-Featuretabelle ist. Der Spaltenname, der beim Ausführen einer Zeitpunktsuche in der Featuretabelle mit den im Parameter dataset übergebenen Daten verwendet werden soll.Standardwert: [] |
identity_col | Union[str, list] | (Optional) Spalte(n) zur Identifizierung von Mehrreihen-Vorhersagen. AutoML gruppiert diese Spalte(n) und die Zeitspalte für die Vorhersage. |
output_database | str | (Optional) Sofern angegeben, speichert AutoML die Vorhersagen des besten Modells in einer neuen Tabelle in der angegebenen Datenbank. Standard: Vorhersagen werden nicht gespeichert. |
primary_metric | str | Metrik zum Auswerten und Bewerten der Modellleistung. Unterstützte Metriken: “smape”(Standardwert) “mse”, “rmse”, “mae” oder “mdape”. |
timeout_minutes | int | (Optional) Maximale Wartezeit bis zum Abschluss von AutoML-Testversionen. Längere Timeouts ermöglichen es AutoML, mehr Testversionen auszuführen und ein Modell mit besserer Genauigkeit zu identifizieren. Standardwert: 120 Minuten Mindestwert: 5 Minuten Ein Fehler wird gemeldet, wenn das Timeout zu kurz ist, um mindestens eine Testversion abzuschließen. |
country_code | str | Verfügbar in Databricks Runtime 12.0 ML und höher. Wird nur vom Vorhersagemodell Prophet unterstützt. (Optional) Die zweistellige Landeskennzahl, die angibt, welche Feiertage des Landes im Vorhersagemodell berücksichtigt werden sollen. Um Feiertage zu ignorieren, legen Sie diesen Parameter auf eine leere Zeichenfolge ("") fest. Unterstützte Länder. Standardeinstellung: USA (Feiertage in den USA). |
Rückgaben
AutoMLSummary
Zusammenfassungsobjekt für eine AutoML-Ausführung, die die Metriken, Parameter und andere Details für die einzelnen Testversionen beschreibt. Sie verwenden dieses Objekt auch, um das von einer bestimmten Testversion trainierte Modell zu laden.
Eigenschaft | Typ | BESCHREIBUNG |
---|---|---|
experiment | mlflow.entities.Experiment | Das MLflow-Experiment, das zum Protokollieren der Testversionen verwendet wird. |
trials | List[TrialInfo] | Eine Liste mit Informationen zu allen ausgeführten Testversionen. |
best_trial | TrialInfo | Informationen zur Testversion, die zur besten gewichteten Bewertung für die primäre Metrik führte. |
metric_distribution | str | Die Verteilung der gewichteten Bewertungen für die primäre Metrik über Testversionen hinweg. |
output_table_name | str | Wird nur bei Vorhersagen verwendet und nur, wenn output_database bereitgestellt wird. Name der Tabelle in output_database, die die Vorhersagen des Modells enthält. |
TrialInfo
Zusammenfassungsobjekt für jede einzelne Testversion.
Eigenschaft | Typ | BESCHREIBUNG |
---|---|---|
notebook_path | Optional[str] | Der Pfad zum generierten Notebook für diese Testversion im Arbeitsbereich. Bei der Klassifizierung und Regression wird dieser Wert nur für den besten Testlauf festgelegt, während bei allen anderen Testläufen der Wert auf None festgelegt wird. Bei der Prognose ist dieser Wert für alle Testläufe vorhanden. |
notebook_url | Optional[str] | Die URL des generierten Notebooks für diese Testversion. Bei der Klassifizierung und Regression wird dieser Wert nur für den besten Testlauf festgelegt, während bei allen anderen Testläufen der Wert auf None festgelegt wird. Bei der Prognose ist dieser Wert für alle Testläufe vorhanden. |
artifact_uri | Optional[str] | Der MLflow-Artefakt-URI für das generierte Notebook. |
mlflow_run_id | str | Die MLflow-Ausführungs-ID, die dieser Testversion zugeordnet ist. |
metrics | Dict[str, float] | Die in MLflow für diese Testversion protokollierten Metriken. |
params | Dict[str, str] | Die in MLflow protokollierten Parameter, die für diese Testversion verwendet wurden. |
model_path | str | Die MLflow-Artefakt-URL des Modells, das in dieser Testversion trainiert wurde. |
model_description | str | Kurze Beschreibung des Modells und der Hyperparameter, die zum Trainieren dieses Modells verwendet werden. |
duration | str | Dauer des Trainings in Minuten. |
preprocessors | str | Beschreibung der vor dem Trainieren des Modells ausgeführten Präprozessoren. |
evaluation_metric_score | float | Score der primären Metrik, ausgewertet für das Validierungs-Dataset. |
Methode | BESCHREIBUNG |
---|---|
load_model() | Laden Sie das in dieser Testversion generierte Modell, das als MLflow-Artefakt protokolliert wird. |
Importieren eines Notebooks
Um ein Notebook zu importieren, das als MLflow-Artefakt gespeichert wurde, verwenden Sie die Python-API databricks.automl.import_notebook
.
def import_notebook(artifact_uri: str, path: str, overwrite: bool = False) -> ImportNotebookResult:
"""
Import a trial notebook, saved as an MLflow artifact, into the workspace.
:param artifact_uri: The URI of the MLflow artifact that contains the trial notebook.
:param path: The path in the Databricks workspace where the notebook should be imported. This must be an absolute path. The directory will be created if it does not exist.
:param overwrite: Whether to overwrite the notebook if it already exists. It is `False` by default.
:return: ImportNotebookResult contains two fields, `path` and `url`, referring to the imported notebook
"""
Ein Verwendungsbeispiel:
summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)
Registrieren und Bereitstellen eines Modells
Sie können Ihr AutoML-trainiertes Modell wie jedes registrierte Modell in der MLflow-Modellregistry registrieren und bereitstellen. Weitere Informationen finden Sie unter Protokollieren, Laden, Registrieren und Bereitstellen von MLflow-Modellen.
Kein Modul mit dem Namen „pandas.core.indexes.numeric
Wenn Sie ein Modell bereitstellen, das mithilfe von automatisiertem ML mit Model Serving erstellt wurde, erhalten Sie möglicherweise den Fehler: No module named 'pandas.core.indexes.numeric
.
Dies ist auf eine inkompatible pandas
-Version zwischen automatisiertes ML und der Endpunktumgebung der Modellbereitstellung zurückzuführen. Sie können diesen Fehler beheben, indem Sie das Skript „add-pandas-dependency.py“ ausführen. Das Skript bearbeitet die requirements.txt
und conda.yaml
für Ihr protokolliertes Modell so, dass die entsprechende pandas
-Abhängigkeitsversion enthalten ist: pandas==1.5.3
.
- Ändern Sie das Skript so, dass es die
run_id
der MLflow-Ausführung einschließt, in der Ihr Modell protokolliert wurde. - Erneutes Registrieren des Modells in der MLflow-Modellregistrierung.
- Versuchen Sie, die neue Version des MLflow-Modells bereitzustellen.
Notebook-Beispiele
Sehen Sie sich diese Notebooks an, um mit AutoML zu beginnen.
Im folgenden Notebook wird gezeigt, wie Sie die Klassifizierung mit AutoML durchführen.
Beispielnotebook für die AutoML-Klassifizierung
Im folgenden Notebook wird gezeigt, wie Sie eine Regression mit AutoML durchführen.
Beispielnotebook für die AutoML-Regression
Im folgenden Notebook wird gezeigt, wie Sie Vorhersagen mit AutoML durchführen.
Beispielnotebook für die AutoML-Vorhersage
Im folgenden Notebook wird gezeigt, wie Sie ein ML-Modell mit AutoML- und Featurespeicher-Featuretabellen trainieren.