Trainieren von ML-Modellen mit der AutoML-Python-API für Azure Databricks

In diesem Artikel wird veranschaulicht, wie Sie ein Modell mit Azure Databricks AutoML mithilfe der API trainieren. Unter Was ist AutoML? erfahren Sie mehr. Die Python-API stellt Funktionen zum Starten von AutoML-Ausführungen zum Zweck der Klassifizierung, Regression und Prognose bereit. Jeder Funktionsaufruf trainiert eine Menge von Modellen und generiert ein Testnotebook für jedes Modell.

In den folgenden Schritten wird allgemein beschrieben, wie ein AutoML-Experiment mithilfe der API eingerichtet wird:

  1. Erstellen Sie ein Notebook und fügen Sie es einem Cluster an, auf dem Databricks Runtime ML ausgeführt wird.
  2. Identifizieren Sie, welche Tabelle Sie aus Ihrer vorhandenen Datenquelle verwenden möchten, oder laden Sie eine Datendatei in DBFS hoch, und erstellen Sie eine Tabelle.
  3. Um eine AutoML-Ausführung zu starten, übergeben Sie den Tabellennemen an die entsprechende API-Spezifikation: Klassifizierung, Regression oder Prognose.
  4. Wenn die AutoML-Ausführung beginnt, wird in der Konsole eine MLflow-Experiment-URL angezeigt. Verwenden Sie diese URL, um den Fortschritt der Ausführung zu überwachen. Aktualisieren Sie das MLflow-Experiment, um die Testversionen zu sehen, sobald sie abgeschlossen sind.
  5. Nach Abschluss der AutoML-Ausführung:
    • Verwenden Sie die Links in der Ausgabezusammenfassung, um zum MLflow-Experiment oder zum Notebook zu navigieren, das die besten Ergebnisse generiert hat.
    • Verwenden Sie den Link zum Notebook für das Durchsuchen von Daten, um Einblicke in die an AutoML übergebenen Daten zu erhalten. Sie können dieses Notebook auch an denselben Cluster anfügen und das Notebook erneut ausführen, um die Ergebnisse zu reproduzieren oder zusätzliche Datenanalysen durchzuführen.
    • Verwenden Sie das Zusammenfassungsobjekt, das vom AutoML-Aufruf zurückgegeben wurde, um weitere Details zu den Testversionen zu erkunden oder ein Modell zu laden, das von einer bestimmten Testversion trainiert wurde. Erfahren Sie mehr über das Objekt AutoMLSummary.
    • Klonen Sie alle generierten Notebooks aus den Testversionen und führen Sie das Notebook erneut aus, indem Sie es an denselben Cluster anfügen, um die Ergebnisse zu reproduzieren. Sie können auch die erforderlichen Änderungen vornehmen und sie erneut ausführen, um zusätzliche Modelle zu trainieren und sie für dasselbe Experiment zu protokollieren.

Anforderungen

Weitere Informationen finden Sie unter Anforderungen für AutoML-Experimente.

Klassifizierungsspezifikation

Im folgenden Codebeispiel wird eine AutoML-Ausführung zum Trainieren eines Klassifizierungsmodells konfiguriert. Weitere Parameter zum weiteren Anpassen der AutoML-Ausführung finden Sie unter Klassifizierungs- und Regressionsparameter.

Hinweis

Der Parameter max_trials ist in Databricks Runtime 10.4 ML veraltet und wird in Databricks Runtime 11.0 ML und höher nicht unterstützt. Verwenden Sie timeout_minutes, um die Dauer einer AutoML-Ausführung zu steuern.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  data_dir: Optional[str] = None,
  exclude_cols: Optional[List[str]] = None,                      # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  pos_label: Optional[Union[int, bool, str] = None,                 # <DBR> 11.1 ML and above
  primary_metric: str = "f1",
  time_col: Optional[str] = None,
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Regressionsspezifikation

Im folgenden Codebeispiel wird eine AutoML-Ausführung zum Trainieren eines Regressionsmodells konfiguriert. Weitere Parameter zum weiteren Anpassen der AutoML-Ausführung finden Sie unter Klassifizierungs- und Regressionsparameter.

Hinweis

Der Parameter max_trials ist in Databricks Runtime 10.4 ML veraltet und wird in Databricks Runtime 11.0 ML und höher nicht unterstützt. Verwenden Sie timeout_minutes, um die Dauer einer AutoML-Ausführung zu steuern.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  data_dir: Optional[str] = None,
  exclude_cols: Optional[List[str]] = None,                      # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  primary_metric: str = "r2",
  time_col: Optional[str] = None,
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Prognosespezifikation

Im folgenden Codebeispiel wird eine AutoML-Ausführung zum Trainieren eines Prognosemodells konfiguriert. Weitere Informationen zu Parametern für die AutoML-Ausführung finden Sie unter Prognoseparameter. Um Auto-ARIMA verwenden zu können, muss die Zeitreihe eine reguläre Häufigkeit haben (d. h., das Intervall zwischen zwei beliebigen Punkten muss während der gesamten Zeitreihe identisch sein). Die Häufigkeit muss mit der im API-Aufruf angegebenen Einheit für Häufigkeit übereinstimmen. AutoML behandelt fehlende Zeitschritte, indem diese Werte mit dem vorherigen Wert aufgefüllt werden.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  data_dir: Optional[str] = None,
  exclude_frameworks: Optional[List[str]] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  frequency: str = "D",
  horizon: int = 1,
  identity_col: Optional[Union[str, List[str]]] = None,
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  primary_metric: str = "smape",
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Klassifizierungs- und Regressionsparameter

Hinweis

Ausschließlich bei Klassifizierungs- und Regressionsproblemen haben Sie folgende Möglichkeiten:

  • Angeben, welche Spalten in das Training einbezogen werden sollen
  • Auswählen benutzerdefinierter Imputationsmethoden
Feldname Typ BESCHREIBUNG
dataset str pandas.DataFrame pyspark.DataFrame pyspark.sql.DataFrame Eingabetabellenname oder DataFrame, der Trainingsfeatures und das Ziel enthält.

Der Tabellenname kann im Format „..“ oder „.“ vorliegen bei anderen Tabellen als Unity Catalog-Tabellen
target_col str Spaltenname für die Zielbezeichnung.
data_dir str des Formats
dbfs:/<folder-name>
(Optional) DBFS-Pfad zum Speichern des Trainingsdatasets. Dieser Pfad ist sowohl für Treiber- als auch für Workerknoten sichtbar.

Databricks empfiehlt, dieses Feld leer zu lassen, damit automatisiertes ML das Trainingsdataset als MLflow-Artefakt speichern kann.

Wenn ein benutzerdefinierter Pfad angegeben ist, erbt das Dataset die Zugriffsberechtigungen des AutoML-Experiments nicht.
exclude_cols List[str] (Optional) Liste der Spalten, die bei AutoML-Berechnungen ignoriert werden sollen.

Standardwert: []
exclude_ frameworks List[str] (Optional) Liste der Algorithmusframeworks, die AutoML bei der Entwicklung von Modellen nicht berücksichtigen sollte. Mögliche Werte: leere Liste oder mindestens eine der folgenden Werte: “sklearn”, “lightgbm”, “xgboost”.

Standardwert: [] (alle Frameworks werden berücksichtigt)
experiment_dir str (Optional) Pfad zum Verzeichnis im Arbeitsbereich, in dem die generierten Notebooks und Experimente gespeichert werden.

Standard: /Users/<username>/databricks_automl/
experiment_name str (Optional) Name des MLflow-Experiments, das von AutoML erstellt wird.

Standard: Der Name wird automatisch generiert.
feature_store_lookups List[Dict] (Optional) Liste der Wörterbücher, die Features im Featurespeicher für die Datenerweiterung darstellen. Es folgen gültige Schlüssel in den einzelnen Verzeichnissen:

* table_name (str): erforderlich. Name der Featuretabelle.
* lookup_key (list oder str): erforderlich. Spaltennamen, die als Schlüssel verwendet werden sollen, wenn die Featuretabelle mit den im
Parameter dataset übergebenen Daten verknüpft wird. Die Reihenfolge der Spaltennamen muss der Reihenfolge der Primärschlüssel der Featuretabelle entsprechen.
* timestamp_lookup_key (str): erforderlich, wenn die angegebene Tabelle eine Zeitreihen-Featuretabelle ist. Der Spaltenname, der beim Ausführen einer Zeitpunktsuche in der Featuretabelle mit den im Parameter dataset übergebenen Daten verwendet werden soll.

Standardwert: []
imputers Dict[str, Union[str, Dict[str, Any]]] (Optional) Wörterbuch, in dem jeder Schlüssel ein Spaltenname und jeder Wert eine Zeichenfolge oder ein Wörterbuch ist, das die Imputationsstrategie beschreibt. Bei Angabe als Zeichenfolge muss der Wert “mean”, “median” oder “most_frequent”. Um einen bekannten Wert zu imputieren, geben Sie den Wert als Wörterbuch an.
{"strategy": "constant", "fill_value": <desired value>}. Sie können auch Zeichenfolgenoptionen als Wörterbücher angeben, z.B. {“strategy”: “mean”}.

Wenn für eine Spalte keine Imputationsstrategie angegeben wird, wählt AutoML basierend auf Spaltentyp und Inhalt eine Standardstrategie aus. Wenn Sie eine nicht standardmäßige Imputationsmethode angeben, führt AutoML keine semantische Typerkennung durch.

Standard: {}
max_trials int (Optional) Maximale Anzahl der auszuführende Testversionen.

Dieser Parameter ist in Databricks Runtime 10.5 ML und niedriger verfügbar, ist jedoch ab Databricks Runtime 10.3 ML veraltet. In Databricks Runtime 11.0 ML und höher wird dieser Parameter nicht unterstützt.

Standard: 20

Wenn timeout_minutes=None ist, führt AutoML die maximale Anzahl von Testversionen aus.
pos_label Union[int, bool, str] (Nur Klassifizierung) Die positive Klasse. Dies ist nützlich für die Berechnung von Metriken wie Genauigkeit und Abruf. Dies sollte nur für binäre Klassifizierungsprobleme angegeben werden.
primary_metric str Metrik zum Auswerten und Bewerten der Modellleistung.

Unterstützte Metriken für die Regression: “r2” (Standard), “mae”, “rmse”, “mse”

Unterstützte Metriken für die Klassifizierung: “f1” (Standard), “log_loss”, “precision”, “accuracy”, “roc_auc”
time_col str Verfügbar in Databricks Runtime 10.1 ML und höheren Versionen.

(Optional) Spaltenname für eine Zeitspalte.

Falls angegeben, versucht AutoML, das Dataset chronologisch in Trainings-, Validierungs- und Testmengen aufzuteilen, wobei die frühesten Punkte als Trainingsdaten und die neuesten Punkte als Testmenge verwendet werden.

Akzeptierte Spaltentypen sind Zeitstempel und Integer. Mit Databricks Runtime 10.2 ML und höher werden auch Zeichenfolgenspalten unterstützt. Wenn der Spaltentyp eine Zeichenfolge ist, versucht AutoML, sie mithilfe der semantischen Erkennung in einen Zeitstempel zu konvertieren. Wenn die Konvertierung fehlschlägt, schlägt auch die AutoML-Ausführung fehl.
timeout_minutes int (Optional) Maximale Wartezeit bis zum Abschluss von AutoML-Testversionen. Längere Timeouts ermöglichen es AutoML, mehr Testversionen auszuführen und ein Modell mit besserer Genauigkeit zu identifizieren.

Standardwert: 120 Minuten

Mindestwert: 5 Minuten

Ein Fehler wird gemeldet, wenn das Timeout zu kurz ist, um mindestens eine Testversion abzuschließen.

Prognoseparameter

Feldname Typ BESCHREIBUNG
dataset str

pandas.DataFrame pyspark.DataFrame pyspark.sql.DataFrame
Eingabetabellenname oder DataFrame, der Trainingsfeatures und das Ziel enthält.

Der Tabellenname kann im Format „..“ oder „.“ vorliegen bei anderen Tabellen als Unity Catalog-Tabellen
target_col str Spaltenname für die Zielbezeichnung.
time_col str Name der Zeitspalte für die Vorhersage.
frequency str Häufigkeit der Zeitreihe für Vorhersagen. Dies ist der Zeitraum, in dem Ereignisse erwartet werden. Die Standardeinstellung ist „D“ oder tägliche Daten. Achten Sie darauf, die Einstellung zu ändern, wenn Ihre Daten eine andere Häufigkeit aufweisen.

Mögliche Werte:

“W” (weeks)

“D” / “days” / “day”

“hours” / “hour” / “hr” / “h”

“m” / “minute” / “min” / “minutes” / “T”

“S” / “seconds” / “sec” / “second”

Folgendes ist nur mit Databricks Runtime 12.0 ML und höher verfügbar:

„M“/„Monat“/“Monate“

„Q“/„Quartal“/„Quartale“

„Y“/„Jahr”/„Jahre”

Standard: “D”
horizon int Anzahl der Zeiträume in der Zukunft, für die Vorhersagen zurückgegeben werden sollen. Die Einheiten sind die Zeitreihenhäufigkeit. Standardwert: 1
data_dir str des Formats
dbfs:/<folder-name>
(Optional) DBFS-Pfad zum Speichern des Trainingsdatasets. Dieser Pfad ist sowohl für Treiber- als auch für Workerknoten sichtbar.

Databricks empfiehlt, dieses Feld leer zu lassen, damit automatisiertes ML das Trainingsdataset als MLflow-Artefakt speichern kann.

Wenn ein benutzerdefinierter Pfad angegeben ist, erbt das Dataset die Zugriffsberechtigungen des AutoML-Experiments nicht.
exclude_ frameworks List[str] (Optional) Liste der Algorithmusframeworks, die AutoML bei der Entwicklung von Modellen nicht berücksichtigen sollte. Mögliche Werte: leere Liste oder mindestens eine der folgenden Werte: “prophet”, “arima”. Standardwert: [] (alle Frameworks werden berücksichtigt)
experiment_dir str (Optional) Pfad zum Verzeichnis im Arbeitsbereich, in dem die generierten Notebooks und Experimente gespeichert werden.

Standard: /Users/<username>/databricks_automl/
experiment_name str (Optional) Name des MLflow-Experiments, das von AutoML erstellt wird.

Standard: Der Name wird automatisch generiert.
feature_store_lookups List[Dict] (Optional) Liste der Wörterbücher, die Features im Featurespeicher für die Datenerweiterung darstellen. Es folgen gültige Schlüssel in den einzelnen Verzeichnissen:

* table_name (str): erforderlich. Name der Featuretabelle.
* lookup_key (list oder str): erforderlich. Spaltennamen, die als Schlüssel verwendet werden sollen, wenn die Featuretabelle mit den im
Parameter dataset übergebenen Daten verknüpft wird. Die Reihenfolge der Spaltennamen muss der Reihenfolge der Primärschlüssel der Featuretabelle entsprechen.
* timestamp_lookup_key (str): erforderlich, wenn die angegebene Tabelle eine Zeitreihen-Featuretabelle ist. Der Spaltenname, der beim Ausführen einer Zeitpunktsuche in der Featuretabelle mit den im Parameter dataset übergebenen Daten verwendet werden soll.

Standardwert: []
identity_col Union[str, list] (Optional) Spalte(n) zur Identifizierung von Mehrreihen-Vorhersagen. AutoML gruppiert diese Spalte(n) und die Zeitspalte für die Vorhersage.
output_database str (Optional) Sofern angegeben, speichert AutoML die Vorhersagen des besten Modells in einer neuen Tabelle in der angegebenen Datenbank.

Standard: Vorhersagen werden nicht gespeichert.
primary_metric str Metrik zum Auswerten und Bewerten der Modellleistung. Unterstützte Metriken: “smape”(Standardwert) “mse”, “rmse”, “mae” oder “mdape”.
timeout_minutes int (Optional) Maximale Wartezeit bis zum Abschluss von AutoML-Testversionen. Längere Timeouts ermöglichen es AutoML, mehr Testversionen auszuführen und ein Modell mit besserer Genauigkeit zu identifizieren.

Standardwert: 120 Minuten

Mindestwert: 5 Minuten

Ein Fehler wird gemeldet, wenn das Timeout zu kurz ist, um mindestens eine Testversion abzuschließen.
country_code str Verfügbar in Databricks Runtime 12.0 ML und höher. Wird nur vom Vorhersagemodell Prophet unterstützt.

(Optional) Die zweistellige Landeskennzahl, die angibt, welche Feiertage des Landes im Vorhersagemodell berücksichtigt werden sollen. Um Feiertage zu ignorieren, legen Sie diesen Parameter auf eine leere Zeichenfolge ("") fest. Unterstützte Länder.

Standardeinstellung: USA (Feiertage in den USA).

Rückgaben

AutoMLSummary

Zusammenfassungsobjekt für eine AutoML-Ausführung, die die Metriken, Parameter und andere Details für die einzelnen Testversionen beschreibt. Sie verwenden dieses Objekt auch, um das von einer bestimmten Testversion trainierte Modell zu laden.

Eigenschaft Typ BESCHREIBUNG
experiment mlflow.entities.Experiment Das MLflow-Experiment, das zum Protokollieren der Testversionen verwendet wird.
trials List[TrialInfo] Eine Liste mit Informationen zu allen ausgeführten Testversionen.
best_trial TrialInfo Informationen zur Testversion, die zur besten gewichteten Bewertung für die primäre Metrik führte.
metric_distribution str Die Verteilung der gewichteten Bewertungen für die primäre Metrik über Testversionen hinweg.
output_table_name str Wird nur bei Vorhersagen verwendet und nur, wenn output_database bereitgestellt wird. Name der Tabelle in output_database, die die Vorhersagen des Modells enthält.

TrialInfo

Zusammenfassungsobjekt für jede einzelne Testversion.

Eigenschaft Typ BESCHREIBUNG
notebook_path Optional[str] Der Pfad zum generierten Notebook für diese Testversion im Arbeitsbereich. Bei der Klassifizierung und Regression wird dieser Wert nur für den besten Testlauf festgelegt, während bei allen anderen Testläufen der Wert auf None festgelegt wird. Bei der Prognose ist dieser Wert für alle Testläufe vorhanden.
notebook_url Optional[str] Die URL des generierten Notebooks für diese Testversion. Bei der Klassifizierung und Regression wird dieser Wert nur für den besten Testlauf festgelegt, während bei allen anderen Testläufen der Wert auf None festgelegt wird. Bei der Prognose ist dieser Wert für alle Testläufe vorhanden.
artifact_uri Optional[str] Der MLflow-Artefakt-URI für das generierte Notebook.
mlflow_run_id str Die MLflow-Ausführungs-ID, die dieser Testversion zugeordnet ist.
metrics Dict[str, float] Die in MLflow für diese Testversion protokollierten Metriken.
params Dict[str, str] Die in MLflow protokollierten Parameter, die für diese Testversion verwendet wurden.
model_path str Die MLflow-Artefakt-URL des Modells, das in dieser Testversion trainiert wurde.
model_description str Kurze Beschreibung des Modells und der Hyperparameter, die zum Trainieren dieses Modells verwendet werden.
duration str Dauer des Trainings in Minuten.
preprocessors str Beschreibung der vor dem Trainieren des Modells ausgeführten Präprozessoren.
evaluation_metric_score float Score der primären Metrik, ausgewertet für das Validierungs-Dataset.
Methode BESCHREIBUNG
load_model() Laden Sie das in dieser Testversion generierte Modell, das als MLflow-Artefakt protokolliert wird.

Importieren eines Notebooks

Um ein Notebook zu importieren, das als MLflow-Artefakt gespeichert wurde, verwenden Sie die Python-API databricks.automl.import_notebook.

def import_notebook(artifact_uri: str, path: str, overwrite: bool = False) -> ImportNotebookResult:
    """
    Import a trial notebook, saved as an MLflow artifact, into the workspace.

    :param artifact_uri: The URI of the MLflow artifact that contains the trial notebook.
    :param path: The path in the Databricks workspace where the notebook should be imported. This must be an absolute path. The directory will be created if it does not exist.
    :param overwrite: Whether to overwrite the notebook if it already exists. It is `False` by default.

    :return: ImportNotebookResult contains two fields, `path` and `url`, referring to the imported notebook
    """

Ein Verwendungsbeispiel:

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

Registrieren und Bereitstellen eines Modells

Sie können Ihr AutoML-trainiertes Modell wie jedes registrierte Modell in der MLflow-Modellregistry registrieren und bereitstellen. Weitere Informationen finden Sie unter Protokollieren, Laden, Registrieren und Bereitstellen von MLflow-Modellen.

Kein Modul mit dem Namen „pandas.core.indexes.numeric

Wenn Sie ein Modell bereitstellen, das mithilfe von automatisiertem ML mit Model Serving erstellt wurde, erhalten Sie möglicherweise den Fehler: No module named 'pandas.core.indexes.numeric.

Dies ist auf eine inkompatible pandas-Version zwischen automatisiertes ML und der Endpunktumgebung der Modellbereitstellung zurückzuführen. Sie können diesen Fehler beheben, indem Sie das Skript „add-pandas-dependency.py“ ausführen. Das Skript bearbeitet die requirements.txt und conda.yaml für Ihr protokolliertes Modell so, dass die entsprechende pandas-Abhängigkeitsversion enthalten ist: pandas==1.5.3.

  1. Ändern Sie das Skript so, dass es die run_id der MLflow-Ausführung einschließt, in der Ihr Modell protokolliert wurde.
  2. Erneutes Registrieren des Modells in der MLflow-Modellregistrierung.
  3. Versuchen Sie, die neue Version des MLflow-Modells bereitzustellen.

Notebook-Beispiele

Sehen Sie sich diese Notebooks an, um mit AutoML zu beginnen.

Im folgenden Notebook wird gezeigt, wie Sie die Klassifizierung mit AutoML durchführen.

Beispielnotebook für die AutoML-Klassifizierung

Notebook abrufen

Im folgenden Notebook wird gezeigt, wie Sie eine Regression mit AutoML durchführen.

Beispielnotebook für die AutoML-Regression

Notebook abrufen

Im folgenden Notebook wird gezeigt, wie Sie Vorhersagen mit AutoML durchführen.

Beispielnotebook für die AutoML-Vorhersage

Notebook abrufen

Im folgenden Notebook wird gezeigt, wie Sie ein ML-Modell mit AutoML- und Featurespeicher-Featuretabellen trainieren.

AutoML-Experiment mit Beispielnotebook für Featurespeicher

Notebook abrufen