Trenowanie modeli uczenia maszynowego za pomocą interfejsu API języka Python usługi Azure Databricks

W tym artykule pokazano, jak wytrenować model za pomocą rozwiązania AutoML usługi Azure Databricks przy użyciu interfejsu API. Dowiedz się więcej o tym, co to jest rozwiązanie AutoML?. Interfejs API języka Python udostępnia funkcje umożliwiające uruchamianie przebiegów klasyfikacji, regresji i prognozowania automatycznego uczenia maszynowego. Każde wywołanie funkcji trenuje zestaw modeli i generuje notes wersji próbnej dla każdego modelu.

W poniższych krokach opisano ogólnie sposób konfigurowania eksperymentu zautomatyzowanego uczenia maszynowego przy użyciu interfejsu API:

  1. Utwórz notes i dołącz go do klastra z uruchomioną usługą Databricks Runtime ML.
  2. Zidentyfikuj tabelę, której chcesz użyć z istniejącego źródła danych, lub przekaż plik danych do systemu plików DBFS i utwórz tabelę.
  3. Aby rozpocząć uruchamianie automatycznego uczenia maszynowego, przekaż nazwę tabeli do odpowiedniej specyfikacji interfejsu API: klasyfikacja, regresja lub prognozowanie.
  4. Po rozpoczęciu uruchamiania rozwiązania AutoML w konsoli pojawi się adres URL eksperymentu MLflow. Użyj tego adresu URL, aby monitorować postęp przebiegu. Odśwież eksperyment MLflow, aby zobaczyć wersje próbne po zakończeniu.
  5. Po zakończeniu działania rozwiązania AutoML:
    • Użyj linków w podsumowaniu danych wyjściowych, aby przejść do eksperymentu MLflow lub do notesu, który wygenerował najlepsze wyniki.
    • Użyj linku do notesu eksploracji danych, aby uzyskać wgląd w dane przekazane do rozwiązania AutoML. Możesz również dołączyć ten notes do tego samego klastra i ponownie uruchomić notes, aby odtworzyć wyniki lub przeprowadzić dodatkową analizę danych.
    • Użyj obiektu podsumowania zwróconego z wywołania rozwiązania AutoML, aby zapoznać się z bardziej szczegółowymi informacjami na temat prób lub załadować model wytrenowany przez daną wersję próbną. Dowiedz się więcej o obiekcie AutoMLSummary.
    • Sklonuj dowolny wygenerowany notes z wersji próbnej i uruchom go ponownie, dołączając go do tego samego klastra, aby odtworzyć wyniki. Możesz również wprowadzić niezbędne zmiany i uruchomić je ponownie, aby wytrenować dodatkowe modele i zarejestrować je w tym samym eksperymencie.

Wymagania

Zobacz Wymagania dotyczące eksperymentów rozwiązania AutoML.

Specyfikacja klasyfikacji

Poniższy przykład kodu umożliwia skonfigurowanie przebiegu automatycznego uczenia maszynowego na potrzeby trenowania modelu klasyfikacji. Aby uzyskać dodatkowe parametry w celu dalszego dostosowywania przebiegu rozwiązania AutoML, zobacz Klasyfikacja i parametry regresji.

Uwaga

Parametr max_trials jest przestarzały w środowisku Databricks Runtime 10.4 ML i nie jest obsługiwany w środowisku Databricks Runtime 11.0 ML i nowszym. Służy timeout_minutes do kontrolowania czasu trwania przebiegu rozwiązania AutoML.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  data_dir: Optional[str] = None,
  exclude_cols: Optional[List[str]] = None,                      # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  pos_label: Optional[Union[int, bool, str] = None,                 # <DBR> 11.1 ML and above
  primary_metric: str = "f1",
  time_col: Optional[str] = None,
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Specyfikacja regresji

Poniższy przykład kodu umożliwia skonfigurowanie przebiegu rozwiązania AutoML na potrzeby trenowania modelu regresji. Aby uzyskać dodatkowe parametry w celu dalszego dostosowywania przebiegu rozwiązania AutoML, zobacz Klasyfikacja i parametry regresji.

Uwaga

Parametr max_trials jest przestarzały w środowisku Databricks Runtime 10.4 ML i nie jest obsługiwany w środowisku Databricks Runtime 11.0 ML i nowszym. Służy timeout_minutes do kontrolowania czasu trwania przebiegu rozwiązania AutoML.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  data_dir: Optional[str] = None,
  exclude_cols: Optional[List[str]] = None,                      # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  primary_metric: str = "r2",
  time_col: Optional[str] = None,
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Specyfikacja prognozowania

Poniższy przykładowy kod umożliwia skonfigurowanie przebiegu rozwiązania AutoML na potrzeby trenowania modelu prognozowania. Aby uzyskać dodatkowe szczegółowe informacje na temat parametrów przebiegu automatycznego uczenia maszynowego, zobacz Prognozowanie parametrów. Aby użyć funkcji Auto-ARIMA, szereg czasowy musi mieć regularną częstotliwość (czyli interwał między dowolnymi dwoma punktami musi być taki sam w ciągu szeregu czasowego). Częstotliwość musi być zgodna z jednostką częstotliwości określoną w wywołaniu interfejsu API. Rozwiązanie AutoML obsługuje brakujące kroki czasu, wypełniając te wartości poprzednimi wartościami.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  data_dir: Optional[str] = None,
  exclude_frameworks: Optional[List[str]] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  frequency: str = "D",
  horizon: int = 1,
  identity_col: Optional[Union[str, List[str]]] = None,
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  primary_metric: str = "smape",
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parametry klasyfikacji i regresji

Uwaga

Tylko w przypadku problemów klasyfikacji i regresji można wykonywać następujące czynności:

  • Określ kolumny do uwzględnienia w trenowaniu.
  • Wybierz niestandardowe metody imputacji.
Nazwa pola Type Opis
zestaw danych str pandas. Ramka danych pyspark. Ramka danych pyspark.sql.DataFrame Nazwa tabeli wejściowej lub ramka danych zawierająca funkcje trenowania i element docelowy.

Nazwa tabeli może mieć format ".". lub "." w przypadku tabel wykazu niezwiązanych z aparatem Unity
target_col Str Nazwa kolumny etykiety docelowej.
data_dir str formatu
dbfs:/<folder-name>
(Opcjonalnie) Ścieżka systemu plików DBFS używana do przechowywania zestawu danych trenowania. Ta ścieżka jest widoczna dla węzłów sterowników i procesów roboczych.

Usługa Databricks zaleca pozostawienie tego pola pustego, dzięki czemu rozwiązanie AutoML może zapisać zestaw danych trenowania jako artefakt MLflow.

Jeśli zostanie określona ścieżka niestandardowa, zestaw danych nie dziedziczy uprawnień dostępu eksperymentu automatycznego uczenia maszynowego.
exclude_cols Lista[str] (Opcjonalnie) Lista kolumn do ignorowania podczas obliczeń rozwiązania AutoML.

Ustawienie domyślne: []
platformy exclude_ Lista[str] (Opcjonalnie) Lista struktur algorytmów, których rozwiązanie AutoML nie powinno brać pod uwagę podczas tworzenia modeli. Możliwe wartości: pusta lista lub co najmniej jedna "sklearn", "lightgbm", "xgboost".

Ustawienie domyślne: [] (wszystkie struktury są brane pod uwagę)
experiment_dir Str (Opcjonalnie) Ścieżka do katalogu w obszarze roboczym w celu zapisania wygenerowanych notesów i eksperymentów.

Domyślnie: /Users/<username>/databricks_automl/
experiment_name Str (Opcjonalnie) Nazwa eksperymentu MLflow tworzonego przez rozwiązanie AutoML.

Ustawienie domyślne: nazwa jest generowana automatycznie.
feature_store_ odnośników List[Dict] (Opcjonalnie) Lista słowników reprezentujących funkcje z magazynu funkcji na potrzeby rozszerzania danych. Prawidłowe klucze w każdym słowniku to:

* table_name (str): wymagane. Nazwa tabeli funkcji.
* lookup_key (lista lub str): wymagane. Nazwy kolumn do użycia jako klucz podczas łączenia tabeli funkcji z danymi przekazanymi w tabeli funkcji
dataset Param. Kolejność nazw kolumn musi być zgodna z kolejnością kluczy podstawowych tabeli funkcji.
* timestamp_lookup_key (str): wymagane, jeśli określona tabela jest tabelą funkcji szeregów czasowych. Nazwa kolumny do użycia podczas wyszukiwania do punktu w czasie w tabeli funkcji z danymi przekazanymi w parametrze dataset .

Ustawienie domyślne: []
imputery Dict[str, Union[str, Dict[str, Any]]] (Opcjonalnie) Słownik, w którym każdy klucz jest nazwą kolumny, a każda wartość jest ciągiem lub słownikiem opisującym strategię imputacji. W przypadku określenia jako ciągu wartość musi być jedną z wartości "mean", "median" lub "most_frequent". Aby imputować ze znaną wartością, określ wartość jako słownik
{"strategy": "constant", "fill_value": <desired value>}. Można również określić opcje ciągów jako słowniki, na przykład {"strategia": "mean"}.

Jeśli nie podano strategii imputacji dla kolumny, rozwiązanie AutoML wybiera strategię domyślną na podstawie typu kolumny i zawartości. Jeśli określisz metodę imputacji innej niż domyślna, rozwiązanie AutoML nie wykonuje wykrywania typów semantycznych.

Domyślnie: {}
max_trials int (Opcjonalnie) Maksymalna liczba prób do uruchomienia.

Ten parametr jest dostępny w środowisku Databricks Runtime 10.5 ML i poniżej, ale jest przestarzały, począwszy od środowiska Databricks Runtime 10.3 ML. W środowisku Databricks Runtime 11.0 ML i nowszym ten parametr nie jest obsługiwany.

Ustawienie domyślne: 20

Jeśli timeout_minutes=None, rozwiązanie AutoML uruchamia maksymalną liczbę prób.
pos_label Union[int, bool, str] (Tylko klasyfikacja) Dodatnia klasa. Jest to przydatne do obliczania metryk, takich jak precyzja i kompletność. Należy określić tylko w przypadku problemów z klasyfikacją binarną.
primary_metric Str Metryka używana do oceny i klasyfikacji wydajności modelu.

Obsługiwane metryki regresji: "r2" (ustawienie domyślne), "mae", "rmse", "mse"

Obsługiwane metryki klasyfikacji: "f1" (ustawienie domyślne), "log_loss", "precyzja", "dokładność", "roc_auc"
time_col Str Dostępne w środowisku Databricks Runtime 10.1 ML lub nowszym.

(Opcjonalnie) Nazwa kolumny dla kolumny czasowej.

Jeśli jest to podane, rozwiązanie AutoML próbuje podzielić zestaw danych na zestawy trenowania, walidacji i testów chronologicznie, używając najwcześniejszych punktów jako danych treningowych i najnowszych punktów jako zestawu testowego.

Zaakceptowane typy kolumn to sygnatura czasowa i liczba całkowita. W przypadku środowiska Databricks Runtime 10.2 ML i nowszych kolumn ciągów są również obsługiwane. Jeśli typ kolumny to ciąg, rozwiązanie AutoML próbuje przekonwertować go na znacznik czasu przy użyciu wykrywania semantycznego. Jeśli konwersja zakończy się niepowodzeniem, uruchomienie rozwiązania AutoML zakończy się niepowodzeniem.
timeout_minutes int (Opcjonalnie) Maksymalny czas oczekiwania na ukończenie prób rozwiązania AutoML. Dłuższe limity czasu umożliwiają usłudze AutoML uruchamianie większej liczby prób i identyfikowanie modelu z lepszą dokładnością.

Ustawienie domyślne: 120 minut

Wartość minimalna: 5 minut

Zgłaszany jest błąd, jeśli limit czasu jest zbyt krótki, aby umożliwić ukończenie co najmniej jednej wersji próbnej.

Parametry prognozowania

Nazwa pola Type Opis
zestaw danych Str

Pandy. Ramka danych pyspark. Ramka danych pyspark.sql.DataFrame
Nazwa tabeli wejściowej lub ramka danych zawierająca funkcje trenowania i element docelowy.

Nazwa tabeli może mieć format ".". lub "." w przypadku tabel wykazu niezwiązanych z aparatem Unity
target_col Str Nazwa kolumny etykiety docelowej.
time_col Str Nazwa kolumny czasu na potrzeby prognozowania.
frequency Str Częstotliwość szeregów czasowych prognozowania. Jest to okres, w którym mają wystąpić zdarzenia. Ustawieniem domyślnym jest "D" lub dane dzienne. Pamiętaj, aby zmienić ustawienie, jeśli dane mają inną częstotliwość.

Możliwe wartości:

"W" (tygodnie)

"D" / "days" / "day"

"hours" / "hour" / "hr" / "h"

"m" / "minute" / "min" / "minutes" / "T"

"S" / "seconds" / "sec" / "second"

Następujące elementy są dostępne tylko w środowisku Databricks Runtime 12.0 ML lub nowszym:

"M" / "month" / "months"

"Q" / "quarter" / "quarters"

"Y" / "year" / "years"

Ustawienie domyślne: "D"
Horyzont int Liczba okresów w przyszłości, dla których powinny zostać zwrócone prognozy. Jednostki są częstotliwością szeregów czasowych. Ustawienie domyślne: 1
data_dir str formatu
dbfs:/<folder-name>
(Opcjonalnie) Ścieżka systemu plików DBFS używana do przechowywania zestawu danych trenowania. Ta ścieżka jest widoczna dla węzłów sterowników i procesów roboczych.

Usługa Databricks zaleca pozostawienie tego pola pustego, dzięki czemu rozwiązanie AutoML może zapisać zestaw danych trenowania jako artefakt MLflow.

Jeśli zostanie określona ścieżka niestandardowa, zestaw danych nie dziedziczy uprawnień dostępu eksperymentu automatycznego uczenia maszynowego.
platformy exclude_ Lista[str] (Opcjonalnie) Lista struktur algorytmów, których rozwiązanie AutoML nie powinno brać pod uwagę podczas tworzenia modeli. Możliwe wartości: pusta lista lub co najmniej jeden "prorok", "arima". Ustawienie domyślne: [] (wszystkie struktury są brane pod uwagę)
experiment_dir Str (Opcjonalnie) Ścieżka do katalogu w obszarze roboczym w celu zapisania wygenerowanych notesów i eksperymentów.

Domyślnie: /Users/<username>/databricks_automl/
experiment_name Str (Opcjonalnie) Nazwa eksperymentu MLflow tworzonego przez rozwiązanie AutoML.

Ustawienie domyślne: nazwa jest generowana automatycznie.
feature_store_ odnośników List[Dict] (Opcjonalnie) Lista słowników reprezentujących funkcje z magazynu funkcji na potrzeby rozszerzania danych. Prawidłowe klucze w każdym słowniku to:

* table_name (str): wymagane. Nazwa tabeli funkcji.
* lookup_key (lista lub str): wymagane. Nazwy kolumn do użycia jako klucz podczas łączenia tabeli funkcji z danymi przekazanymi w tabeli funkcji
dataset Param. Kolejność nazw kolumn musi być zgodna z kolejnością kluczy podstawowych tabeli funkcji.
* timestamp_lookup_key (str): wymagane, jeśli określona tabela jest tabelą funkcji szeregów czasowych. Nazwa kolumny do użycia podczas wyszukiwania do punktu w czasie w tabeli funkcji z danymi przekazanymi w parametrze dataset .

Ustawienie domyślne: []
identity_col Union[str, list] (Opcjonalnie) Kolumny identyfikujące szeregi czasowe prognozowania wielu serii. Grupy automatycznego uczenia maszynowego według tych kolumn i kolumny czasu na potrzeby prognozowania.
output_database Str (Opcjonalnie) Jeśli zostanie podana, rozwiązanie AutoML zapisuje przewidywania najlepszego modelu w nowej tabeli w określonej bazie danych.

Ustawienie domyślne: Przewidywania nie są zapisywane.
primary_metric Str Metryka używana do oceny i klasyfikacji wydajności modelu. Obsługiwane metryki: "smape"(default) "mse", "rmse", "mae" lub "mdape".
timeout_minutes int (Opcjonalnie) Maksymalny czas oczekiwania na ukończenie prób rozwiązania AutoML. Dłuższe limity czasu umożliwiają usłudze AutoML uruchamianie większej liczby prób i identyfikowanie modelu z lepszą dokładnością.

Ustawienie domyślne: 120 minut

Wartość minimalna: 5 minut

Zgłaszany jest błąd, jeśli limit czasu jest zbyt krótki, aby umożliwić ukończenie co najmniej jednej wersji próbnej.
country_code Str Dostępne w środowisku Databricks Runtime 12.0 ML lub nowszym. Obsługiwane tylko przez model prognozowania proroka.

(Opcjonalnie) Dwuliterowy kod kraju, który wskazuje, które wakacje w kraju powinny być używane przez model prognozowania. Aby zignorować dni wolne, ustaw ten parametr na pusty ciąg (""). Obsługiwane kraje.

Ustawienie domyślne: Stany Zjednoczone (Stany Zjednoczone dni wolne).

Zwraca

AutoMLSummary

Obiekt podsumowania przebiegu automatycznego uczenia maszynowego, który opisuje metryki, parametry i inne szczegóły dla każdej wersji próbnej. Ten obiekt służy również do ładowania modelu trenowanego przez określoną wersję próbną.

Właściwość Type Opis
eksperyment mlflow.entities.Experiment Eksperyment MLflow używany do rejestrowania prób.
Prób List[TrialInfo] Lista zawierająca informacje o wszystkich uruchomionych próbach.
best_trial Informacje o wersji próbnej Informacje o badaniu, które doprowadziły do uzyskania najlepszego wyniku ważonego dla metryki podstawowej.
metric_distribution Str Rozkład ważonych wyników dla podstawowej metryki we wszystkich próbach.
output_table_name Str Służy tylko do prognozowania i tylko wtedy, gdy output_database jest podana. Nazwa tabeli w output_database zawierająca przewidywania modelu.

TrialInfo

Obiekt podsumowania dla każdej pojedynczej wersji próbnej.

Właściwość Type Opis
notebook_path Opcjonalne[str] Ścieżka do wygenerowanego notesu dla tej wersji próbnej w obszarze roboczym. W przypadku klasyfikacji i regresji ta wartość jest ustawiana tylko dla najlepszej wersji próbnej, podczas gdy wszystkie inne wersje próbne mają wartość ustawioną na Nonewartość . W przypadku prognozowania ta wartość jest obecna dla wszystkich prób
notebook_url Opcjonalne[str] Adres URL wygenerowanego notesu dla tej wersji próbnej. W przypadku klasyfikacji i regresji ta wartość jest ustawiana tylko dla najlepszej wersji próbnej, podczas gdy wszystkie inne wersje próbne mają wartość ustawioną na Nonewartość . W przypadku prognozowania ta wartość jest obecna dla wszystkich prób
artifact_uri Opcjonalne[str] Identyfikator URI artefaktu platformy MLflow dla wygenerowanego notesu.
mlflow_run_id Str Identyfikator przebiegu platformy MLflow skojarzony z tym przebiegiem wersji próbnej.
metrics Dict[str, float] Metryki zarejestrowane w usłudze MLflow dla tej wersji próbnej.
params Dict[str, str] Parametry zarejestrowane w narzędziu MLflow, które były używane w tej wersji próbnej.
model_path Str Adres URL artefaktu platformy MLflow modelu wytrenowanego w tej wersji próbnej.
model_description Str Krótki opis modelu i hiperparametrów używanych do trenowania tego modelu.
czas trwania Str Czas trwania szkolenia w minutach.
preprocesory Str Opis preprocesorów uruchamianych przed rozpoczęciem trenowania modelu.
evaluation_metric_score liczba zmiennoprzecinkowa Wynik podstawowej metryki obliczony dla zestawu danych weryfikacji.
Metoda opis
load_model() Załaduj model wygenerowany w tej wersji próbnej zarejestrowany jako artefakt MLflow.

Importowanie notesu

Aby zaimportować notes, który został zapisany jako artefakt MLflow, użyj interfejsu databricks.automl.import_notebook API języka Python.

def import_notebook(artifact_uri: str, path: str, overwrite: bool = False) -> ImportNotebookResult:
    """
    Import a trial notebook, saved as an MLflow artifact, into the workspace.

    :param artifact_uri: The URI of the MLflow artifact that contains the trial notebook.
    :param path: The path in the Databricks workspace where the notebook should be imported. This must be an absolute path. The directory will be created if it does not exist.
    :param overwrite: Whether to overwrite the notebook if it already exists. It is `False` by default.

    :return: ImportNotebookResult contains two fields, `path` and `url`, referring to the imported notebook
    """

Przykład użycia:

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

Rejestrowanie i wdrażanie modelu

Możesz zarejestrować i wdrożyć wytrenowany model automatycznego uczenia maszynowego, podobnie jak każdy zarejestrowany model w rejestrze modeli MLflow, zobacz Rejestrowanie, ładowanie, rejestrowanie i wdrażanie modeli MLflow.

Brak modułu o nazwie "pandas.core.indexes.numeric"

Podczas obsługi modelu utworzonego przy użyciu rozwiązania AutoML z obsługą modelu może wystąpić błąd: No module named 'pandas.core.indexes.numeric.

Jest to spowodowane niezgodną pandas wersją między rozwiązaniem AutoML a modelem obsługującym środowisko punktu końcowego. Ten błąd można rozwiązać, uruchamiając skrypt add-pandas-dependency.py. Skrypt edytuje element requirements.txt i conda.yaml dla zarejestrowanego modelu, aby zawierał odpowiednią pandas wersję zależności: pandas==1.5.3.

  1. Zmodyfikuj skrypt, aby uwzględnić run_id przebieg MLflow, w którym zarejestrowano model.
  2. Ponowne zarejestrowanie modelu w rejestrze modeli MLflow.
  3. Spróbuj użyć nowej wersji modelu MLflow.

Przykłady notesów

Przejrzyj te notesy, aby rozpocząć pracę z rozwiązaniem AutoML.

W poniższym notesie pokazano, jak przeprowadzić klasyfikację za pomocą rozwiązania AutoML.

Przykładowy notes klasyfikacji automatycznego uczenia maszynowego

Pobierz notes

W poniższym notesie pokazano, jak przeprowadzić regresję za pomocą rozwiązania AutoML.

Przykładowy notes regresji automatycznego uczenia maszynowego

Pobierz notes

W poniższym notesie przedstawiono sposób prognozowania za pomocą rozwiązania AutoML.

Przykładowy notes prognozowania automatycznego uczenia maszynowego

Pobierz notes

W poniższym notesie pokazano, jak wytrenować model uczenia maszynowego przy użyciu tabel funkcji AutoML i Feature Store.

Przykładowy notes dotyczący eksperymentu automatycznego uczenia maszynowego z magazynem funkcji

Pobierz notes