Dela via


Mosaic AutoML Python API-referens

Den här artikeln beskriver Mosaic AutoML Python API, som innehåller metoder för att starta klassificering, regression och prognostisering av AutoML-körningar. Varje metodanrop tränar en uppsättning modeller och genererar en utvärderingsanteckningsbok för varje modell.

Mer information om Mosaic AutoML, inklusive ett lågkodsgränssnittsalternativ, finns i Vad är Mosaic AutoML?.

Klassificera

Metoden databricks.automl.classify konfigurerar en Mosaic AutoML-körning för att träna en klassificeringsmodell.

Kommentar

Parametern max_trials är inaktuell i Databricks Runtime 10.4 ML och stöds inte i Databricks Runtime 11.0 ML och senare. Använd timeout_minutes för att styra varaktigheten för en AutoML-körning.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "f1",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  pos_label: Optional[Union[int, bool, str]] = None,                 # <DBR> 11.1 ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None                           # <DBR> 15.4 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Klassificera parametrar

Parameternamn Typ Beskrivning
dataset str, pandas.DataFrame, , pyspark.DataFramepyspark.sql.DataFrame Indatatabellnamn eller DataFrame som innehåller träningsfunktioner och mål. Tabellnamnet kan ha formatet "<database_name>.<>table_name" eller "<schema_name>.<>table_name" för icke-Unity-katalogtabeller.
target_col str Kolumnnamn för måletiketten.
primary_metric str Mått som används för att utvärdera och rangordna modellprestanda.

Mått som stöds för regression: "r2" (standard), "mae", "rmse", "mse"

Mått som stöds för klassificering: "f1" (standard), "log_loss", "precision", "noggrannhet", "roc_auc"
data_dir str format dbfs:/<folder-name> Valfritt. DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder.

Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt.

Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter.
experiment_dir str Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten.

Standard: /Users/<username>/databricks_automl/
experiment_name str Valfritt. Namn på MLflow-experimentet som AutoML skapar.

Standard: Namnet genereras automatiskt.
exclude_cols List[str] Valfritt. Lista över kolumner som ska ignoreras under AutoML-beräkningar.

Standard: []
exclude_frameworks List[str] Valfritt. Lista över algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga värden: tom lista eller en eller flera av "sklearn", "lightgbm", "xgboost".

Standard: [] (alla ramverk beaktas)
feature_store_lookups List[Dict] Valfritt. Lista över ordlistor som representerar funktioner från Funktionslager för dataförstoring. Giltiga nycklar i varje ordlista är:

- table_name (str): Krävs. Namnet på funktionstabellen.
- lookup_key (lista eller str): Krävs. Kolumnnamn som ska användas som nyckel när du ansluter funktionstabellen med data som skickas i dataset param. Ordningen på kolumnnamnen måste matcha ordningen på de primära nycklarna i funktionstabellen.
- timestamp_lookup_key (str): Krävs om den angivna tabellen är en funktionstabell för tidsserier. Kolumnnamnet som ska användas vid sökning till tidpunkt i funktionstabellen med data som skickas i dataset param.

Standard: []
imputers Dict[str, Union[str, Dict[str, Any]]] Valfritt. Ordlista där varje nyckel är ett kolumnnamn och varje värde är en sträng eller ordlista som beskriver imputationsstrategin. Om värdet anges som en sträng måste det vara "medelvärde", "median" eller "most_frequent". Om du vill imputera med ett känt värde anger du värdet som en ordlista {"strategy": "constant", "fill_value": <desired value>}. Du kan också ange strängalternativ som ordlistor, till exempel {"strategy": "mean"}.

Om ingen imputationsstrategi tillhandahålls för en kolumn väljer AutoML en standardstrategi baserat på kolumntyp och innehåll. Om du anger en imputationsmetod som inte är standard utför AutoML inte semantisk typidentifiering.

Standard: {}
pos_label Union[int, bool, str] (Endast klassificering) Den positiva klassen. Detta är användbart för att beräkna mått som precision och återkallande. Bör endast anges för problem med binär klassificering.
time_col str Tillgänglig i Databricks Runtime 10.1 ML och senare.

Valfritt. Kolumnnamn för en tidskolumn.

Om det tillhandahålls försöker AutoML dela upp datamängden i tränings-, validerings- och testuppsättningar kronologiskt, med hjälp av de tidigaste punkterna som träningsdata och de senaste punkterna som en testuppsättning.

Accepterade kolumntyper är tidsstämpel och heltal. Med Databricks Runtime 10.2 ML och senare stöds även strängkolumner.

Om kolumntypen är sträng försöker AutoML konvertera den till tidsstämpel med hjälp av semantisk identifiering. Om konverteringen misslyckas misslyckas AutoML-körningen.
split_col str Valfritt. Kolumnnamn för en delad kolumn. Endast tillgängligt i Databricks Runtime 15.3 ML och senare för API-arbetsflöden. Om det tillhandahålls försöker AutoML dela upp tränings-/validerings-/testuppsättningar efter användardefinierade värden, och den här kolumnen undantas automatiskt från träningsfunktioner.

Accepterad kolumntyp är sträng. Värdet för varje post i den här kolumnen måste vara något av följande: "train", "validate" eller "test".
sample_weight_col str Tillgänglig i Databricks Runtime 15.4 ML och senare för arbetsflöden för klassificerings-API.

Valfritt. Kolumnnamn i datamängden som innehåller exempelvikterna för varje rad. Klassificering stöder exempelvikter per klass. Dessa vikter justerar vikten för varje klass under modellträningen. Varje prov i en klass måste ha samma provvikt och vikterna måste vara icke-negativa decimal- eller heltalsvärden, från 0 till 10 000. Klasser med högre exempelvikter anses vara viktigare och har större påverkan på inlärningsalgoritmen. Om den här kolumnen inte anges antas alla klasser ha samma vikt.
max_trials int Valfritt. Maximalt antal utvärderingsversioner som ska köras. Den här parametern är tillgänglig i Databricks Runtime 10.5 ML och nedan, men är inaktuell från och med Databricks Runtime 10.3 ML. I Databricks Runtime 11.0 ML och senare stöds inte den här parametern.

Standard: 20

Om timeout_minutes=Ingen kör AutoML det maximala antalet utvärderingsversioner.
timeout_minutes int Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet.

Standard: 120 minuter

Minsta värde: 5 minuter

Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras.

Regrediera

Metoden databricks.automl.regress konfigurerar en AutoML-körning för att träna en regressionsmodell. Den här metoden returnerar en AutoMLSummary.

Kommentar

Parametern max_trials är inaktuell i Databricks Runtime 10.4 ML och stöds inte i Databricks Runtime 11.0 ML och senare. Använd timeout_minutes för att styra varaktigheten för en AutoML-körning.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "r2",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None,                          # <DBR> 15.3 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Regressparametrar

Parameternamn Typ Beskrivning
dataset str, pandas.DataFrame, , pyspark.DataFramepyspark.sql.DataFrame Indatatabellnamn eller DataFrame som innehåller träningsfunktioner och mål. Tabellnamnet kan ha formatet "<database_name>.<>table_name" eller "<schema_name>.<>table_name" för icke-Unity-katalogtabeller.
target_col str Kolumnnamn för måletiketten.
primary_metric str Mått som används för att utvärdera och rangordna modellprestanda.

Mått som stöds för regression: "r2" (standard), "mae", "rmse", "mse"

Mått som stöds för klassificering: "f1" (standard), "log_loss", "precision", "noggrannhet", "roc_auc"
data_dir str format dbfs:/<folder-name> Valfritt. DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder.

Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt.

Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter.
experiment_dir str Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten.

Standard: /Users/<username>/databricks_automl/
experiment_name str Valfritt. Namn på MLflow-experimentet som AutoML skapar.

Standard: Namnet genereras automatiskt.
exclude_cols List[str] Valfritt. Lista över kolumner som ska ignoreras under AutoML-beräkningar.

Standard: []
exclude_frameworks List[str] Valfritt. Lista över algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga värden: tom lista eller en eller flera av "sklearn", "lightgbm", "xgboost".

Standard: [] (alla ramverk beaktas)
feature_store_lookups List[Dict] Valfritt. Lista över ordlistor som representerar funktioner från Funktionslager för dataförstoring. Giltiga nycklar i varje ordlista är:

- table_name (str): Krävs. Namnet på funktionstabellen.
- lookup_key (lista eller str): Krävs. Kolumnnamn som ska användas som nyckel när du ansluter funktionstabellen med data som skickas i dataset param. Ordningen på kolumnnamnen måste matcha ordningen på de primära nycklarna i funktionstabellen.
- timestamp_lookup_key (str): Krävs om den angivna tabellen är en funktionstabell för tidsserier. Kolumnnamnet som ska användas vid sökning till tidpunkt i funktionstabellen med data som skickas i dataset param.

Standard: []
imputers Dict[str, Union[str, Dict[str, Any]]] Valfritt. Ordlista där varje nyckel är ett kolumnnamn och varje värde är en sträng eller ordlista som beskriver imputationsstrategin. Om värdet anges som en sträng måste det vara "medelvärde", "median" eller "most_frequent". Om du vill imputera med ett känt värde anger du värdet som en ordlista {"strategy": "constant", "fill_value": <desired value>}. Du kan också ange strängalternativ som ordlistor, till exempel {"strategy": "mean"}.

Om ingen imputationsstrategi tillhandahålls för en kolumn väljer AutoML en standardstrategi baserat på kolumntyp och innehåll. Om du anger en imputationsmetod som inte är standard utför AutoML inte semantisk typidentifiering.

Standard: {}
time_col str Tillgänglig i Databricks Runtime 10.1 ML och senare.

Valfritt. Kolumnnamn för en tidskolumn.

Om det tillhandahålls försöker AutoML dela upp datamängden i tränings-, validerings- och testuppsättningar kronologiskt, med hjälp av de tidigaste punkterna som träningsdata och de senaste punkterna som en testuppsättning.

Accepterade kolumntyper är tidsstämpel och heltal. Med Databricks Runtime 10.2 ML och senare stöds även strängkolumner.

Om kolumntypen är sträng försöker AutoML konvertera den till tidsstämpel med hjälp av semantisk identifiering. Om konverteringen misslyckas misslyckas AutoML-körningen.
split_col str Valfritt. Kolumnnamn för en delad kolumn. Endast tillgängligt i Databricks Runtime 15.3 ML och senare för API-arbetsflöden. Om det tillhandahålls försöker AutoML dela upp tränings-/validerings-/testuppsättningar efter användardefinierade värden, och den här kolumnen undantas automatiskt från träningsfunktioner.

Accepterad kolumntyp är sträng. Värdet för varje post i den här kolumnen måste vara något av följande: "train", "validate" eller "test".
sample_weight_col str Tillgänglig i Databricks Runtime 15.3 ML och senare för regressions-API-arbetsflöden.

Valfritt. Kolumnnamn i datamängden som innehåller exempelvikterna för varje rad. Dessa vikter justerar vikten för varje rad under modellträningen. Vikter måste vara icke-negativa decimal- eller heltalsvärden, från 0 till 10 000. Rader med högre exempelvikter anses vara viktigare och har större påverkan på inlärningsalgoritmen. Om den här kolumnen inte anges antas alla rader ha samma vikt.
max_trials int Valfritt. Maximalt antal utvärderingsversioner som ska köras. Den här parametern är tillgänglig i Databricks Runtime 10.5 ML och nedan, men är inaktuell från och med Databricks Runtime 10.3 ML. I Databricks Runtime 11.0 ML och senare stöds inte den här parametern.

Standard: 20

Om timeout_minutes=Ingen kör AutoML det maximala antalet utvärderingsversioner.
timeout_minutes int Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet.

Standard: 120 minuter

Minsta värde: 5 minuter

Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras.

Prognos

Metoden databricks.automl.forecast konfigurerar en AutoML-körning för träning av en prognosmodell. Den här metoden returnerar en AutoMLSummary. Om du vill använda Auto-ARIMA måste tidsserierna ha en regelbunden frekvens (det vill: intervallet mellan två punkter måste vara detsamma under hela tidsserien). Frekvensen måste matcha den frekvensenhet som anges i API-anropet. AutoML hanterar saknade tidssteg genom att fylla i dessa värden med föregående värde.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  primary_metric: str = "smape",
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  frequency: str = "D",
  horizon: int = 1,
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_frameworks: Optional[List[str]] = None,
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  identity_col: Optional[Union[str, List[str]]] = None,
  sample_weight_col: Optional[str] = None,                          # <DBR> 16.0 ML and above
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Prognosparametrar

Parameternamn Typ Beskrivning
dataset str, pandas.DataFrame, , pyspark.DataFramepyspark.sql.DataFrame Indatatabellnamn eller DataFrame som innehåller träningsfunktioner och mål.

Tabellnamnet kan ha formatet ".". eller "." för tabeller som inte är unity-kataloger
target_col str Kolumnnamn för måletiketten.
time_col str Namn på tidskolumnen för prognostisering.
primary_metric str Mått som används för att utvärdera och rangordna modellprestanda.

Mått som stöds: "smape" (standard), "mse", "rmse", "mae" eller "mdape".
country_code str Finns i Databricks Runtime 12.0 ML och senare. Stöds endast av profetens prognosmodell.

Valfritt. Landskod med två bokstäver som anger vilket lands helgdagar prognosmodellen ska använda. Om du vill ignorera helgdagar anger du den här parametern till en tom sträng ("").

Länder som stöds.

Standard: USA (USA helgdagar).
frequency str Frekvens för tidsserierna för prognostisering. Det här är den period med vilken händelser förväntas inträffa. Standardinställningen är "D" eller dagliga data. Se till att ändra inställningen om dina data har en annan frekvens.

Möjliga värden:

"W" (veckor)

"D" / "days" / "day"

"hours" / "hour" / "hr" / "h"

"m" / "minute" / "min" / "minutes" / "T"

"S" / "seconds" / "sec" / "second"

Följande är endast tillgängliga med Databricks Runtime 12.0 ML och senare:

"M" / "month" / "months"

"Q" / "kvartal" / "kvartal"

"Y" / "år" / "år"

Standard: "D"
horizon int Antal perioder in i framtiden för vilka prognoser ska returneras.

Enheterna är tidsseriefrekvensen.

Standard: 1
data_dir str format dbfs:/<folder-name> Valfritt. DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder.

Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt.

Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter.
experiment_dir str Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten.

Standard: /Users/<username>/databricks_automl/
experiment_name str Valfritt. Namn på MLflow-experimentet som AutoML skapar.

Standard: Namnet genereras automatiskt.
exclude_frameworks List[str] Valfritt. Lista över algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga värden: tom lista, eller en eller flera av "profeten", "arima".

Standard: [] (alla ramverk beaktas)
feature_store_lookups List[Dict] Valfritt. Lista över ordlistor som representerar funktioner från Funktionslager för samexistera dataförstoring. Giltiga nycklar i varje ordlista är:

- table_name (str): Krävs. Namnet på funktionstabellen.
- lookup_key (lista eller str): Krävs. Kolumnnamn som ska användas som nyckel när du ansluter funktionstabellen med data som skickas i dataset param. Ordningen på kolumnnamnen måste matcha ordningen på de primära nycklarna i funktionstabellen.
- timestamp_lookup_key (str): Krävs om den angivna tabellen är en funktionstabell för tidsserier. Kolumnnamnet som ska användas vid sökning till tidpunkt i funktionstabellen med data som skickas i dataset param.

Standard: []
identity_col Union[str, list] Valfritt. Kolumner som identifierar tidsserierna för prognostisering i flera serier. AutoML grupperar efter dessa kolumner och tidskolumnen för prognostisering.
sample_weight_col str Finns i Databricks Runtime 16.0 ML och senare. Endast för arbetsflöden i flera serier.

Valfritt. Anger kolumnen i datamängden som innehåller exempelvikter. Dessa vikter anger den relativa betydelsen av varje tidsserie under modellträning och utvärdering.

Tidsserier med högre vikter har större inverkan på modellen. Om det inte anges behandlas alla tidsserier med samma vikt.

Alla rader som hör till samma tidsserie måste ha samma vikt.

Vikter måste vara icke-negativa värden, antingen decimaler eller heltal, och vara mellan 0 och 10 000.
output_database str Valfritt. Om det tillhandahålls sparar AutoML förutsägelser om den bästa modellen i en ny tabell i den angivna databasen.

Standard: Förutsägelser sparas inte.
timeout_minutes int Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet.

Standard: 120 minuter

Minsta värde: 5 minuter

Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras.

Importera notebook-fil

Metoden databricks.automl.import_notebook importerar en notebook-fil som har sparats som en MLflow-artefakt. Den här metoden returnerar en ImportNotebookResult.

databricks.automl.import_notebook(
  artifact_uri: str,
  path: str,
  overwrite: bool = False
) -> ImportNotebookResult:
Parametrar Typ Beskrivning
artifact_uri str URI:n för MLflow-artefakten som innehåller utvärderingsanteckningsboken.
path str Sökvägen till databricks-arbetsytan där anteckningsboken ska importeras. Detta måste vara en absolut sökväg. Katalogen skapas om den inte finns.
overwrite bool Om anteckningsboken ska skrivas över om den redan finns. Det är False som standard.

Exempel på import av notebook-fil

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

AutoMLSummary

Sammanfattningsobjekt för en AutoML-körning som beskriver mått, parametrar och annan information för var och en av utvärderingsversionerna. Du använder också det här objektet för att läsa in modellen som tränats av en specifik utvärderingsversion.

Property Type Beskrivning
experiment mlflow.entities.Experiment MLflow-experimentet som används för att logga utvärderingsversionerna.
trials List[TrialInfo] En lista över TrialInfo-objekt som innehåller information om alla utvärderingsversioner som kördes.
best_trial TrialInfo Ett TrialInfo-objekt som innehåller information om utvärderingsversionen som resulterade i den bästa viktade poängen för det primära måttet.
metric_distribution str Fördelningen av viktade poäng för det primära måttet i alla utvärderingsversioner.
output_table_name str Används endast med prognostisering och endast om output_database tillhandahålls.

Namnet på tabellen i output_database som innehåller modellens förutsägelser.

TrialInfo

Sammanfattningsobjekt för varje enskild utvärderingsversion.

Property Type Beskrivning
notebook_path Optional[str] Sökvägen till den genererade notebook-filen för den här utvärderingsversionen på arbetsytan.

För klassificering och regression anges det här värdet endast för den bästa utvärderingsversionen, medan alla andra utvärderingar har värdet inställt på None.

För prognostisering finns det här värdet för alla utvärderingsversioner.
notebook_url Optional[str] URL:en för den genererade notebook-filen för den här utvärderingsversionen.

För klassificering och regression anges det här värdet endast för den bästa utvärderingsversionen, medan alla andra utvärderingar har värdet inställt på None.

För prognostisering finns det här värdet för alla utvärderingsversioner.
artifact_uri Optional[str] MLflow-artefakt-URI:n för den genererade notebook-filen.
mlflow_run_id str MLflow-körnings-ID:t som är associerat med den här utvärderingskörningen.
metrics Dict[str, float] Måtten som loggas i MLflow för den här utvärderingsversionen.
params Dict[str, str] Parametrarna som loggades i MLflow som användes för den här utvärderingsversionen.
model_path str MLflow-artefakt-URL:en för modellen som tränats i den här utvärderingsversionen.
model_description str Kort beskrivning av modellen och de hyperparametrar som används för att träna den här modellen.
duration str Träningsvaraktighet i minuter.
preprocessors str Beskrivning av de förprocessorer som körs innan modellen tränas.
evaluation_metric_score float Poäng för primärt mått, utvärderat för valideringsdatauppsättningen.

TrialInfo har en metod för att läsa in modellen som genererats för utvärderingsversionen.

Metod beskrivning
load_model() Läs in modellen som genererades i den här utvärderingsversionen, loggad som en MLflow-artefakt.

ImportNotebookResult

Property Type Beskrivning
path str Sökvägen till databricks-arbetsytan där anteckningsboken ska importeras. Detta måste vara en absolut sökväg. Katalogen skapas om den inte finns.
url str URI:n för MLflow-artefakten som innehåller utvärderingsanteckningsboken.