Mosaic AutoML Python API-referens
Den här artikeln beskriver Mosaic AutoML Python API, som innehåller metoder för att starta klassificering, regression och prognostisering av AutoML-körningar. Varje metodanrop tränar en uppsättning modeller och genererar en utvärderingsanteckningsbok för varje modell.
Mer information om Mosaic AutoML, inklusive ett lågkodsgränssnittsalternativ, finns i Vad är Mosaic AutoML?.
Klassificera
Metoden databricks.automl.classify
konfigurerar en Mosaic AutoML-körning för att träna en klassificeringsmodell.
Kommentar
Parametern max_trials
är inaktuell i Databricks Runtime 10.4 ML och stöds inte i Databricks Runtime 11.0 ML och senare. Använd timeout_minutes
för att styra varaktigheten för en AutoML-körning.
databricks.automl.classify(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "f1",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
pos_label: Optional[Union[int, bool, str]] = None, # <DBR> 11.1 ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None # <DBR> 15.4 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Klassificera parametrar
Parameternamn | Typ | Beskrivning |
---|---|---|
dataset |
str , pandas.DataFrame , , pyspark.DataFrame pyspark.sql.DataFrame |
Indatatabellnamn eller DataFrame som innehåller träningsfunktioner och mål. Tabellnamnet kan ha formatet "<database_name>.<>table_name" eller "<schema_name>.<>table_name" för icke-Unity-katalogtabeller. |
target_col |
str |
Kolumnnamn för måletiketten. |
primary_metric |
str |
Mått som används för att utvärdera och rangordna modellprestanda. Mått som stöds för regression: "r2" (standard), "mae", "rmse", "mse" Mått som stöds för klassificering: "f1" (standard), "log_loss", "precision", "noggrannhet", "roc_auc" |
data_dir |
str format dbfs:/<folder-name> |
Valfritt. DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder. Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt. Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter. |
experiment_dir |
str |
Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten. Standard: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Valfritt. Namn på MLflow-experimentet som AutoML skapar. Standard: Namnet genereras automatiskt. |
exclude_cols |
List[str] |
Valfritt. Lista över kolumner som ska ignoreras under AutoML-beräkningar. Standard: [] |
exclude_frameworks |
List[str] |
Valfritt. Lista över algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga värden: tom lista eller en eller flera av "sklearn", "lightgbm", "xgboost". Standard: [] (alla ramverk beaktas) |
feature_store_lookups |
List[Dict] |
Valfritt. Lista över ordlistor som representerar funktioner från Funktionslager för dataförstoring. Giltiga nycklar i varje ordlista är: - table_name (str): Krävs. Namnet på funktionstabellen.- lookup_key (lista eller str): Krävs. Kolumnnamn som ska användas som nyckel när du ansluter funktionstabellen med data som skickas i dataset param. Ordningen på kolumnnamnen måste matcha ordningen på de primära nycklarna i funktionstabellen.- timestamp_lookup_key (str): Krävs om den angivna tabellen är en funktionstabell för tidsserier. Kolumnnamnet som ska användas vid sökning till tidpunkt i funktionstabellen med data som skickas i dataset param.Standard: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Valfritt. Ordlista där varje nyckel är ett kolumnnamn och varje värde är en sträng eller ordlista som beskriver imputationsstrategin. Om värdet anges som en sträng måste det vara "medelvärde", "median" eller "most_frequent". Om du vill imputera med ett känt värde anger du värdet som en ordlista {"strategy": "constant", "fill_value": <desired value>} . Du kan också ange strängalternativ som ordlistor, till exempel {"strategy": "mean"} .Om ingen imputationsstrategi tillhandahålls för en kolumn väljer AutoML en standardstrategi baserat på kolumntyp och innehåll. Om du anger en imputationsmetod som inte är standard utför AutoML inte semantisk typidentifiering. Standard: {} |
pos_label |
Union[int, bool, str] |
(Endast klassificering) Den positiva klassen. Detta är användbart för att beräkna mått som precision och återkallande. Bör endast anges för problem med binär klassificering. |
time_col |
str |
Tillgänglig i Databricks Runtime 10.1 ML och senare. Valfritt. Kolumnnamn för en tidskolumn. Om det tillhandahålls försöker AutoML dela upp datamängden i tränings-, validerings- och testuppsättningar kronologiskt, med hjälp av de tidigaste punkterna som träningsdata och de senaste punkterna som en testuppsättning. Accepterade kolumntyper är tidsstämpel och heltal. Med Databricks Runtime 10.2 ML och senare stöds även strängkolumner. Om kolumntypen är sträng försöker AutoML konvertera den till tidsstämpel med hjälp av semantisk identifiering. Om konverteringen misslyckas misslyckas AutoML-körningen. |
split_col |
str |
Valfritt. Kolumnnamn för en delad kolumn. Endast tillgängligt i Databricks Runtime 15.3 ML och senare för API-arbetsflöden. Om det tillhandahålls försöker AutoML dela upp tränings-/validerings-/testuppsättningar efter användardefinierade värden, och den här kolumnen undantas automatiskt från träningsfunktioner. Accepterad kolumntyp är sträng. Värdet för varje post i den här kolumnen måste vara något av följande: "train", "validate" eller "test". |
sample_weight_col |
str |
Tillgänglig i Databricks Runtime 15.4 ML och senare för arbetsflöden för klassificerings-API. Valfritt. Kolumnnamn i datamängden som innehåller exempelvikterna för varje rad. Klassificering stöder exempelvikter per klass. Dessa vikter justerar vikten för varje klass under modellträningen. Varje prov i en klass måste ha samma provvikt och vikterna måste vara icke-negativa decimal- eller heltalsvärden, från 0 till 10 000. Klasser med högre exempelvikter anses vara viktigare och har större påverkan på inlärningsalgoritmen. Om den här kolumnen inte anges antas alla klasser ha samma vikt. |
max_trials |
int |
Valfritt. Maximalt antal utvärderingsversioner som ska köras. Den här parametern är tillgänglig i Databricks Runtime 10.5 ML och nedan, men är inaktuell från och med Databricks Runtime 10.3 ML. I Databricks Runtime 11.0 ML och senare stöds inte den här parametern. Standard: 20 Om timeout_minutes=Ingen kör AutoML det maximala antalet utvärderingsversioner. |
timeout_minutes |
int |
Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet. Standard: 120 minuter Minsta värde: 5 minuter Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras. |
Regrediera
Metoden databricks.automl.regress
konfigurerar en AutoML-körning för att träna en regressionsmodell. Den här metoden returnerar en AutoMLSummary.
Kommentar
Parametern max_trials
är inaktuell i Databricks Runtime 10.4 ML och stöds inte i Databricks Runtime 11.0 ML och senare. Använd timeout_minutes
för att styra varaktigheten för en AutoML-körning.
databricks.automl.regress(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "r2",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None, # <DBR> 15.3 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Regressparametrar
Parameternamn | Typ | Beskrivning |
---|---|---|
dataset |
str , pandas.DataFrame , , pyspark.DataFrame pyspark.sql.DataFrame |
Indatatabellnamn eller DataFrame som innehåller träningsfunktioner och mål. Tabellnamnet kan ha formatet "<database_name>.<>table_name" eller "<schema_name>.<>table_name" för icke-Unity-katalogtabeller. |
target_col |
str |
Kolumnnamn för måletiketten. |
primary_metric |
str |
Mått som används för att utvärdera och rangordna modellprestanda. Mått som stöds för regression: "r2" (standard), "mae", "rmse", "mse" Mått som stöds för klassificering: "f1" (standard), "log_loss", "precision", "noggrannhet", "roc_auc" |
data_dir |
str format dbfs:/<folder-name> |
Valfritt. DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder. Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt. Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter. |
experiment_dir |
str |
Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten. Standard: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Valfritt. Namn på MLflow-experimentet som AutoML skapar. Standard: Namnet genereras automatiskt. |
exclude_cols |
List[str] |
Valfritt. Lista över kolumner som ska ignoreras under AutoML-beräkningar. Standard: [] |
exclude_frameworks |
List[str] |
Valfritt. Lista över algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga värden: tom lista eller en eller flera av "sklearn", "lightgbm", "xgboost". Standard: [] (alla ramverk beaktas) |
feature_store_lookups |
List[Dict] |
Valfritt. Lista över ordlistor som representerar funktioner från Funktionslager för dataförstoring. Giltiga nycklar i varje ordlista är: - table_name (str): Krävs. Namnet på funktionstabellen.- lookup_key (lista eller str): Krävs. Kolumnnamn som ska användas som nyckel när du ansluter funktionstabellen med data som skickas i dataset param. Ordningen på kolumnnamnen måste matcha ordningen på de primära nycklarna i funktionstabellen.- timestamp_lookup_key (str): Krävs om den angivna tabellen är en funktionstabell för tidsserier. Kolumnnamnet som ska användas vid sökning till tidpunkt i funktionstabellen med data som skickas i dataset param.Standard: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Valfritt. Ordlista där varje nyckel är ett kolumnnamn och varje värde är en sträng eller ordlista som beskriver imputationsstrategin. Om värdet anges som en sträng måste det vara "medelvärde", "median" eller "most_frequent". Om du vill imputera med ett känt värde anger du värdet som en ordlista {"strategy": "constant", "fill_value": <desired value>} . Du kan också ange strängalternativ som ordlistor, till exempel {"strategy": "mean"} .Om ingen imputationsstrategi tillhandahålls för en kolumn väljer AutoML en standardstrategi baserat på kolumntyp och innehåll. Om du anger en imputationsmetod som inte är standard utför AutoML inte semantisk typidentifiering. Standard: {} |
time_col |
str |
Tillgänglig i Databricks Runtime 10.1 ML och senare. Valfritt. Kolumnnamn för en tidskolumn. Om det tillhandahålls försöker AutoML dela upp datamängden i tränings-, validerings- och testuppsättningar kronologiskt, med hjälp av de tidigaste punkterna som träningsdata och de senaste punkterna som en testuppsättning. Accepterade kolumntyper är tidsstämpel och heltal. Med Databricks Runtime 10.2 ML och senare stöds även strängkolumner. Om kolumntypen är sträng försöker AutoML konvertera den till tidsstämpel med hjälp av semantisk identifiering. Om konverteringen misslyckas misslyckas AutoML-körningen. |
split_col |
str |
Valfritt. Kolumnnamn för en delad kolumn. Endast tillgängligt i Databricks Runtime 15.3 ML och senare för API-arbetsflöden. Om det tillhandahålls försöker AutoML dela upp tränings-/validerings-/testuppsättningar efter användardefinierade värden, och den här kolumnen undantas automatiskt från träningsfunktioner. Accepterad kolumntyp är sträng. Värdet för varje post i den här kolumnen måste vara något av följande: "train", "validate" eller "test". |
sample_weight_col |
str |
Tillgänglig i Databricks Runtime 15.3 ML och senare för regressions-API-arbetsflöden. Valfritt. Kolumnnamn i datamängden som innehåller exempelvikterna för varje rad. Dessa vikter justerar vikten för varje rad under modellträningen. Vikter måste vara icke-negativa decimal- eller heltalsvärden, från 0 till 10 000. Rader med högre exempelvikter anses vara viktigare och har större påverkan på inlärningsalgoritmen. Om den här kolumnen inte anges antas alla rader ha samma vikt. |
max_trials |
int |
Valfritt. Maximalt antal utvärderingsversioner som ska köras. Den här parametern är tillgänglig i Databricks Runtime 10.5 ML och nedan, men är inaktuell från och med Databricks Runtime 10.3 ML. I Databricks Runtime 11.0 ML och senare stöds inte den här parametern. Standard: 20 Om timeout_minutes=Ingen kör AutoML det maximala antalet utvärderingsversioner. |
timeout_minutes |
int |
Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet. Standard: 120 minuter Minsta värde: 5 minuter Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras. |
Prognos
Metoden databricks.automl.forecast
konfigurerar en AutoML-körning för träning av en prognosmodell. Den här metoden returnerar en AutoMLSummary.
Om du vill använda Auto-ARIMA måste tidsserierna ha en regelbunden frekvens (det vill: intervallet mellan två punkter måste vara detsamma under hela tidsserien). Frekvensen måste matcha den frekvensenhet som anges i API-anropet. AutoML hanterar saknade tidssteg genom att fylla i dessa värden med föregående värde.
databricks.automl.forecast(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
time_col: str,
primary_metric: str = "smape",
country_code: str = "US", # <DBR> 12.0 ML and above
frequency: str = "D",
horizon: int = 1,
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None,
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_frameworks: Optional[List[str]] = None,
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 12.2 LTS ML and above
identity_col: Optional[Union[str, List[str]]] = None,
sample_weight_col: Optional[str] = None, # <DBR> 16.0 ML and above
output_database: Optional[str] = None, # <DBR> 10.5 ML and above
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Prognosparametrar
Parameternamn | Typ | Beskrivning |
---|---|---|
dataset |
str , pandas.DataFrame , , pyspark.DataFrame pyspark.sql.DataFrame |
Indatatabellnamn eller DataFrame som innehåller träningsfunktioner och mål. Tabellnamnet kan ha formatet ".". eller "." för tabeller som inte är unity-kataloger |
target_col |
str |
Kolumnnamn för måletiketten. |
time_col |
str |
Namn på tidskolumnen för prognostisering. |
primary_metric |
str |
Mått som används för att utvärdera och rangordna modellprestanda. Mått som stöds: "smape" (standard), "mse", "rmse", "mae" eller "mdape". |
country_code |
str |
Finns i Databricks Runtime 12.0 ML och senare. Stöds endast av profetens prognosmodell. Valfritt. Landskod med två bokstäver som anger vilket lands helgdagar prognosmodellen ska använda. Om du vill ignorera helgdagar anger du den här parametern till en tom sträng (""). Länder som stöds. Standard: USA (USA helgdagar). |
frequency |
str |
Frekvens för tidsserierna för prognostisering. Det här är den period med vilken händelser förväntas inträffa. Standardinställningen är "D" eller dagliga data. Se till att ändra inställningen om dina data har en annan frekvens. Möjliga värden: "W" (veckor) "D" / "days" / "day" "hours" / "hour" / "hr" / "h" "m" / "minute" / "min" / "minutes" / "T" "S" / "seconds" / "sec" / "second" Följande är endast tillgängliga med Databricks Runtime 12.0 ML och senare: "M" / "month" / "months" "Q" / "kvartal" / "kvartal" "Y" / "år" / "år" Standard: "D" |
horizon |
int |
Antal perioder in i framtiden för vilka prognoser ska returneras. Enheterna är tidsseriefrekvensen. Standard: 1 |
data_dir |
str format dbfs:/<folder-name> |
Valfritt. DBFS-sökväg som används för att lagra träningsdatauppsättningen. Den här sökvägen är synlig för både drivrutins- och arbetsnoder. Databricks rekommenderar att du lämnar det här fältet tomt, så att AutoML kan spara träningsdatauppsättningen som en MLflow-artefakt. Om en anpassad sökväg har angetts ärver inte datauppsättningen AutoML-experimentets åtkomstbehörigheter. |
experiment_dir |
str |
Valfritt. Sökväg till katalogen på arbetsytan för att spara de genererade notebook-filerna och experimenten. Standard: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Valfritt. Namn på MLflow-experimentet som AutoML skapar. Standard: Namnet genereras automatiskt. |
exclude_frameworks |
List[str] |
Valfritt. Lista över algoritmramverk som AutoML inte bör tänka på när det utvecklar modeller. Möjliga värden: tom lista, eller en eller flera av "profeten", "arima". Standard: [] (alla ramverk beaktas) |
feature_store_lookups |
List[Dict] |
Valfritt. Lista över ordlistor som representerar funktioner från Funktionslager för samexistera dataförstoring. Giltiga nycklar i varje ordlista är: - table_name (str): Krävs. Namnet på funktionstabellen.- lookup_key (lista eller str): Krävs. Kolumnnamn som ska användas som nyckel när du ansluter funktionstabellen med data som skickas i dataset param. Ordningen på kolumnnamnen måste matcha ordningen på de primära nycklarna i funktionstabellen.- timestamp_lookup_key (str): Krävs om den angivna tabellen är en funktionstabell för tidsserier. Kolumnnamnet som ska användas vid sökning till tidpunkt i funktionstabellen med data som skickas i dataset param.Standard: [] |
identity_col |
Union[str, list] |
Valfritt. Kolumner som identifierar tidsserierna för prognostisering i flera serier. AutoML grupperar efter dessa kolumner och tidskolumnen för prognostisering. |
sample_weight_col |
str |
Finns i Databricks Runtime 16.0 ML och senare. Endast för arbetsflöden i flera serier. Valfritt. Anger kolumnen i datamängden som innehåller exempelvikter. Dessa vikter anger den relativa betydelsen av varje tidsserie under modellträning och utvärdering. Tidsserier med högre vikter har större inverkan på modellen. Om det inte anges behandlas alla tidsserier med samma vikt. Alla rader som hör till samma tidsserie måste ha samma vikt. Vikter måste vara icke-negativa värden, antingen decimaler eller heltal, och vara mellan 0 och 10 000. |
output_database |
str |
Valfritt. Om det tillhandahålls sparar AutoML förutsägelser om den bästa modellen i en ny tabell i den angivna databasen. Standard: Förutsägelser sparas inte. |
timeout_minutes |
int |
Valfritt. Maximal tid att vänta tills AutoML-utvärderingsversionerna har slutförts. Med längre tidsgränser kan AutoML köra fler utvärderingsversioner och identifiera en modell med bättre noggrannhet. Standard: 120 minuter Minsta värde: 5 minuter Ett fel rapporteras om tidsgränsen är för kort för att minst en utvärderingsversion ska kunna slutföras. |
Importera notebook-fil
Metoden databricks.automl.import_notebook
importerar en notebook-fil som har sparats som en MLflow-artefakt. Den här metoden returnerar en ImportNotebookResult.
databricks.automl.import_notebook(
artifact_uri: str,
path: str,
overwrite: bool = False
) -> ImportNotebookResult:
Parametrar | Typ | Beskrivning |
---|---|---|
artifact_uri |
str |
URI:n för MLflow-artefakten som innehåller utvärderingsanteckningsboken. |
path |
str |
Sökvägen till databricks-arbetsytan där anteckningsboken ska importeras. Detta måste vara en absolut sökväg. Katalogen skapas om den inte finns. |
overwrite |
bool |
Om anteckningsboken ska skrivas över om den redan finns. Det är False som standard. |
Exempel på import av notebook-fil
summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)
AutoMLSummary
Sammanfattningsobjekt för en AutoML-körning som beskriver mått, parametrar och annan information för var och en av utvärderingsversionerna. Du använder också det här objektet för att läsa in modellen som tränats av en specifik utvärderingsversion.
Property | Type | Beskrivning |
---|---|---|
experiment |
mlflow.entities.Experiment |
MLflow-experimentet som används för att logga utvärderingsversionerna. |
trials |
List[TrialInfo] |
En lista över TrialInfo-objekt som innehåller information om alla utvärderingsversioner som kördes. |
best_trial |
TrialInfo |
Ett TrialInfo-objekt som innehåller information om utvärderingsversionen som resulterade i den bästa viktade poängen för det primära måttet. |
metric_distribution |
str |
Fördelningen av viktade poäng för det primära måttet i alla utvärderingsversioner. |
output_table_name |
str |
Används endast med prognostisering och endast om output_database tillhandahålls. Namnet på tabellen i output_database som innehåller modellens förutsägelser. |
TrialInfo
Sammanfattningsobjekt för varje enskild utvärderingsversion.
Property | Type | Beskrivning |
---|---|---|
notebook_path |
Optional[str] |
Sökvägen till den genererade notebook-filen för den här utvärderingsversionen på arbetsytan. För klassificering och regression anges det här värdet endast för den bästa utvärderingsversionen, medan alla andra utvärderingar har värdet inställt på None .För prognostisering finns det här värdet för alla utvärderingsversioner. |
notebook_url |
Optional[str] |
URL:en för den genererade notebook-filen för den här utvärderingsversionen. För klassificering och regression anges det här värdet endast för den bästa utvärderingsversionen, medan alla andra utvärderingar har värdet inställt på None .För prognostisering finns det här värdet för alla utvärderingsversioner. |
artifact_uri |
Optional[str] |
MLflow-artefakt-URI:n för den genererade notebook-filen. |
mlflow_run_id |
str |
MLflow-körnings-ID:t som är associerat med den här utvärderingskörningen. |
metrics |
Dict[str, float] |
Måtten som loggas i MLflow för den här utvärderingsversionen. |
params |
Dict[str, str] |
Parametrarna som loggades i MLflow som användes för den här utvärderingsversionen. |
model_path |
str |
MLflow-artefakt-URL:en för modellen som tränats i den här utvärderingsversionen. |
model_description |
str |
Kort beskrivning av modellen och de hyperparametrar som används för att träna den här modellen. |
duration |
str |
Träningsvaraktighet i minuter. |
preprocessors |
str |
Beskrivning av de förprocessorer som körs innan modellen tränas. |
evaluation_metric_score |
float |
Poäng för primärt mått, utvärderat för valideringsdatauppsättningen. |
TrialInfo
har en metod för att läsa in modellen som genererats för utvärderingsversionen.
Metod | beskrivning |
---|---|
load_model() |
Läs in modellen som genererades i den här utvärderingsversionen, loggad som en MLflow-artefakt. |
ImportNotebookResult
Property | Type | Beskrivning |
---|---|---|
path |
str |
Sökvägen till databricks-arbetsytan där anteckningsboken ska importeras. Detta måste vara en absolut sökväg. Katalogen skapas om den inte finns. |
url |
str |
URI:n för MLflow-artefakten som innehåller utvärderingsanteckningsboken. |