Referência da API Python do Mosaic AutoML
Este artigo descreve a API Python do Mosaic AutoML, que fornece métodos para iniciar a classificação, a regressão e a previsão de execuções do AutoML. Cada chamada de método treina um conjunto de modelos e gera um notebook de avaliação para cada modelo.
Para obter mais informações sobre o Mosaic AutoML, incluindo uma opção de interface do usuário com pouco código, consulte O que é o Mosaic AutoML?.
Classificar
O databricks.automl.classify
método configura uma execução do Mosaic AutoML para treinar um modelo de classificação.
Observação
O parâmetro max_trials
está preterido no Databricks Runtime 10.4 ML e não é compatível com o Databricks Runtime 11.0 ML e superior. Use timeout_minutes
para controlar a duração de uma execução do AutoML.
databricks.automl.classify(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "f1",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
pos_label: Optional[Union[int, bool, str]] = None, # <DBR> 11.1 ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None # <DBR> 15.4 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Parâmetros de classificação
Nome do parâmetro | Tipo | Descrição |
---|---|---|
dataset |
str , pandas.DataFrame , pyspark.DataFrame , pyspark.sql.DataFrame |
Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato “<database_name>.<table_name>” ou “<schema_name>.<table_name>” para tabelas que não são do Catálogo do Unity. |
target_col |
str |
Nome da coluna para o rótulo de destino. |
primary_metric |
str |
Métrica usada para avaliar e classificar o desempenho do modelo. Métricas com suporte para regressão: "r2" (padrão), "mae", "rmse", "mse" Métricas com suporte para classificação: “f1” (default), “log_loss”, “precision”, “accuracy”, “roc_auc” |
data_dir |
str do formato dbfs:/<folder-name> |
Opcional. Caminho DBFS usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para nós de driver e de trabalho. O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato do MLflow. Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento do AutoML. |
experiment_dir |
str |
Opcional. Caminho para o diretório no workspace para salvar os notebooks e experimentos gerados. Padrão: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Opcional. Nome do experimento do MLflow que o AutoML cria. Padrão: o nome é gerado automaticamente. |
exclude_cols |
List[str] |
Opcional. Lista de colunas a ignorar durante cálculos de AutoML. Padrão: [] |
exclude_frameworks |
List[str] |
Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar à medida que desenvolve modelos. Valores possíveis: lista vazia ou um ou mais de "sklearn", "lightgbm", "xgboost". Padrão: [] (todas as estruturas são consideradas) |
feature_store_lookups |
List[Dict] |
Opcional. Lista de dicionários que representam recursos do Repositório de Recursos para aumento de dados. As chaves válidas em cada dicionário são: - table_name (str): obrigatório. Nome da tabela de recursos.- lookup_key (list ou str): obrigatório. Nomes de coluna a serem usados como chave ao unir a tabela de recursos com os dados passados no parâmetro dataset . A ordem dos nomes de coluna deve corresponder à ordem das chaves primárias da tabela de recursos.- timestamp_lookup_key (str): obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa pontual na tabela de recursos com os dados passados no parâmetro dataset .Padrão: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Opcional. Dicionário em que cada chave é um nome de coluna, e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser "mean", "median" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>} . Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo, {"strategy": "mean"} .Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a detecção de tipo semântico. Padrão: {} |
pos_label |
Union[int, bool, str] |
(Somente classificação) A classe positiva. Isso é útil para calcular métricas como precisão e recall. Deve ser especificado apenas para problemas de classificação binária. |
time_col |
str |
Disponível no Databricks Runtime 10.1 ML e superior. Opcional. Nome da coluna de tempo. Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os pontos mais antigos como dados de treinamento e os pontos mais recentes como um conjunto de testes. Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com Databricks Runtime 10.2 ML superior, também há suporte para colunas de cadeia de caracteres. Se o tipo de coluna for cadeia de caracteres, o AutoML tentará convertê-lo em um carimbo de data/hora usando a detecção semântica. Se a conversão falhar, a execução do AutoML falhará. |
split_col |
str |
Opcional. Nome da coluna para uma coluna dividida. Disponível somente no Databricks Runtime 15.3 ML e em versões posteriores para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir conjuntos de treinamento/validação/teste por valores especificados pelo usuário, e essa coluna é automaticamente excluída dos recursos de treinamento. O tipo de coluna aceito é cadeia de caracteres. O valor de cada entrada nesta coluna deve ser um dos seguintes: “treinar”, “validar” ou “testar”. |
sample_weight_col |
str |
Disponível no Databricks Runtime 15.4 ML e em versões posteriores para fluxos de trabalho de API de classificação. Opcional. Nome da coluna no conjunto de dados que contém os pesos amostrais de cada linha. A classificação dá suporte aos pesos de exemplo por classe. Esses pesos ajustam a importância de cada classe durante o treinamento do modelo. Cada amostra dentro de uma classe deve ter o mesmo peso de exemplo e os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Classes com pesos amostrais maiores são consideradas mais importantes e têm maior influência no algoritmo de aprendizado. Se a coluna não for especificada, todas as classes terão peso igual. |
max_trials |
int |
Opcional. Número máximo de tentativas a executar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e anterior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, esse parâmetro não tem mais suporte. Padrão: 20 Se timeout_minutes=None, o AutoML executa o número máximo de tentativas. |
timeout_minutes |
int |
Opcional. Tempo máximo para aguardar a conclusão das avaliações de AutoML. Carimbos de data/hora mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão. Padrão: 120 minutos Valor mínimo: 5 minutos Um erro será relatado se o carimbo de data/hora for muito curto para permitir que pelo menos uma avaliação seja concluída. |
Regredir
O método databricks.automl.regress
configura uma execução de AutoML para treinar um modelo de regressão. Esse método retorna um AutoMLSummary.
Observação
O parâmetro max_trials
está preterido no Databricks Runtime 10.4 ML e não é compatível com o Databricks Runtime 11.0 ML e superior. Use timeout_minutes
para controlar a duração de uma execução do AutoML.
databricks.automl.regress(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
primary_metric: str = "r2",
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None, # <DBR> 10.4 LTS ML and above
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_cols: Optional[List[str]] = None, # <DBR> 10.3 ML and above
exclude_frameworks: Optional[List[str]] = None, # <DBR> 10.3 ML and above
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 11.3 LTS ML and above
imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
time_col: Optional[str] = None,
split_col: Optional[str] = None, # <DBR> 15.3 ML and above
sample_weight_col: Optional[str] = None, # <DBR> 15.3 ML and above
max_trials: Optional[int] = None, # <DBR> 10.5 ML and below
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Parâmetros de regressão
Nome do parâmetro | Tipo | Descrição |
---|---|---|
dataset |
str , pandas.DataFrame , pyspark.DataFrame , pyspark.sql.DataFrame |
Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato “<database_name>.<table_name>” ou “<schema_name>.<table_name>” para tabelas que não são do Catálogo do Unity. |
target_col |
str |
Nome da coluna para o rótulo de destino. |
primary_metric |
str |
Métrica usada para avaliar e classificar o desempenho do modelo. Métricas com suporte para regressão: "r2" (padrão), "mae", "rmse", "mse" Métricas com suporte para classificação: “f1” (default), “log_loss”, “precision”, “accuracy”, “roc_auc” |
data_dir |
str do formato dbfs:/<folder-name> |
Opcional. Caminho DBFS usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para nós de driver e de trabalho. O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato do MLflow. Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento do AutoML. |
experiment_dir |
str |
Opcional. Caminho para o diretório no workspace para salvar os notebooks e experimentos gerados. Padrão: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Opcional. Nome do experimento do MLflow que o AutoML cria. Padrão: o nome é gerado automaticamente. |
exclude_cols |
List[str] |
Opcional. Lista de colunas a ignorar durante cálculos de AutoML. Padrão: [] |
exclude_frameworks |
List[str] |
Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar à medida que desenvolve modelos. Valores possíveis: lista vazia ou um ou mais de "sklearn", "lightgbm", "xgboost". Padrão: [] (todas as estruturas são consideradas) |
feature_store_lookups |
List[Dict] |
Opcional. Lista de dicionários que representam recursos do Repositório de Recursos para aumento de dados. As chaves válidas em cada dicionário são: - table_name (str): obrigatório. Nome da tabela de recursos.- lookup_key (list ou str): obrigatório. Nomes de coluna a serem usados como chave ao unir a tabela de recursos com os dados passados no parâmetro dataset . A ordem dos nomes de coluna deve corresponder à ordem das chaves primárias da tabela de recursos.- timestamp_lookup_key (str): obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa pontual na tabela de recursos com os dados passados no parâmetro dataset .Padrão: [] |
imputers |
Dict[str, Union[str, Dict[str, Any]]] |
Opcional. Dicionário em que cada chave é um nome de coluna, e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser "mean", "median" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>} . Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo, {"strategy": "mean"} .Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a detecção de tipo semântico. Padrão: {} |
time_col |
str |
Disponível no Databricks Runtime 10.1 ML e superior. Opcional. Nome da coluna de tempo. Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os pontos mais antigos como dados de treinamento e os pontos mais recentes como um conjunto de testes. Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com Databricks Runtime 10.2 ML superior, também há suporte para colunas de cadeia de caracteres. Se o tipo de coluna for cadeia de caracteres, o AutoML tentará convertê-lo em um carimbo de data/hora usando a detecção semântica. Se a conversão falhar, a execução do AutoML falhará. |
split_col |
str |
Opcional. Nome da coluna para uma coluna dividida. Disponível somente no Databricks Runtime 15.3 ML e em versões posteriores para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir conjuntos de treinamento/validação/teste por valores especificados pelo usuário, e essa coluna é automaticamente excluída dos recursos de treinamento. O tipo de coluna aceito é cadeia de caracteres. O valor de cada entrada nesta coluna deve ser um dos seguintes: “treinar”, “validar” ou “testar”. |
sample_weight_col |
str |
Disponível no Databricks Runtime 15.3 ML e em versões posteriores para fluxos de trabalho de API de regressão. Opcional. Nome da coluna no conjunto de dados que contém os pesos amostrais de cada linha. Esses pesos ajustam a importância de cada linha durante o treinamento do modelo. Os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Linhas com pesos amostrais maiores são consideradas mais importantes e têm maior influência no algoritmo de aprendizado. Se a coluna não for especificada, todas as linhas terão peso igual. |
max_trials |
int |
Opcional. Número máximo de tentativas a executar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e anterior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, esse parâmetro não tem mais suporte. Padrão: 20 Se timeout_minutes=None, o AutoML executa o número máximo de tentativas. |
timeout_minutes |
int |
Opcional. Tempo máximo para aguardar a conclusão das avaliações de AutoML. Carimbos de data/hora mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão. Padrão: 120 minutos Valor mínimo: 5 minutos Um erro será relatado se o carimbo de data/hora for muito curto para permitir que pelo menos uma avaliação seja concluída. |
Previsão
O método databricks.automl.forecast
configura uma execução de AutoML para treinar um modelo de previsão. Esse método retorna um AutoMLSummary.
Para usar o ARIMA automático, a série temporal deve ter uma frequência regular (ou seja, o intervalo entre dois pontos deve ser o mesmo em toda a série temporal). A frequência deve corresponder à unidade de frequência especificada na chamada à API. O AutoML trata das etapas de tempo ausentes preenchendo esses valores com o valor anterior.
databricks.automl.forecast(
dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
*,
target_col: str,
time_col: str,
primary_metric: str = "smape",
country_code: str = "US", # <DBR> 12.0 ML and above
frequency: str = "D",
horizon: int = 1,
data_dir: Optional[str] = None,
experiment_dir: Optional[str] = None,
experiment_name: Optional[str] = None, # <DBR> 12.1 ML and above
exclude_frameworks: Optional[List[str]] = None,
feature_store_lookups: Optional[List[Dict]] = None, # <DBR> 12.2 LTS ML and above
identity_col: Optional[Union[str, List[str]]] = None,
sample_weight_col: Optional[str] = None, # <DBR> 16.0 ML and above
output_database: Optional[str] = None, # <DBR> 10.5 ML and above
timeout_minutes: Optional[int] = None,
) -> AutoMLSummary
Parâmetros de previsão
Nome do parâmetro | Tipo | Descrição |
---|---|---|
dataset |
str , pandas.DataFrame , pyspark.DataFrame , pyspark.sql.DataFrame |
Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato ".." ou “.” para tabelas que não são do Catálogo do Unity |
target_col |
str |
Nome da coluna para o rótulo de destino. |
time_col |
str |
Nome da coluna de tempo para previsão. |
primary_metric |
str |
Métrica usada para avaliar e classificar o desempenho do modelo. Métricas com suporte: “smape” (padrão), “mse”, “rmse”, “mae”, ou “mdape”. |
country_code |
str |
Disponível no Databricks Runtime 12.0 ML e superior. Compatível apenas com o modelo de previsão do Prophet. Opcional. Código do país de duas letras que indica quais feriados do país o modelo de previsão deve usar. Para ignorar feriados, defina esse parâmetro como uma cadeia de caracteres vazia (""). Países com suporte. Padrão: US (feriados dos Estados Unidos). |
frequency |
str |
Frequência da série temporal para previsão. Esse é o período no qual os eventos devem ocorrer. A configuração padrão é "D" ou dados diários. Você deverá alterar a configuração se os dados tiverem uma frequência diferente. Valores possíveis: “W” (semanas) “D” / “days” / “day” “hours” / “hour” / “hr” / “h” “m” / “minute” / “min” / “minutes” / “T” “S” / “seconds” / “sec” / “second” Os seguintes itens só estão disponíveis com o Databricks Runtime 12.0 ML e superior: “M” / “month” / “months” “Q” / “quarter” / “quarters” “Y” / “year” / “years” Padrão: "D" |
horizon |
int |
Número de períodos no futuro para os quais as previsões devem ser retornadas. As unidades são a frequência de séries temporais. Padrão: 1 |
data_dir |
str do formato dbfs:/<folder-name> |
Opcional. Caminho DBFS usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para nós de driver e de trabalho. O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato do MLflow. Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento do AutoML. |
experiment_dir |
str |
Opcional. Caminho para o diretório no workspace para salvar os notebooks e experimentos gerados. Padrão: /Users/<username>/databricks_automl/ |
experiment_name |
str |
Opcional. Nome do experimento do MLflow que o AutoML cria. Padrão: o nome é gerado automaticamente. |
exclude_frameworks |
List[str] |
Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar à medida que desenvolve modelos. Valores possíveis: lista vazia, ou um ou mais de “prophet”, “arima”. Padrão: [] (todas as estruturas são consideradas) |
feature_store_lookups |
List[Dict] |
Opcional. Lista de dicionários que representam recursos do Repositório de Recursos para aumento de dados de covariância. As chaves válidas em cada dicionário são: - table_name (str): obrigatório. Nome da tabela de recursos.- lookup_key (list ou str): obrigatório. Nomes de coluna a serem usados como chave ao unir a tabela de recursos com os dados passados no parâmetro dataset . A ordem dos nomes de coluna deve corresponder à ordem das chaves primárias da tabela de recursos.- timestamp_lookup_key (str): obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa pontual na tabela de recursos com os dados passados no parâmetro dataset .Padrão: [] |
identity_col |
Union[str, list] |
Opcional. Colunas que identificam a série temporal para previsão de várias séries. O AutoML agrupa por essas colunas e pela coluna de tempo para previsão. |
sample_weight_col |
str |
Disponível no Databricks Runtime 16.0 ML e superior. Somente para fluxos de trabalho de várias séries temporais. Opcional. Especifica a coluna no conjunto de dados que contém pesos de amostra. Esses pesos indicam a importância relativa de cada série temporal durante o treinamento e a avaliação do modelo. Séries temporais com pesos maiores têm maior influência no modelo. Se não for fornecido, todas as séries temporais são tratadas com peso igual. Todas as linhas pertencentes à mesma série temporal devem ter o mesmo peso. Os pesos devem ser valores não negativos, decimais ou inteiros, e estar entre 0 e 10.000. |
output_database |
str |
Opcional. Se fornecido, o AutoML salvará previsões do melhor modelo para uma nova tabela no banco de dados especificado. Padrão: as previsões não são salvas. |
timeout_minutes |
int |
Opcional. Tempo máximo para aguardar a conclusão das avaliações de AutoML. Carimbos de data/hora mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão. Padrão: 120 minutos Valor mínimo: 5 minutos Um erro será relatado se o carimbo de data/hora for muito curto para permitir que pelo menos uma avaliação seja concluída. |
Importar notebook
O método databricks.automl.import_notebook
importa um notebook salvo como um artefato do MLflow. Esse método retorna um ImportNotebookResult.
databricks.automl.import_notebook(
artifact_uri: str,
path: str,
overwrite: bool = False
) -> ImportNotebookResult:
Parâmetros | Tipo | Descrição |
---|---|---|
artifact_uri |
str |
O URI do artefato MLflow que contém o notebook de avaliação. |
path |
str |
O caminho no workspace do Databricks para o qual o notebook deve ser importado. Isso deve ser um caminho absoluto. O diretório será criado se ele não existir. |
overwrite |
bool |
Se deseja substituir o notebook, se ele já existir. Por padrão, é False . |
Importar exemplo de notebook
summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)
AutoMLSummary
Objeto de resumo para uma execução do AutoML que descreve as métricas, os parâmetros e outros detalhes para cada uma das avaliações. Você também usa esse objeto para carregar o modelo treinado por uma avaliação específica.
Propriedade | Type | Descrição |
---|---|---|
experiment |
mlflow.entities.Experiment |
O experimento MLflow usado para registrar as avaliações. |
trials |
List[TrialInfo] |
Uma lista de objetos TrialInfo que contém informações sobre todas as avaliações que foram executadas. |
best_trial |
TrialInfo |
Um objeto TrialInfo contendo informações sobre a avaliação que resultaram na melhor pontuação ponderada da métrica primária. |
metric_distribution |
str |
A distribuição de pontuações ponderadas para a métrica primária em todas as avaliações. |
output_table_name |
str |
Usado somente com previsão e somente se output_database for fornecido. Nome da tabela no output_database que contém as previsões do modelo. |
TrialInfo
Objeto de resumo para cada avaliação individual.
Propriedade | Type | Descrição |
---|---|---|
notebook_path |
Optional[str] |
O caminho para o notebook gerado para esta avaliação no espaço de trabalho. Para classificação e regressão, esse valor é definido apenas para a melhor avaliação, enquanto todas as outras avaliações têm o valor definido como None .Para previsão, esse valor está presente para todas as avaliações. |
notebook_url |
Optional[str] |
A URL do notebook gerado para esta avaliação. Para classificação e regressão, esse valor é definido apenas para a melhor avaliação, enquanto todas as outras avaliações têm o valor definido como None .Para previsão, esse valor está presente para todas as avaliações. |
artifact_uri |
Optional[str] |
O URI do artefato do MLflow para o notebook gerado. |
mlflow_run_id |
str |
A ID de execução do MLflow associada a esta execução de avaliação. |
metrics |
Dict[str, float] |
As métricas registradas em MLflow para esta avaliação. |
params |
Dict[str, str] |
Os parâmetros registrados em MLflow que foram usados para esta avaliação. |
model_path |
str |
A URL do artefato MLflow do modelo treinado nesta avaliação. |
model_description |
str |
Breve descrição do modelo e dos hiperparâmetros usados para treinar esse modelo. |
duration |
str |
Duração do treinamento em minutos |
preprocessors |
str |
Descrição dos pré-processadores executados antes de treinar o modelo. |
evaluation_metric_score |
float |
Pontuação da métrica primária, avaliada para o conjunto de dados de validação. |
TrialInfo
tem um método para carregar o modelo gerado para a avaliação.
Método | Descrição |
---|---|
load_model() |
Carregue o modelo gerado nesta avaliação, registrado como um artefato MLflow. |
ImportNotebookResult
Propriedade | Type | Descrição |
---|---|---|
path |
str |
O caminho no workspace do Databricks para o qual o notebook deve ser importado. Isso deve ser um caminho absoluto. O diretório será criado se ele não existir. |
url |
str |
O URI do artefato MLflow que contém o notebook de avaliação. |