Compartilhar via


Referência da API Python do Mosaic AutoML

Este artigo descreve a API Python do Mosaic AutoML, que fornece métodos para iniciar a classificação, a regressão e a previsão de execuções do AutoML. Cada chamada de método treina um conjunto de modelos e gera um notebook de avaliação para cada modelo.

Para obter mais informações sobre o Mosaic AutoML, incluindo uma opção de interface do usuário com pouco código, consulte O que é o Mosaic AutoML?.

Classificar

O databricks.automl.classify método configura uma execução do Mosaic AutoML para treinar um modelo de classificação.

Observação

O parâmetro max_trials está preterido no Databricks Runtime 10.4 ML e não é compatível com o Databricks Runtime 11.0 ML e superior. Use timeout_minutes para controlar a duração de uma execução do AutoML.

databricks.automl.classify(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "f1",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  pos_label: Optional[Union[int, bool, str]] = None,                 # <DBR> 11.1 ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None                           # <DBR> 15.4 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de classificação

Nome do parâmetro Tipo Descrição
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato “<database_name>.<table_name>” ou “<schema_name>.<table_name>” para tabelas que não são do Catálogo do Unity.
target_col str Nome da coluna para o rótulo de destino.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.

Métricas com suporte para regressão: "r2" (padrão), "mae", "rmse", "mse"

Métricas com suporte para classificação: “f1” (default), “log_loss”, “precision”, “accuracy”, “roc_auc”
data_dir str do formato dbfs:/<folder-name> Opcional. Caminho DBFS usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para nós de driver e de trabalho.

O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato do MLflow.

Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento do AutoML.
experiment_dir str Opcional. Caminho para o diretório no workspace para salvar os notebooks e experimentos gerados.

Padrão: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome do experimento do MLflow que o AutoML cria.

Padrão: o nome é gerado automaticamente.
exclude_cols List[str] Opcional. Lista de colunas a ignorar durante cálculos de AutoML.

Padrão: []
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar à medida que desenvolve modelos. Valores possíveis: lista vazia ou um ou mais de "sklearn", "lightgbm", "xgboost".

Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do Repositório de Recursos para aumento de dados. As chaves válidas em cada dicionário são:

- table_name (str): obrigatório. Nome da tabela de recursos.
- lookup_key (list ou str): obrigatório. Nomes de coluna a serem usados como chave ao unir a tabela de recursos com os dados passados no parâmetro dataset. A ordem dos nomes de coluna deve corresponder à ordem das chaves primárias da tabela de recursos.
- timestamp_lookup_key (str): obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa pontual na tabela de recursos com os dados passados no parâmetro dataset.

Padrão: []
imputers Dict[str, Union[str, Dict[str, Any]]] Opcional. Dicionário em que cada chave é um nome de coluna, e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser "mean", "median" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>}. Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo, {"strategy": "mean"}.

Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a detecção de tipo semântico.

Padrão: {}
pos_label Union[int, bool, str] (Somente classificação) A classe positiva. Isso é útil para calcular métricas como precisão e recall. Deve ser especificado apenas para problemas de classificação binária.
time_col str Disponível no Databricks Runtime 10.1 ML e superior.

Opcional. Nome da coluna de tempo.

Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os pontos mais antigos como dados de treinamento e os pontos mais recentes como um conjunto de testes.

Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com Databricks Runtime 10.2 ML superior, também há suporte para colunas de cadeia de caracteres.

Se o tipo de coluna for cadeia de caracteres, o AutoML tentará convertê-lo em um carimbo de data/hora usando a detecção semântica. Se a conversão falhar, a execução do AutoML falhará.
split_col str Opcional. Nome da coluna para uma coluna dividida. Disponível somente no Databricks Runtime 15.3 ML e em versões posteriores para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir conjuntos de treinamento/validação/teste por valores especificados pelo usuário, e essa coluna é automaticamente excluída dos recursos de treinamento.

O tipo de coluna aceito é cadeia de caracteres. O valor de cada entrada nesta coluna deve ser um dos seguintes: “treinar”, “validar” ou “testar”.
sample_weight_col str Disponível no Databricks Runtime 15.4 ML e em versões posteriores para fluxos de trabalho de API de classificação.

Opcional. Nome da coluna no conjunto de dados que contém os pesos amostrais de cada linha. A classificação dá suporte aos pesos de exemplo por classe. Esses pesos ajustam a importância de cada classe durante o treinamento do modelo. Cada amostra dentro de uma classe deve ter o mesmo peso de exemplo e os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Classes com pesos amostrais maiores são consideradas mais importantes e têm maior influência no algoritmo de aprendizado. Se a coluna não for especificada, todas as classes terão peso igual.
max_trials int Opcional. Número máximo de tentativas a executar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e anterior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, esse parâmetro não tem mais suporte.

Padrão: 20

Se timeout_minutes=None, o AutoML executa o número máximo de tentativas.
timeout_minutes int Opcional. Tempo máximo para aguardar a conclusão das avaliações de AutoML. Carimbos de data/hora mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.

Padrão: 120 minutos

Valor mínimo: 5 minutos

Um erro será relatado se o carimbo de data/hora for muito curto para permitir que pelo menos uma avaliação seja concluída.

Regredir

O método databricks.automl.regress configura uma execução de AutoML para treinar um modelo de regressão. Esse método retorna um AutoMLSummary.

Observação

O parâmetro max_trials está preterido no Databricks Runtime 10.4 ML e não é compatível com o Databricks Runtime 11.0 ML e superior. Use timeout_minutes para controlar a duração de uma execução do AutoML.

databricks.automl.regress(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  primary_metric: str = "r2",
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,                             # <DBR> 10.4 LTS ML and above
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_cols: Optional[List[str]] = None,                         # <DBR> 10.3 ML and above
  exclude_frameworks: Optional[List[str]] = None,                   # <DBR> 10.3 ML and above
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 11.3 LTS ML and above
  imputers: Optional[Dict[str, Union[str, Dict[str, Any]]]] = None, # <DBR> 10.4 LTS ML and above
  time_col: Optional[str] = None,
  split_col: Optional[str] = None,                                  # <DBR> 15.3 ML and above
  sample_weight_col: Optional[str] = None,                          # <DBR> 15.3 ML and above
  max_trials: Optional[int] = None,                                 # <DBR> 10.5 ML and below
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de regressão

Nome do parâmetro Tipo Descrição
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino. O nome da tabela pode estar no formato “<database_name>.<table_name>” ou “<schema_name>.<table_name>” para tabelas que não são do Catálogo do Unity.
target_col str Nome da coluna para o rótulo de destino.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.

Métricas com suporte para regressão: "r2" (padrão), "mae", "rmse", "mse"

Métricas com suporte para classificação: “f1” (default), “log_loss”, “precision”, “accuracy”, “roc_auc”
data_dir str do formato dbfs:/<folder-name> Opcional. Caminho DBFS usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para nós de driver e de trabalho.

O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato do MLflow.

Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento do AutoML.
experiment_dir str Opcional. Caminho para o diretório no workspace para salvar os notebooks e experimentos gerados.

Padrão: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome do experimento do MLflow que o AutoML cria.

Padrão: o nome é gerado automaticamente.
exclude_cols List[str] Opcional. Lista de colunas a ignorar durante cálculos de AutoML.

Padrão: []
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar à medida que desenvolve modelos. Valores possíveis: lista vazia ou um ou mais de "sklearn", "lightgbm", "xgboost".

Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do Repositório de Recursos para aumento de dados. As chaves válidas em cada dicionário são:

- table_name (str): obrigatório. Nome da tabela de recursos.
- lookup_key (list ou str): obrigatório. Nomes de coluna a serem usados como chave ao unir a tabela de recursos com os dados passados no parâmetro dataset. A ordem dos nomes de coluna deve corresponder à ordem das chaves primárias da tabela de recursos.
- timestamp_lookup_key (str): obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa pontual na tabela de recursos com os dados passados no parâmetro dataset.

Padrão: []
imputers Dict[str, Union[str, Dict[str, Any]]] Opcional. Dicionário em que cada chave é um nome de coluna, e cada valor é uma cadeia de caracteres ou dicionário que descreve a estratégia de imputação. Se especificado como uma cadeia de caracteres, o valor deve ser "mean", "median" ou "most_frequent". Para imputar com um valor conhecido, especifique o valor como um dicionário {"strategy": "constant", "fill_value": <desired value>}. Você também pode especificar opções de cadeia de caracteres como dicionários, por exemplo, {"strategy": "mean"}.

Se nenhuma estratégia de imputação for fornecida para uma coluna, o AutoML selecionará uma estratégia padrão com base no tipo e no conteúdo da coluna. Se você especificar um método de imputação não padrão, o AutoML não executará a detecção de tipo semântico.

Padrão: {}
time_col str Disponível no Databricks Runtime 10.1 ML e superior.

Opcional. Nome da coluna de tempo.

Se fornecido, o AutoML tenta dividir o conjunto de dados em conjuntos de treinamento, validação e teste cronologicamente, usando os pontos mais antigos como dados de treinamento e os pontos mais recentes como um conjunto de testes.

Os tipos de coluna aceitos são carimbo de data/hora e inteiro. Com Databricks Runtime 10.2 ML superior, também há suporte para colunas de cadeia de caracteres.

Se o tipo de coluna for cadeia de caracteres, o AutoML tentará convertê-lo em um carimbo de data/hora usando a detecção semântica. Se a conversão falhar, a execução do AutoML falhará.
split_col str Opcional. Nome da coluna para uma coluna dividida. Disponível somente no Databricks Runtime 15.3 ML e em versões posteriores para fluxos de trabalho de API. Se fornecido, o AutoML tenta dividir conjuntos de treinamento/validação/teste por valores especificados pelo usuário, e essa coluna é automaticamente excluída dos recursos de treinamento.

O tipo de coluna aceito é cadeia de caracteres. O valor de cada entrada nesta coluna deve ser um dos seguintes: “treinar”, “validar” ou “testar”.
sample_weight_col str Disponível no Databricks Runtime 15.3 ML e em versões posteriores para fluxos de trabalho de API de regressão.

Opcional. Nome da coluna no conjunto de dados que contém os pesos amostrais de cada linha. Esses pesos ajustam a importância de cada linha durante o treinamento do modelo. Os pesos devem ser valores decimais ou inteiros não negativos, variando de 0 a 10.000. Linhas com pesos amostrais maiores são consideradas mais importantes e têm maior influência no algoritmo de aprendizado. Se a coluna não for especificada, todas as linhas terão peso igual.
max_trials int Opcional. Número máximo de tentativas a executar. Este parâmetro está disponível no Databricks Runtime 10.5 ML e anterior, mas foi preterido a partir do Databricks Runtime 10.3 ML. No Databricks Runtime 11.0 ML e superior, esse parâmetro não tem mais suporte.

Padrão: 20

Se timeout_minutes=None, o AutoML executa o número máximo de tentativas.
timeout_minutes int Opcional. Tempo máximo para aguardar a conclusão das avaliações de AutoML. Carimbos de data/hora mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.

Padrão: 120 minutos

Valor mínimo: 5 minutos

Um erro será relatado se o carimbo de data/hora for muito curto para permitir que pelo menos uma avaliação seja concluída.

Previsão

O método databricks.automl.forecast configura uma execução de AutoML para treinar um modelo de previsão. Esse método retorna um AutoMLSummary. Para usar o ARIMA automático, a série temporal deve ter uma frequência regular (ou seja, o intervalo entre dois pontos deve ser o mesmo em toda a série temporal). A frequência deve corresponder à unidade de frequência especificada na chamada à API. O AutoML trata das etapas de tempo ausentes preenchendo esses valores com o valor anterior.

databricks.automl.forecast(
  dataset: Union[pyspark.sql.DataFrame, pandas.DataFrame, pyspark.pandas.DataFrame, str],
  *,
  target_col: str,
  time_col: str,
  primary_metric: str = "smape",
  country_code: str = "US",                                         # <DBR> 12.0 ML and above
  frequency: str = "D",
  horizon: int = 1,
  data_dir: Optional[str] = None,
  experiment_dir: Optional[str] = None,
  experiment_name: Optional[str] = None,                            # <DBR> 12.1 ML and above
  exclude_frameworks: Optional[List[str]] = None,
  feature_store_lookups: Optional[List[Dict]] = None,               # <DBR> 12.2 LTS ML and above
  identity_col: Optional[Union[str, List[str]]] = None,
  sample_weight_col: Optional[str] = None,                          # <DBR> 16.0 ML and above
  output_database: Optional[str] = None,                            # <DBR> 10.5 ML and above
  timeout_minutes: Optional[int] = None,
) -> AutoMLSummary

Parâmetros de previsão

Nome do parâmetro Tipo Descrição
dataset str, pandas.DataFrame, pyspark.DataFrame, pyspark.sql.DataFrame Nome da tabela de entrada ou DataFrame que contém recursos de treinamento e destino.

O nome da tabela pode estar no formato ".." ou “.” para tabelas que não são do Catálogo do Unity
target_col str Nome da coluna para o rótulo de destino.
time_col str Nome da coluna de tempo para previsão.
primary_metric str Métrica usada para avaliar e classificar o desempenho do modelo.

Métricas com suporte: “smape” (padrão), “mse”, “rmse”, “mae”, ou “mdape”.
country_code str Disponível no Databricks Runtime 12.0 ML e superior. Compatível apenas com o modelo de previsão do Prophet.

Opcional. Código do país de duas letras que indica quais feriados do país o modelo de previsão deve usar. Para ignorar feriados, defina esse parâmetro como uma cadeia de caracteres vazia ("").

Países com suporte.

Padrão: US (feriados dos Estados Unidos).
frequency str Frequência da série temporal para previsão. Esse é o período no qual os eventos devem ocorrer. A configuração padrão é "D" ou dados diários. Você deverá alterar a configuração se os dados tiverem uma frequência diferente.

Valores possíveis:

“W” (semanas)

“D” / “days” / “day”

“hours” / “hour” / “hr” / “h”

“m” / “minute” / “min” / “minutes” / “T”

“S” / “seconds” / “sec” / “second”

Os seguintes itens só estão disponíveis com o Databricks Runtime 12.0 ML e superior:

“M” / “month” / “months”

“Q” / “quarter” / “quarters”

“Y” / “year” / “years”

Padrão: "D"
horizon int Número de períodos no futuro para os quais as previsões devem ser retornadas.

As unidades são a frequência de séries temporais.

Padrão: 1
data_dir str do formato dbfs:/<folder-name> Opcional. Caminho DBFS usado para armazenar o conjunto de dados de treinamento. Esse caminho é visível para nós de driver e de trabalho.

O Databricks recomenda deixar esse campo vazio, para que o AutoML possa salvar o conjunto de dados de treinamento como um artefato do MLflow.

Se um caminho personalizado for especificado, o conjunto de dados não herdará as permissões de acesso do experimento do AutoML.
experiment_dir str Opcional. Caminho para o diretório no workspace para salvar os notebooks e experimentos gerados.

Padrão: /Users/<username>/databricks_automl/
experiment_name str Opcional. Nome do experimento do MLflow que o AutoML cria.

Padrão: o nome é gerado automaticamente.
exclude_frameworks List[str] Opcional. Lista de estruturas de algoritmo que o AutoML não deve considerar à medida que desenvolve modelos. Valores possíveis: lista vazia, ou um ou mais de “prophet”, “arima”.

Padrão: [] (todas as estruturas são consideradas)
feature_store_lookups List[Dict] Opcional. Lista de dicionários que representam recursos do Repositório de Recursos para aumento de dados de covariância. As chaves válidas em cada dicionário são:

- table_name (str): obrigatório. Nome da tabela de recursos.
- lookup_key (list ou str): obrigatório. Nomes de coluna a serem usados como chave ao unir a tabela de recursos com os dados passados no parâmetro dataset. A ordem dos nomes de coluna deve corresponder à ordem das chaves primárias da tabela de recursos.
- timestamp_lookup_key (str): obrigatório se a tabela especificada for uma tabela de recursos de série temporal. O nome da coluna a ser usado ao executar a pesquisa pontual na tabela de recursos com os dados passados no parâmetro dataset.

Padrão: []
identity_col Union[str, list] Opcional. Colunas que identificam a série temporal para previsão de várias séries. O AutoML agrupa por essas colunas e pela coluna de tempo para previsão.
sample_weight_col str Disponível no Databricks Runtime 16.0 ML e superior. Somente para fluxos de trabalho de várias séries temporais.

Opcional. Especifica a coluna no conjunto de dados que contém pesos de amostra. Esses pesos indicam a importância relativa de cada série temporal durante o treinamento e a avaliação do modelo.

Séries temporais com pesos maiores têm maior influência no modelo. Se não for fornecido, todas as séries temporais são tratadas com peso igual.

Todas as linhas pertencentes à mesma série temporal devem ter o mesmo peso.

Os pesos devem ser valores não negativos, decimais ou inteiros, e estar entre 0 e 10.000.
output_database str Opcional. Se fornecido, o AutoML salvará previsões do melhor modelo para uma nova tabela no banco de dados especificado.

Padrão: as previsões não são salvas.
timeout_minutes int Opcional. Tempo máximo para aguardar a conclusão das avaliações de AutoML. Carimbos de data/hora mais longos permitem que o AutoML execute mais testes e identifique um modelo com melhor precisão.

Padrão: 120 minutos

Valor mínimo: 5 minutos

Um erro será relatado se o carimbo de data/hora for muito curto para permitir que pelo menos uma avaliação seja concluída.

Importar notebook

O método databricks.automl.import_notebook importa um notebook salvo como um artefato do MLflow. Esse método retorna um ImportNotebookResult.

databricks.automl.import_notebook(
  artifact_uri: str,
  path: str,
  overwrite: bool = False
) -> ImportNotebookResult:
Parâmetros Tipo Descrição
artifact_uri str O URI do artefato MLflow que contém o notebook de avaliação.
path str O caminho no workspace do Databricks para o qual o notebook deve ser importado. Isso deve ser um caminho absoluto. O diretório será criado se ele não existir.
overwrite bool Se deseja substituir o notebook, se ele já existir. Por padrão, é False.

Importar exemplo de notebook

summary = databricks.automl.classify(...)
result = databricks.automl.import_notebook(summary.trials[5].artifact_uri, "/Users/you@yourcompany.com/path/to/directory")
print(result.path)
print(result.url)

AutoMLSummary

Objeto de resumo para uma execução do AutoML que descreve as métricas, os parâmetros e outros detalhes para cada uma das avaliações. Você também usa esse objeto para carregar o modelo treinado por uma avaliação específica.

Propriedade Type Descrição
experiment mlflow.entities.Experiment O experimento MLflow usado para registrar as avaliações.
trials List[TrialInfo] Uma lista de objetos TrialInfo que contém informações sobre todas as avaliações que foram executadas.
best_trial TrialInfo Um objeto TrialInfo contendo informações sobre a avaliação que resultaram na melhor pontuação ponderada da métrica primária.
metric_distribution str A distribuição de pontuações ponderadas para a métrica primária em todas as avaliações.
output_table_name str Usado somente com previsão e somente se output_database for fornecido.

Nome da tabela no output_database que contém as previsões do modelo.

TrialInfo

Objeto de resumo para cada avaliação individual.

Propriedade Type Descrição
notebook_path Optional[str] O caminho para o notebook gerado para esta avaliação no espaço de trabalho.

Para classificação e regressão, esse valor é definido apenas para a melhor avaliação, enquanto todas as outras avaliações têm o valor definido como None.

Para previsão, esse valor está presente para todas as avaliações.
notebook_url Optional[str] A URL do notebook gerado para esta avaliação.

Para classificação e regressão, esse valor é definido apenas para a melhor avaliação, enquanto todas as outras avaliações têm o valor definido como None.

Para previsão, esse valor está presente para todas as avaliações.
artifact_uri Optional[str] O URI do artefato do MLflow para o notebook gerado.
mlflow_run_id str A ID de execução do MLflow associada a esta execução de avaliação.
metrics Dict[str, float] As métricas registradas em MLflow para esta avaliação.
params Dict[str, str] Os parâmetros registrados em MLflow que foram usados para esta avaliação.
model_path str A URL do artefato MLflow do modelo treinado nesta avaliação.
model_description str Breve descrição do modelo e dos hiperparâmetros usados para treinar esse modelo.
duration str Duração do treinamento em minutos
preprocessors str Descrição dos pré-processadores executados antes de treinar o modelo.
evaluation_metric_score float Pontuação da métrica primária, avaliada para o conjunto de dados de validação.

TrialInfo tem um método para carregar o modelo gerado para a avaliação.

Método Descrição
load_model() Carregue o modelo gerado nesta avaliação, registrado como um artefato MLflow.

ImportNotebookResult

Propriedade Type Descrição
path str O caminho no workspace do Databricks para o qual o notebook deve ser importado. Isso deve ser um caminho absoluto. O diretório será criado se ele não existir.
url str O URI do artefato MLflow que contém o notebook de avaliação.