Exécuter des expériences avec MLflow

Effectué

Les expériences MLflow permettent aux scientifiques des données de suivre les exécutions d’entraînement dans une collection appelée expérience. Les exécutions d’expériences sont utiles pour comparer les modifications au fil du temps ou comparer les performances relatives des modèles avec différentes valeurs d’hyperparamètres.

Exécution d’une expérience

La création d’une expérience dans Azure Databricks se produit automatiquement lorsque vous démarrez une exécution. Voici un exemple de démarrage d’une exécution dans MLflow, de journalisation de deux paramètres et de journalisation d’une métrique :

with mlflow.start_run():
    mlflow.log_param("input1", input1)
    mlflow.log_param("input2", input2)
    # Perform operations here like model training.
    mlflow.log_metric("rmse", rmse)

Dans ce cas, le nom de l’expérience est le nom du bloc-notes. Il est possible d’exporter une variable nommée MLFLOW_EXPERIMENT_NAME pour modifier le nom de votre expérience si vous le souhaitez.

Examen d’une exécution d’expérience

Dans le portail Azure Databricks, la page Expériences vous permet d’afficher les détails de chaque exécution d’expérience ; y compris les valeurs journalisées pour les paramètres, les métriques et d’autres artefacts.

Capture d’écran de la page d’exécution de l’expérience.