Bien démarrer avec les expériences MLflow
Cette collection de notebooks montre comment être opérationnel avec les exécutions d’expérience MLflow.
Composants MLflow
MLflow est une plateforme open source qui permet de gérer le cycle de vie du machine learning de bout en bout. MLflow a trois composants principaux :
- Suivi
- Modèles
- Projets
Le composant MLflow Tracking vous permet de journaliser et d’interroger des sessions d’entraînement de modèles de machine (exécutions) en utilisant les API suivantes :
Une exécution MLflow est une collection de paramètres, de métriques, de balises et d’artefacts associés à un processus de formation de modèle Machine Learning.
Qu’est-ce que les expériences dans MLflow ?
Les expériences sont la principale unité d’organisation dans MLflow ; toutes les exécutions MLflow appartiennent à une expérience. Chaque expérience vous permet de visualiser, de rechercher et de comparer des exécutions, ainsi que de télécharger des artefacts ou des métadonnées à analyser dans d’autres outils. Les expériences sont conservées dans un serveur de suivi MLflow hébergé par Azure Databricks.
Les expériences ont pour emplacement l’arborescence de fichiers de l’espace de travail. Vous gérez les expériences à l’aide des mêmes outils que ceux que vous utilisez pour gérer d’autres objets de l’espace de travail tels que les dossiers, les notebooks et les bibliothèques.
Exemples de notebooks MLflow
Les notebooks suivants montrent comment créer une exécution MLflow et s’y connecter à l’aide des API de suivi MLflow, ainsi que la façon d’utiliser l’interface utilisateur de l’expérience pour visualiser l’exécution. Ces notebooks sont disponibles en Python, Scala et R.
Les notebooks Python et R utilisent une expérience de notebook. Le notebook Scala crée une expérience dans le dossier Shared
.
Remarque
Avec Databricks Runtime 10.4 LTS ML et versions ultérieures, Databricks Autologging est activé par défaut pour les notebooks Python.