Aan de slag met MLflow-experimenten
Deze verzameling notebooks laat zien hoe u aan de slag kunt met MLflow-experimentuitvoeringen.
MLflow-onderdelen
MLflow is een open source-platform voor het beheer van de end-to-end levenscyclus van machine learning. MLflow heeft drie primaire onderdelen:
- Bijhouden
- Modellen
- Projecten
Met het onderdeel MLflow Tracking kunt u trainingssessies voor machinemodellen (uitvoeringen) vastleggen en opvragen met behulp van de volgende API's:
Een MLflow-uitvoering is een verzameling parameters, metrische gegevens, tags en artefacten die zijn gekoppeld aan een machine learning-modeltrainingsproces.
Wat zijn experimenten in MLflow?
Experimenten zijn de primaire eenheid van de organisatie in MLflow. Alle MLflow-uitvoeringen behoren tot een experiment. Met elk experiment kunt u uitvoeringen visualiseren, zoeken en vergelijken, evenals uitvoeringartefacten of metagegevens downloaden voor analyse in andere hulpprogramma's. Experimenten worden onderhouden op een door Azure Databricks gehoste MLflow-traceringsserver.
Experimenten bevinden zich in de structuur van het werkruimtebestand . U beheert experimenten met dezelfde hulpprogramma's die u gebruikt voor het beheren van andere werkruimteobjecten, zoals mappen, notebooks en bibliotheken.
Voorbeelden van MLflow-notebooks
De volgende notebooks laten zien hoe u een MLflow-uitvoering maakt en aanmeldt met behulp van de MLflow-tracerings-API's, en hoe u de experimentgebruikersinterface gebruikt om de uitvoering weer te geven. Deze notebooks zijn beschikbaar in Python, Scala en R.
De Python- en R-notebooks maken gebruik van een notebookexperiment. Het Scala-notebook maakt een experiment in de Shared
map.
Notitie
Met Databricks Runtime 10.4 LTS ML en hoger is Databricks Autologging standaard ingeschakeld voor Python-notebooks.