Aan de slag met MLflow-experimenten

Deze verzameling notebooks laat zien hoe u aan de slag kunt met MLflow-experimentuitvoeringen.

MLflow-onderdelen

MLflow is een open source-platform voor het beheer van de end-to-end levenscyclus van machine learning. MLflow heeft drie primaire onderdelen:

  • Bijhouden
  • Modellen
  • Projecten

Met het onderdeel MLflow Tracking kunt u trainingssessies voor machinemodellen (uitvoeringen) vastleggen en opvragen met behulp van de volgende API's:

Een MLflow-uitvoering is een verzameling parameters, metrische gegevens, tags en artefacten die zijn gekoppeld aan een machine learning-modeltrainingsproces.

Wat zijn experimenten in MLflow?

Experimenten zijn de primaire eenheid van de organisatie in MLflow. Alle MLflow-uitvoeringen behoren tot een experiment. Met elk experiment kunt u uitvoeringen visualiseren, zoeken en vergelijken, evenals uitvoeringartefacten of metagegevens downloaden voor analyse in andere hulpprogramma's. Experimenten worden onderhouden op een door Azure Databricks gehoste MLflow-traceringsserver.

Experimenten bevinden zich in de structuur van het werkruimtebestand . U beheert experimenten met dezelfde hulpprogramma's die u gebruikt voor het beheren van andere werkruimteobjecten, zoals mappen, notebooks en bibliotheken.

Voorbeelden van MLflow-notebooks

De volgende notebooks laten zien hoe u een MLflow-uitvoering maakt en aanmeldt met behulp van de MLflow-tracerings-API's, en hoe u de experimentgebruikersinterface gebruikt om de uitvoering weer te geven. Deze notebooks zijn beschikbaar in Python, Scala en R.

De Python- en R-notebooks maken gebruik van een notebookexperiment. Het Scala-notebook maakt een experiment in de Shared map.

Notitie

Met Databricks Runtime 10.4 LTS ML en hoger is Databricks Autologging standaard ingeschakeld voor Python-notebooks.