Condividi tramite


Introduzione agli esperimenti di MLFlow

Questa raccolta di notebook illustra come è possibile iniziare a usare l'esperimento MLflow.

Componenti MLflow

MLflow è una piattaforma open source per la gestione del ciclo di vita end-to-end di Machine Learning. MLflow include tre componenti principali:

  • Rilevamento
  • Modelli
  • Progetti

Il componente MLflow Tracking consente di registrare ed eseguire query sulle sessioni di training del modello di computer (esecuzioni) usando le API seguenti:

Un'esecuzione MLflow è una raccolta di parametri, metriche, tag e artefatti associati a un processo di training del modello di Machine Learning.

Che cosa sono gli esperimenti in MLflow?

Gli esperimenti sono l'unità principale dell'organizzazione in MLflow. Tutte le esecuzioni MLflow appartengono a un esperimento. Ogni esperimento consente di visualizzare, cercare e confrontare le esecuzioni, nonché di scaricare gli artefatti o i metadati di esecuzione per l'analisi in altri strumenti. Gli esperimenti vengono mantenuti in un server di rilevamento MLflow ospitato in Azure Databricks.

Gli esperimenti si trovano nell'albero dei file dell'area di lavoro . Gli esperimenti vengono gestiti usando gli stessi strumenti usati per gestire altri oggetti dell'area di lavoro, ad esempio cartelle, notebook e librerie.

Notebook di esempio di MLflow

I notebook seguenti illustrano come creare e registrare un'esecuzione MLflow usando le API di rilevamento MLflow, nonché come usare l'interfaccia utente dell'esperimento per visualizzare l'esecuzione. Questi notebook sono disponibili in Python, Scala e R.

I notebook Python e R usano un esperimento di notebook. Il notebook Scala crea un esperimento nella Shared cartella .

Nota

Con Databricks Runtime 10.4 LTS ML e versioni successive, l'assegnazione automatica di Databricks è abilitata per impostazione predefinita per i notebook Python.