Udostępnij za pośrednictwem


Przepływ pracy uczenia głębokiego w MLflow 3

Przykładowy notatnik

Przykładowy notatnik uruchamia jedno zadanie trenowania modelu uczenia maszynowego głębokiego za pomocą PyTorch, które jest śledzone jako przebieg MLflow. Rejestruje model punktu kontrolnego po każdej 10 epokach. Każdy punkt kontrolny jest śledzony jako model MLflow LoggedModel. Za pomocą interfejsu użytkownika lub interfejsu API wyszukiwania platformy MLflow można sprawdzić modele punktów kontrolnych i sklasyfikować je według dokładności.

Notatnik instaluje biblioteki scikit-learn i torch .

Model uczenia głębokiego MLflow 3 z notesem punktów kontrolnych

Pobierz laptopa

Używanie interfejsu użytkownika do eksplorowania wydajności modelu i rejestrowania modelu

Po uruchomieniu notesu można wyświetlić zapisane modele punktów kontrolnych w interfejsie użytkownika eksperymentów MLflow. Link do eksperymentu zostanie wyświetlony w danych wyjściowych komórki notesu lub wykonaj następujące kroki:

  1. Kliknij pozycję Eksperymenty na pasku bocznym obszaru roboczego.

  2. Znajdź swój eksperyment na liście eksperymentów. Możesz zaznaczyć pole wyboru Tylko moje eksperymenty lub użyć pola wyszukiwania Filtruj eksperymenty , aby filtrować listę eksperymentów.

  3. Kliknij nazwę eksperymentu. Strona Uruchomienia otwiera się. Eksperyment zawiera jedno wykonanie platformy MLflow.

    Zakładka uruchomień MLflow 3 pokazująca przebieg treningu uczenia głębokiego.

  4. Kliknij kartę Modele . Poszczególne modele punktów kontrolnych są śledzone na tym ekranie. Dla każdego punktu kontrolnego można zobaczyć dokładność modelu wraz ze wszystkimi jego parametrami i metadanymi.

    Karta modeli MLflow 3 dla przebiegu uczenia głębokiego zawiera wszystkie zapisane modele punktów kontrolnych.

W przykładowym notatniku zarejestrowano najlepiej działający model w Unity Catalog. Możesz również zarejestrować model z poziomu interfejsu użytkownika. W tym celu wykonaj następujące kroki:

  1. Na karcie Modele kliknij nazwę modelu, aby się zarejestrować.

  2. Na stronie szczegółów modelu w prawym górnym rogu kliknij pozycję Zarejestruj model.

    Przycisk Zarejestruj model na stronie szczegółów modelu.

  3. Wybierz Unity Catalog i wybierz istniejącą nazwę modelu z menu rozwijanego lub wpisz nową nazwę.

    Rejestracja modelu – okno dialogowe.

  4. Kliknij pozycję Zarejestruj.

Używanie interfejsu API do klasyfikacji modeli punktów kontrolnych

Poniższy kod pokazuje, jak sklasyfikować modele punktów kontrolnych według dokładności. Aby uzyskać więcej informacji na temat wyszukiwania zarejestrowanych modeli przy użyciu interfejsu API, zobacz Wyszukiwanie i filtrowanie zarejestrowanych modeli.

ranked_checkpoints = mlflow.search_logged_models(
  output_format="list",
  order_by=[{"field_name": "metrics.accuracy", "ascending": False}]
)

best_checkpoint: mlflow.entities.LoggedModel = ranked_checkpoints[0]
print(best_checkpoint.metrics[0])

<Metric:
  dataset_digest='9951783d',
  dataset_name='train',
  key='accuracy',
  model_id='m-bba8fa52b6a6499281c43ef17fcdac84',
  run_id='394928abe6fc4787aaf4e666ac89dc8a',
  step=90,
  timestamp=1730828771880,
  value=0.9553571428571429
>

worst_checkpoint: mlflow.entities.LoggedModel = ranked_checkpoints[-1]
print(worst_checkpoint.metrics[0])

<Metric:
  dataset_digest='9951783d',
  dataset_name='train',
  key='accuracy',
  model_id='m-88885bc26de7492f908069cfe15a1499',
  run_id='394928abe6fc4787aaf4e666ac89dc8a',
  step=0,
  timestamp=1730828730040,
  value=0.35714285714285715

Jaka jest różnica między kartą Modele na stronie eksperymentu MLflow a stroną wersji modelu w Eksploratorze wykazu?

Na karcie Modelena stronie eksperymentu i na stronie wersji modelu w Eksploratorze wykazu są wyświetlane podobne informacje o modelu. Te dwa widoki mają różne role w cyklu projektowania i wdrażania modelu.

  • Karta Modele na stronie eksperymentu przedstawia wyniki zarejestrowanych modeli z eksperymentu na jednej stronie. Karta Wykresów na tej stronie zawiera wizualizacje, które pomagają w porównywaniu modeli oraz wyborze wersji modelu do zarejestrowania w Unity Catalog w celu ewentualnego wdrożenia.
  • W Eksploratorze wykazu strona wersji modelu zawiera omówienie wszystkich wyników wydajności i oceny modelu. Na tej stronie przedstawiono parametry modelu, metryki i ślady we wszystkich połączonych środowiskach, w tym w różnych obszarach roboczych, punktach końcowych i eksperymentach. Jest to przydatne w przypadku monitorowania i wdrażania oraz działa szczególnie dobrze w przypadku zadań wdrażania. Zadanie oceny w procesie wdrażania tworzy dodatkowe metryki, które pojawiają się na tej stronie. Osoba zatwierdzająca dla zadania może następnie przejrzeć tę stronę, aby ocenić, czy zatwierdzić wersję modelu na potrzeby wdrożenia.

Dalsze kroki

Aby dowiedzieć się więcej o LoggedModel śledzeniu wprowadzonym w rozwiązaniu MLflow 3, zobacz następujący artykuł:

Aby dowiedzieć się więcej o korzystaniu z platformy MLflow 3 z tradycyjnymi przepływami pracy uczenia maszynowego, zobacz następujący artykuł: