Отслеживание разработки моделей с помощью MLflow

В этой статье содержатся примеры разработки моделей отслеживания в Azure Databricks. Автоматически регистрируют и отслеживают модели машинного обучения и глубокого обучения с помощью MLflow или вручную с помощью API MLflow.

Отслеживание моделей и MLflow

Разработка и оптимизации модели — это итеративные процессы, отслеживание которых может быть непростой задачей. В Azure Databricks можно использовать отслеживание MLflow в ходе разработки модели для мониторинга настройки параметров и их комбинаций, а также влияния на производительность модели.

Отслеживание MLflow использует эксперименты и выполняется для регистрации и отслеживания разработки моделей машинного обучения и глубокого обучения. Выполнение — это однократный запуск кода модели. Во время выполнения MLflow можно регистрировать параметры и результаты модели. Эксперимент — это набор связанных выполнений. В эксперименте можно сравнить и отфильтровать запуски, чтобы понять, как выполняется модель и как ее производительность зависит от параметров, входных данных и т. д.

Записные книжки в этой статье содержат простые примеры, которые помогут быстро приступить к использованию MLflow для отслеживания разработки модели. Дополнительные сведения об использовании отслеживания MLflow в Azure Databricks см. в разделе "Отслеживание машинного обучения и глубокого обучения".

Примечание.

Отслеживание MLflow не поддерживает задания, отправленные в API заданий с помощью spark_submit_task. Вместо этого можно использовать проекты MLflow для выполнения кода Spark.

Использование автоматического ведения журнала для отслеживания разработки модели

MLflow может автоматически записывать код обучения, написанный во многих платформах машинного обучения и глубокого обучения. Это самый простой способ начать работу с отслеживанием MLflow.

В этом примере записной книжки показано, как использовать функцию автоматического ведения журнала в scikit-learn. Дополнительные сведения об автоматическом ведении журналов с помощью других библиотек Python см. в разделе Автоматическая регистрация выполнений обучения в MLflow.

Записная книжка Python для автологирования MLflow

Получить записную книжку

Использование API ведения журнала для отслеживания разработки модели

В этой записной книжке показано, как использовать API ведения журнала MLflow. Использование API ведения журнала обеспечивает больший контроль над зарегистрированными метриками и позволяет регистрировать дополнительные артефакты, такие как таблицы и диаграммы.

В этом примере записной книжки показано, как использовать API ведения журнала Python. MLflow также содержит REST API, API R и Java.

Записная книжка Python api ведения журнала MLflow

Получить записную книжку

Полный пример

В этой записной книжке представлен полный пример обучения модели в Azure Databricks, включая загрузку данных, визуализацию данных, настройку параллельной оптимизации гиперпараметров, а также использование MLflow для просмотра результатов, регистрации модели и выполнения вывода новых данных с помощью зарегистрированной модели в UDF Spark.

Требования

Databricks Runtime ML

Пример записной книжки

Если рабочая область включена для каталога Unity, используйте эту версию записной книжки:

Использование scikit-learn с интеграцией MLflow в Databricks (каталог Unity)

Получить записную книжку

Если рабочая область не включена для каталога Unity, используйте эту версию записной книжки:

Использование scikit-learn с интеграцией MLflow в Databricks

Получить записную книжку