Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Это важно
Эта функция доступна в бета-версии. Администраторы рабочей области могут управлять доступом к этой функции на странице "Предварительные версии ". См. статью "Управление предварительными версиями Azure Databricks".
На этой странице приведены примеры записных книжек для точной настройки больших языковых моделей (LLM) с помощью бессерверных вычислений GPU. В этих примерах демонстрируются различные подходы к тонкой настройке, включая эффективные параметры методы, такие как Low-Rank адаптация (LoRA) и полная защищенная настройка.
Точно настроенная модель Qwen2-0.5B
В следующей записной книжке представлен пример эффективной донастройки модели Qwen2-0.5B:
- Обучение с подкреплением преобразователя (TRL) для защищенной точной настройки
- Liger Kernels для обучения с эффективным использованием памяти с оптимизированными ядрами Triton.
- LoRA для эффективной настройки параметров.
Notebook
Точно настроенная Ллома-3.2-3B с unsloth
В этой записной книжке показано, как точно настроить Llama-3.2-3B с помощью библиотеки Unsloth.
Unsloth Llama
Демонстрация видео
Это видео подробно описывает записную книжку (12 минут).
Защищенная настройка с помощью DeepSpeed и TRL
В этой записной книжке показано, как использовать API Python для бессерверного GPU для запуска защищенной тонкой настройки (SFT) с помощью библиотеки Обучения с подкреплением преобразователей (TRL) с оптимизацией DeepSpeed ZeRO stage 3.
TRL DeepSpeed
Точная настройка LORA с помощью Axolotl
Эта записная книжка демонстрирует, как использовать API Python без сервера для LORA для точной настройки модели Olmo3 7B с помощью библиотеки Axolotl.