Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
Это важно
Среда выполнения ИИ для задач с одним узлом находится в общедоступной предварительной версии. API распределенного обучения для рабочих нагрузок с несколькими GPU остаются в бета-версии.
На этой странице приведены примеры записных книжек для точной настройки больших языковых моделей (LLM) с помощью среды выполнения ИИ. В этих примерах демонстрируются различные подходы к тонкой настройке, включая методы с эффективным использованием параметров, такие как адаптация с низким рангом (LoRA) и полная контролируемая настройка.
| Руководство | Описание |
|---|---|
| Тонкая настройка модели Qwen2-0.5B | Эффективная настройка модели Qwen2-0.5B с помощью обучения с подкреплением преобразователей (TRL), Ядер Liger для эффективного обучения памяти и LoRA для эффективной настройки параметров. |
| Настройте Llama-3.2-3B с Unsloth | Точно настройте Ламу-3.2-3B с помощью библиотеки Unsloth. |
| Защищенная настройка с помощью DeepSpeed и TRL | Используйте API Python для бессерверного GPU для выполнения контролируемой тонкой настройки (SFT) с использованием библиотеки обучения с подкреплением методом трансформеров (TRL) с оптимизацией DeepSpeed ZeRO Stage 3. |
| Точное настройка LORA с помощью Axolotl | Используйте бессерверный API Python GPU для точной настройки модели Olmo3 7B с использованием LORA и библиотеки Axolotl. |
Демонстрация видео
В этом видео подробно рассматривается примерный ноутбук Fine-tune Llama-3.2-3B with Unsloth (12 минут).