Поделиться через


Крупные языковые модели (LLM)

Это важно

Среда выполнения ИИ для задач с одним узлом находится в общедоступной предварительной версии. API распределенного обучения для рабочих нагрузок с несколькими GPU остаются в бета-версии.

На этой странице приведены примеры записных книжек для точной настройки больших языковых моделей (LLM) с помощью среды выполнения ИИ. В этих примерах демонстрируются различные подходы к тонкой настройке, включая методы с эффективным использованием параметров, такие как адаптация с низким рангом (LoRA) и полная контролируемая настройка.

Руководство Описание
Тонкая настройка модели Qwen2-0.5B Эффективная настройка модели Qwen2-0.5B с помощью обучения с подкреплением преобразователей (TRL), Ядер Liger для эффективного обучения памяти и LoRA для эффективной настройки параметров.
Настройте Llama-3.2-3B с Unsloth Точно настройте Ламу-3.2-3B с помощью библиотеки Unsloth.
Защищенная настройка с помощью DeepSpeed и TRL Используйте API Python для бессерверного GPU для выполнения контролируемой тонкой настройки (SFT) с использованием библиотеки обучения с подкреплением методом трансформеров (TRL) с оптимизацией DeepSpeed ZeRO Stage 3.
Точное настройка LORA с помощью Axolotl Используйте бессерверный API Python GPU для точной настройки модели Olmo3 7B с использованием LORA и библиотеки Axolotl.

Демонстрация видео

В этом видео подробно рассматривается примерный ноутбук Fine-tune Llama-3.2-3B with Unsloth (12 минут).