Not
Bu sayfaya erişim yetkilendirme gerektiriyor. Oturum açmayı veya dizinleri değiştirmeyi deneyebilirsiniz.
Bu sayfaya erişim yetkilendirme gerektiriyor. Dizinleri değiştirmeyi deneyebilirsiniz.
Önemli
Tek düğümlü görevler için AI Çalışma Zamanı Genel Önizleme aşamasındadır. Çoklu GPU iş yükleri için dağıtılmış eğitim API'si Beta'da kalır.
Bu sayfada, AI Runtime kullanarak büyük dil modellerinde (LLM) ince ayar yapmak için not defteri örnekleri sağlanmaktadır. Bu örnekler, Low-Rank Adaptasyonu (LoRA) ve tam denetimli ince ayarlama gibi parametre verimli yöntemler dahil olmak üzere çeşitli ince ayarlama yaklaşımlarını gösterir.
| Kılavuz | Açıklama |
|---|---|
| Qwen2-0,5B modeline ince ayar yapma | Transformer pekiştirme öğrenmesini (TRL) kullanarak Qwen2-0.5B modelini, bellek açısından verimli eğitim için Liger Çekirdeklerini ve parametre açısından verimli ince ayarlama için LoRA'yı verimli bir şekilde ayarlayın. |
| Unsloth ile Llama-3.2-3B'i hassas ayar yapın | Unsloth kitaplığını kullanarak Llama-3.2-3B'de ince ayar yapın. |
| DeepSpeed ve TRL kullanarak denetimli ince ayarlama | DeepSpeed ZeRO Stage 3 iyileştirmesi ile Transformer Reinforcement Learning (TRL) kitaplığını kullanarak denetimli ince ayarlama (SFT) çalıştırmak için Sunucusuz GPU Python API'sini kullanın. |
| Axolotl kullanarak LORA'yı ince ayar yapma | Axolotl kitaplığını kullanarak Olmo3 7B modelini LORA ile ince ayar yapmak için Sunucusuz GPU Python API'sini kullanın. |
Video tanıtımı
Bu video, Unsloth ile Llama-3.2-3B ince ayar örnek not defterini ayrıntılı olarak (12 dakika) ele alıyor.