Not
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Viktigt!
Den här funktionen finns i Beta.
Den här sidan innehåller notebook-exempel för finjustering av stora språkmodeller (LLM: er) med hjälp av serverlös GPU-beräkning. Dessa exempel visar olika metoder för finjustering, inklusive parametereffektiva metoder som Low-Rank Adaptation (LoRA) och fullständig övervakad finjustering.
Finjustera Qwen2-0.5B-modell
Följande notebook-fil innehåller ett exempel på hur du effektivt finjusterar Qwen2-0.5B-modellen med hjälp av:
- Transformeringsförstärkningsinlärning (TRL) för övervakad finjustering
- Liger Kernels för minneseffektiv träning med optimerade Triton-kernels.
- LoRA för parametereffektiv finjustering.
Notebook
Finjustera Llama-3.2-3B med Unsloth
Den här notebook-filen visar hur du finjusterar Llama-3.2-3B med hjälp av biblioteket Unsloth.
Aktivera Llama
Videodemo
Den här videon går igenom anteckningsboken i detalj (12 minuter).
Övervakad finjustering med DeepSpeed och TRL
Den här notebook-filen visar hur du använder Serverlös GPU Python API för att köra övervakad finjustering (SFT) med hjälp av biblioteket Transformer Reinforcement Learning (TRL) med DeepSpeed ZeRO Steg 3-optimering.