Stora språkmodeller (LLM: er)

Viktigt!

Den här funktionen finns i Beta.

Den här sidan innehåller notebook-exempel för finjustering av stora språkmodeller (LLM: er) med hjälp av serverlös GPU-beräkning. Dessa exempel visar olika metoder för finjustering, inklusive parametereffektiva metoder som Low-Rank Adaptation (LoRA) och fullständig övervakad finjustering.

Finjustera Qwen2-0.5B-modell

Följande notebook-fil innehåller ett exempel på hur du effektivt finjusterar Qwen2-0.5B-modellen med hjälp av:

  • Transformeringsförstärkningsinlärning (TRL) för övervakad finjustering
  • Liger Kernels för minneseffektiv träning med optimerade Triton-kernels.
  • LoRA för parametereffektiv finjustering.

Notebook

Hämta anteckningsbok

Finjustera Llama-3.2-3B med Unsloth

Den här notebook-filen visar hur du finjusterar Llama-3.2-3B med hjälp av biblioteket Unsloth.

Aktivera Llama

Hämta anteckningsbok

Videodemo

Den här videon går igenom anteckningsboken i detalj (12 minuter).

Övervakad finjustering med DeepSpeed och TRL

Den här notebook-filen visar hur du använder Serverlös GPU Python API för att köra övervakad finjustering (SFT) med hjälp av biblioteket Transformer Reinforcement Learning (TRL) med DeepSpeed ZeRO Steg 3-optimering.

TRL DeepSpeed

Hämta anteckningsbok