Megosztás a következőn keresztül:


Nagy nyelvi modellek (LLM-ek)

Fontos

Az egycsomópontos feladatokhoz készült AI-futtatókörnyezet nyilvános előzetes verzióban érhető el. A több GPU-s számítási feladatok elosztott betanítási API-ja a bétaverzióban marad.

Ezen a lapon jegyzetfüzet-példákat talál a nagyméretű nyelvi modellek (LLM-ek) AI-futtatókörnyezettel történő finomhangolásához. Ezek a példák a finomhangolás különböző megközelítéseit mutatják be, beleértve a paraméterhatékony módszereket, például a Low-Rank Adaptációt (LoRA) és a teljes felügyelt finomhangolást.

Oktatóanyag Leírás
Qwen2-0.5B modell finomhangolása Effektíven finomhangoljuk a Qwen2-0.5B modellt Transformer-megerősítő tanulás (TRL), Liger Kernelek memóriahatékony tréninghez és LoRA paraméterhatékony finomhangoláshoz való alkalmazásával.
Llama-3.2-3B finomhangolása Unsloth használatával A Llama-3.2-3B finomhangolása az Unsloth könyvtár használatával.
Felügyelt finomhangolás a DeepSpeed és a TRL használatával A Kiszolgálómentes GPU Python API-t használva felügyelt finomhangolást (SFT) végezhet a Transformer Reinforcement Learning (TRL) könyvtárral, DeepSpeed ZeRO Stage 3 optimalizálással.
LORA finomhangolás az Axolotl segítségével A Serverless GPU Python API-val a LORA segítségével finomhangolhat egy Olmo3 7B modellt az Axolotl könyvtár használatával.

Videó bemutató

Ez a videó részletesen végigvezeti a Llama-3.2-3B finomhangolásán unsloth példajegyzetfüzettel (12 perc).